República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación Superior
Universidad “Fermín Toro”
Cabudare – Lara
Análisis Numérico.
Integrantes:
Christopher Adan C.I 24400311
Sección. SAIA B
Cabudare, Estado Lara 2015
Sistema de numeración y errores.
Tipos de errores
error por truncamiento: Los errores de truncamiento son aquellos
que resultan al usar una aproximación en lugar de un procedimiento
matemático exacto. Estos tipos de errores son evaluados con una
formulación matemática: la serie de Taylor. Taylor es una
formulación para predecir el valor de la función en Xi+1 en términos
de la función y de sus derivadas en una vecindad del punto Xi.
Siendo el termino final: Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1. En general, la
expansión en serie de Taylor de n-ésimo orden es exacta par a un
polinomio de n-ésimo orden. Para otras funciones continuas
diferenciables, como las exponenciales o senoidales, no se obtiene
una estimación exacta mediante un número finito de términos. Cada
una de los términos adicionales contribuye al mejoramiento de la
aproximación, aunque sea un poco.
Error de redondeo: Los errores de redondeo se deben a que las
computadoras solo guardan un número finito de cifras significativas
durante un cálculo. Las computadoras realizan esta función de
maneras diferentes; esta técnica de retener solo los primeros siete
términos se llamó “truncamiento” en el ambiente de computación.
De preferencia se llamara de corte, para distinguirlo de los errores
de truncamiento. Un corte ignora los términos restantes de la
representación decimal completa. La mayor parte de las
computadoras tienen entre 7 y 14 cifras significativas, los errores de
redondeo parecerían no ser muy importantes. Sin embargo, hay
dos razones del por qué pueden resultar críticos en algunos
métodos numéricos:
1. Ciertos métodos requieren cantidades extremadamente grandes
para obtener una respuesta. Además, estos cálculos a menudo
dependen entre sí, es decir, los cálculos posteriores son
dependientes de los anteriores. En consecuencia, aunque un
error de redondeo individual puede ser muy pequeño, el efecto
de acumulación en el transcurso de la gran cantidad de cálculos
puede ser significativo.
2. El efecto de redondeo puede ser exagerado cuando se llevan a
cabo operaciones algebraicas que emplean números muy
pequeños y muy grandes al mismo tiempo. Ya que este caso se
presenta en muchos métodos numéricos, el error de redondeo
puede resultar de mucha importancia.
Base de los números.
El sistema decimal (Base 10):
Este sistema está formado por diez símbolos, llamados números arábicos.
También es llamado sistema de base 10. Usando los diez símbolos
separadamente 0, 1, 2, 3, ..., 9 nos permite representar el valor de los
números en unidades individuales, pero para representar más de nueve
números es necesario combinarlos. Cuando usamos símbolos en
combinación, el valor de cada uno de ellos depende de su posición con
respecto al punto decimal, designando así un símbolo para las unidades, otro
para las decenas, otro para las centenas, otro para los millares (de miles, no
de millón), en adelante.
El símbolo correspondiente a las unidades asume la posición más
izquierda antes del punto decimal. Esta designación de posición determina
que la potencia del número se corresponde con la distancia en que está del
punto decimal, y es por ello que la primera posición se llama UNIDAD (100 =
1).
Errores de redondeo y aritmético en una computadora.
Cuando se usa una calculadora o computadora digital para realizar
cálculos numéricos, se debe considerar un error inevitable, el llamado error
de redondeo. Este error se origina porque la aritmética realizada en una
máquina involucra números con sólo un número finito de dígitos, con el
resultado de que muchos cálculos se realizan con representaciones
aproximadas de los números verdaderos. Este subconjunto contiene sólo
números racionales, positivos y negativos, y almacena una parte fraccionaria,
llamada la mantisa, junto con otra parte exponencial, llamada la
característica.
Ejemplo: Para la representación de un número flotante de precisión
simple, que consiste de 1 dígito binario (bit), indicador de signo, un
exponente de 7 bits en base 16, y una mantisa de 24 bits. 24 bits
corresponden a 6 o 7 dígitos decimales, podemos suponer que este número
tiene, por lo menos, seis cifras decimales de precisión para el sistema de
numeración de punto flotante. Por otro lado, el exponente de siete bits da un
rango de 0 a 127, pero debido a los exponentes usados el rango es,
realmente entre -64 y +63, o sea que, se resta automáticamente 64 del
exponente listado.
Error absoluto y error relativo
Error absoluto. Es la diferencia entre el valor de la medida y el
valor tomado como exacto. Puede ser positivo o negativo, según si
la medida es superior al valor real o inferior (la resta sale positiva o
negativa). Tiene unidades, las mismas que las de la medida.
El error absoluto es igual a la imprecisión que acompaña a la
medida. Nos da idea de la sensibilidad del aparato o de lo
cuidadosas que han sido las medidas por lo poco dispersas que
resultaron. Ea=imprecisión=incertidumbre El error absoluto nos
indica el grado de aproximación y da un indicio de la calidad de la
medida. El conocimiento de la calidad se complementa con el error
relativo.
Error relativo. Es el cociente (la división) entre el error absoluto y
el valor exacto. Si se multiplica por 100 se obtiene el tanto por
ciento (%) de error. Al igual que el error absoluto puede ser positivo
o negativo (según lo sea el error absoluto) porque puede ser por
exceso o por defecto. no tiene unidades.
Cifras significativas: representan el uso de una o más escalas de
incertidumbre en determinadas aproximaciones. Se dice que 4,7 tiene 2
cifras significativas, mientras que 4,70 tiene 3. Para distinguir los ceros que
son significativos de los que no son, estos últimos suelen indicarse como
potencias de 10 en notación científica, por ejemplo 5724 será 5,724x103, con
4 cifras significativas. También, cuando no se pueden poner más una cierta
cantidad de cifras, por ejemplo de tres cifras simplemente, a la tercera cifra
se le incrementa un número si el predecesor es 5 con otras cifras o mayor
que 5 y si es menor simplemente se deja igual. Ejemplo 5,3689 consta de 5
cifras significativas, si sólo se pueden mostrar tres cifras, se le suma una
unidad a la cifra 6 (6+1=7) ya que la cifra que la precede 8 es mayor que 5,
así que queda 5,37 y si el número es menor que cinco: así 5,36489 y se
redondea queda 5,36, no aumenta por que la cifra 4 es menor que 5.
Teorema del valor medio.
En esencia el teorema dice que dada cualquier función f continua en el
intervalo [a, b] y diferenciable en el intervalo abierto (a, b) entonces existe al
menos algún punto c en el intervalo (a, b) tal que la tangente a la curva
en c es paralela a la recta secante que une los puntos (a, f(a)) y (b, f(b)). Es
decir:
Este teorema lo formuló Lagrange.
El teorema del valor medio de Lagrange de hecho es una generalización
del teorema de Rolle que dice que si una función es definida y continua [a, b],
diferenciable en el intervalo abierto (a, b), y toma valores iguales en los
extremos del intervalo – en otras palabras, f(a) = f(b) – entonces existe al
menos algún punto c en el intervalo (a, b) tal que la tangente a la curva
en c es horizontal, es decir f'(c) = 0.
Teorema del valor medio ponderado para integrales.
Este teorema es importante porque asegura que una función continua en
un intervalo cerrado alcanza su valor promedio al menos en un punto. Si f es
continua en el intervalo cerrado [a, b], existe un número c en este intervalo tal
que
f(c)(b - a) = ∫a
b
F (x)dx
Demostración:
Primer caso: Si f es constante en el intervalo [a, b] el resultado es trivial
puesto que c puede ser cualquier punto.
Segundo caso: Si f no es constante en [a, b] elegimos m y M como el
menor y mayor valor que toma f en el intervalo. Dado que m ≤ f(x) ≤ M ∀ x∈[a, b] por el teorema de conservación de desigualdades.
Aplicando propiedades: m(b - a)≤∫a
b
F ( x )dx ≤ M(b - a)
Entonces
m ≤ 1b−a∫a
b
F ( x )dx≤M. Dado que f es continua el teorema del valor
intermedio asegura que f alcanza cada valor entre su mínimo y su máximo.
Por lo tanto permite deducir que debe alcanzar el valor 1b−a∫a
b
F ( x )dx en
algún punto c del intervalo. [a, b]. Queda demostrado que existe algún c tal
que
f(c) = 1b−a∫a
b
F ( x )dx
Teorema de rolle
El teorema de Rolle demuestra la existencia de un punto interior en
un intervalo abierto para el cual la derivada de una función derivable se anula
cuando el valor de ésta en los extremos del intervalo es el mismo. Es
generalizado mediante el teorema del valor medio, del que este es un caso
especial. Es uno de los principales teoremas en cálculo debido a sus
aplicaciones.
Se puede enunciar de la siguiente manera,
Si es una función continua definida en un intervalo cerrado
, derivable sobre el intervalo abierto y , entonces:
Existe al menos un punto perteneciente al intervalo tal
que .
Teorema del valor intermedio.
El teorema del valor intermedio (o más correctamente teorema de los
valores intermedios, o TVI), es un teorema sobre funciones continuas
reales definidas sobre un intervalo. Intuitivamente, el resultado afirma que, si
una función es continua en un intervalo, entonces toma todos los intermedios
comprendidos entre los extremos del intervalo.
El teorema de los valores intermedios establece que:
Sea una función continua en un intervalo . Entonces para cada
tal que , existe al menos un dentro de tal
que .
Teorema de Taylor.
Este teorema permite obtener aproximaciones polinómicas de una
función en un entorno de cierto punto en que la función sea diferenciable.
Además el teorema permite acotar el error obtenido mediante dicha
estimación.
Caso con una variable:
Este teorema permite aproximar una función derivable en
el entorno reducido alrededor de un punto a Є (a, d) mediante un
polinomio cuyos coeficientes dependen de las derivadas de la
función en ese punto. Más formalmente, si ≥ 0 es un entero y
una función que es derivable veces en el intervalo cerrado [ , ]
y +1 veces en el intervalo abierto ( , ), entonces se cumple que:
(1a)
O en forma compacta
(1b)
Donde denota el factorial de , y es el resto, término que
depende de y es pequeño si está próximo al punto . Existen
dos expresiones para que se mencionan a continuación:
(2a)
donde y , pertenecen a los números reales, a los enteros y
es un número real entre y :
(2b)
Si es expresado de la primera forma, se lo
denomina Término complementario de Lagrange, dado que el
Teorema de Taylor se expone como una generalización del
Teorema del valor medio o Teorema de Lagrange, mientras que la
segunda expresión de R muestra al teorema como una
generalización del Teorema fundamental del cálculo integral.
Para algunas funciones , se puede probar que el resto,
, se aproxima a cero cuando se acerca al ∞; dichas funciones
pueden ser expresadas como series de Taylor en un entorno
reducido alrededor de un punto y son denominadas funciones
analíticas.
El teorema de Taylor con expresado de la segunda forma
es también válido si la función tiene números complejos o valores
vectoriales. Además existe una variación del teorema de Taylor
para funciones con múltiples variables.
Caso de varias variables: El teorema de Taylor anterior (1) puede
generalizarse al caso de varias variables como se explica a
continuación. Sea B una bola en RN centrada en el punto a, y f una
función real definida sobre la clausura cuyas derivadas parciales
de orden n+1 son todas continuas en cada punto de la bola. El
teorema de Taylor establece que para cualquier :
Donde la suma se extiende sobre los multi-índices α (esta fórmula
usa la notación multi-índice). El resto satisface la desigualdad:
para todo α con |α|=n+1. Tal como sucede en el caso de una
variable, el resto puede expresarse explícitamente en términos de
derivadas superiores (véase la demostración para los detalles).
Teorema fundamental del algebra.
Establece que todo polinomio de grado mayor que cero tiene una raíz. El
dominio de la variable es el conjunto de los números complejos, que es una
extensión de los números reales.
Aunque este enunciado, en principio, parece ser una declaración débil,
implica que todo polinomio de grado n de una variable con grado mayor que
cero con coeficientes complejos tiene, contando las multiplicidades,
exactamente n raíces complejas. La equivalencia de estos dos enunciados
se realiza mediante la división polinómica sucesiva por factores lineales.
Hay muchas demostraciones de esta importante proposición, que
requieren bastantes conocimientos matemáticos para formalizarlas.
Solución de ecuaciones no lineales.
Un algoritmo de búsqueda de raíces es un método numérico
o algorítmico para encontrar las soluciones aproximadas de una ecuación
dada por la expresión f(x) = 0 para una función matemática f dada. A la
solución x de la ecuación se le llama raíz o cero de la función.
Igualmente, resolver la ecuación f(x) = g(x) es análogo a resolver la
ecuación f − g = 0, es decir, encontrar las raíces de la función f - g.
Este artículo trata sobre cómo encontrar raíces reales ó complejas,
aproximadas por números de punto flotante.
Los métodos numéricos de resolución de ecuaciones no lineales suelen
ser métodos iterativos que producen una sucesión de valores aproximados
de la solución, que se espera, que converja a la raíz de la ecuación. Estos
métodos van calculando las sucesivas aproximaciones sobre la base de los
anteriores, a partir de una o varias aproximaciones iniciales.
El comportamiento de los algoritmos de búsqueda de raíces se estudia
en análisis numérico. Funcionan mejor cuando se toman en cuenta las
características de la función. Para saber que método debemos aplicar, hay
que tener en cuenta la capacidad de separar raíces cercanas, confiabilidad
en el alcance de soluciones evitando errores numéricos graves y orden de
convergencia.
Método de bisección.
El método de bisección es un algoritmo de búsqueda de raíces que
trabaja dividiendo el intervalo a la mitad y seleccionando el subintervalo que
tiene la raíz.
Para aplicar el método consideremos tres sucesiones
definidas por las siguientes relaciones:
Donde los valores iniciales vienen dados por:
Se puede probar que las tres sucesiones convergen al valor de la única
raíz del intervalo:
Método de la falsa posición.
Pretende conjugar la seguridad del método de la bisección con la rapidez
del método de la secante. Este método, como en el método de la bisección,
parte de dos puntos que rodean a la raíz f(x) = 0, es decir, dos puntos x0 y x1
tales que f(x0)f(x1) < 0. La siguiente aproximación, x2, se calcula como la
intersección con el eje X de la recta que une ambos puntos (empleando la
ecuación (35) del método de la secante). La asignación del nuevo intervalo
de búsqueda se realiza como en el método de la bisección: entre ambos
intervalos, [x0,x2] y [x2,x1], se toma aquel que cumpla f(x)f(x2) < 0.
Método de Newton.
(conocido también como el método de Newton-Raphson o el método de
Newton-Fourier) es un algoritmo eficiente para encontrar aproximaciones de
los ceros o raíces de una función real. También puede ser usado para
encontrar el máximo o mínimo de una función, encontrando los ceros de su
primera derivada.
El método de Newton-Raphson es un método abierto, en el sentido de que
no está garantizada su convergencia global. La única manera de alcanzar la
convergencia es seleccionar un valor inicial lo suficientemente cercano a la
raíz buscada. Así, se ha de comenzar la iteración con un valor
razonablemente cercano al cero (denominado punto de arranque o valor
supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de
la naturaleza de la propia función; si ésta presenta múltiples puntos de
inflexión o pendientes grandes en el entorno de la raíz, entonces las
probabilidades de que el algoritmo diverja aumentan, lo cual exige
seleccionar un valor puesto cercano a la raíz. Una vez que se ha hecho esto,
el método linealiza la función por la recta tangente en ese valor supuesto. La
abscisa en el origen de dicha recta será, según el método, una mejor
aproximación de la raíz que el valor anterior. Se realizarán sucesivas
iteraciones hasta que el método haya convergido lo suficiente.
Sea f: [a, b] -> R función derivable definida en el intervalo real [a, b].
Empezamos con un valor inicial x0 y definimos para cada número natural n
Donde f ' denota la derivada de f.
Nótese que el método descrito es de aplicación exclusiva para funciones
de una sola variable con forma analítica o implícita conocible. Existen
variantes del método aplicables a sistemas discretos que permiten estimar
las raíces de la tendencia, así como algoritmos que extienden el método de
Newton a sistemas multivariables, sistemas de ecuaciones, etcétera.
Método de la secante.
Es un método para encontrar los ceros de una función de forma iterativa.
Es una variación del método de Newton-Raphson donde en vez de
calcular la derivada de la función en el punto de estudio, teniendo en mente
la definición de derivada, se aproxima la pendiente a la recta que une la
función evaluada en el punto de estudio y en el punto de la iteración anterior.
Este método es de especial interés cuando el coste computacional de derivar
la función de estudio y evaluarla es demasiado elevado, por lo que el método
de Newton no resulta atractivo.
En otras palabras, el método de la secante es un algoritmo de la raíz de
investigación que utiliza una serie de raíces de las líneas secantes para
aproximar mejor la raíz de una función f. El método de la secante se puede
considerar como una aproximación en diferencias finitas del método de
Newton-Raphson. Sin embargo, este método fue desarrollado
independientemente de este último.
El método se define por la relación de recurrencia:
Como se puede ver, este método necesitará dos aproximaciones iniciales
de la raíz para poder inducir una pendiente inicial.
Interpolación y aproximación de funciones.
Interpolación polinomica de lagrange.
Dado un conjunto de k + 1 puntos
donde todos los xj se asumen distintos, el polinomio interpolador en la
forma de Lagrange es la combinación lineal
de bases polinómicas de Lagrange
La función que estamos buscando es una función polinómica L(x) de
grado k con el problema de interpolación puede tener tan solo una solución,
pues la diferencia entre dos tales soluciones, sería otro polinomio de
grado k a lo sumo, con k+1 ceros.
Por lo tanto, L(x) es el único polinomio interpolador
Polinomio de avance de Newton Gregory
Dados los valores de una función correspondientes a los
(n+1) valores equidistantes de la variable, se busca un
polinomio de grado n:
que pase por los (n+1) pares de coordenadas.
Los coeficientes se obtienen sometiendo a la parábola
correspondiente a las n+1 condiciones de pasar por los
punto .
El polinomio de Gregory-Newton (ascendente) expresado formalmente
por:
Es utilizado para hallar la expresión del polinomio derivada con datos
equidistantes interpolados.
Diferenciación e integración numérica.
Diferenciación numérica: es una técnica de análisis
numérico para calcular una aproximación a la derivada de
una función en un punto utilizando los valores y propiedades de la
misma.
Por definición la derivada de una función es:
Las aproximaciones numéricas que podamos hacer (para h > 0)
serán:
Diferencias hacia adelante:
Diferencias hacia atrás:
La aproximación de la derivada por este método entrega resultados
aceptables con un determinado error. Para minimizar los errores se
estima que el promedio de ambas entrega la mejor aproximación
numérica al problema dado:
Diferencias centrales:
Integración numérica: constituye una amplia gama
de algoritmos para calcular el valor numérico de una integral
definida y, por extensión, el término se usa a veces para describir
algoritmos numéricos para resolver ecuaciones diferenciales. El
término cuadratura numérica (a menudo abreviado a cuadratura) es
más o menos sinónimo de integración numérica, especialmente si
se aplica a integrales de una dimensión a pesar de que para el
caso de dos o más dimensiones (integral múltiple) también se
utiliza.
El problema básico considerado por la integración numérica es
calcular una solución aproximada a la integral definida:
Este problema también puede ser enunciado como un problema de
valor inicial para una ecuación diferencial ordinaria, como sigue:
Encontrar y(b) es equivalente a calcular la integral. Los métodos
desarrollados para ecuaciones diferenciales ordinarias, como
el método de Runge-Kutta, pueden ser aplicados al problema
reformulado.
Fórmulas de newton-cotes.
Son un grupo de fórmulas de integración numérica de tipo interpolatorio,
en las cuales se evalúa la función en puntos equidistantes, para así hallar un
valor aproximado de la integral. Cuantos más intervalos se divida la función
más precisa será el resultado.
Este método es eficiente si se conocen los valores de la función en puntos
igualmente separados. Si se pueden cambiar los puntos en los cuales la
función es evaluada otros métodos como la cuadratura de Gauss son
probablemente más eficientes.
Regla del trapecio
La regla del trapecio consiste en hallar la integral aproximada de una
función a través de un polinomio de primer grado, es decir uniendo mediante
una recta los puntos en donde se evaluara la función.
Y el error es:
Siendo un número entre a y b.
Regla de Simpson
La regla de Simpson (nombrada así por Thomas Simpson) halla la integral
aproximada de una función mediante un polinomio de segundo o tercer
grado.
Regla de Simpson 1/3
La regla de Simpson 1/3 utiliza tres puntos consecutivos en donde se
evalúa la función a través de un polinomio de segundo grado.
Y el error es:
Siendo un número entre a y b.
Regla de Simpson 3/8
La regla de Simpson 3/8 utiliza cuatro puntos consecutivos en donde se
evalúa la función a través de un polinomio de tercer grado.
.
Y el error es:
Siendo un número entre a y b.
Ecuaciones diferenciales ordinarias.
En matemáticas, una ecuación diferencial ordinaria (comúnmente
abreviada "EDO") es la que contiene una función desconocida
de una variable independiente y relaciona con sus derivadas:
una sola variable independiente (a diferencia de las ecuaciones
diferenciales parciales que involucran derivadas parciales de varias
variables), y
una o más de sus derivadas respecto de tal variable.
Recursos de la física, la ingeniería, la economía, la meteorología y en
aplicaciones como las de modelado en ciencias, se las estudia en diversas
áreas (como geometría, mecánica y astronomía) y perspectivas.
Matemáticamente es de crucial interés el conjunto de funciones que verifican
la ecuación y establecen sus soluciones. Sólo las ecuaciones diferenciales
más sencillas admiten soluciones dadas por fórmulas explícitas (como las
lineales asociadas a una teoría desarrollada prácticamente por completo).
No obstante, pueden determinarse algunas propiedades de las soluciones de
una ecuación diferencial sin requerirse su formulación exacta. Clave para
resolver la mayoría de las ecuaciones diferenciales no lineales de sumo
interés en numeroso casos. Casos carentes de una fórmula auto-contenida
para su solución que se suple con la aproximada numéricamente con el
auxilio crucial de las computadoras.
La matemática pura centra el foco formal en la solución, su existencia y si
es o no única. La aplicada controla la validez de los métodos para la solución
numéricamente aproximada y el rigor de las justificaciones con que se los
sustenta.
La teoría de los sistemas dinámicos prioriza el análisis cualitativo de
sistemas descriptos por ecuaciones diferenciales mientras se han venido
sumando numerosos métodos numéricos para determinar soluciones con un
grado dado de precisión.
Método de Euler
El Método de Euler o de las Tangentes constituye el primer y más sencillo
ejemplo de método numérico para la resolución de un problema de valor
inicial:
y 0 = f(x, y), y(x0) = y0
Donde suponemos además que se verifican las hipótesis del Teorema de
Picard 1, y en consecuencia existe solución única para el problema.
Interpretando la e.d.o. y 0 = f(x, y) como un campo de direcciones en el
plano x − y Y la condición inicial y(x0) = y0 como un punto (x0, y0) de dicho
plano, podemos aproximar la función solución y(x) por medio de la recta
tangente a la misma que pasa por ese punto:
y(x) ∼= y0 + f(x0, y0) (x − x0)
Métodos de Runge-Kutta
La idea general de los Métodos de Runge-Kutta es sustituir el Problema
de Valor Inicial:
Y´= f(x,y)
Y(x0)= y0
Por la ecuación integral equivalente
∫y 0
y
dy=∫x 0
x
f (x , y¿¿(x ))dx ¿¿ Entonces y=y0+ ∫x0
x
f (x , y ( x ) )dx
Para proceder a aproximar esta ´ultima integral mediante un método
numérico adecuado (recordemos que y(x) es desconocida). Si nuevamente
planteamos el problema “paso a paso” tendremos:
Yn+1= Yn + ∫xn
xn+1
f ¿¿
Método de Runge-Kutta de segundo orden
La primera opción que podemos aplicar es integrar mediante el método
de los trapecios, es decir tomando:
∫xn
xn+1
f (x , y (x ) )dx ≅ 12
h(f(xn,yn)) + f(xn+1,yn+1)
Método de Runge-Kutta de tercer orden
Se trata de la misma idea pero integrando por el Método de Simpson,
entonces:
∫xn
xn+1
f (x , y (x ) )dx ≅
h23 ( f ( xn , yn ) )+4 f (xn+ 1
2, yn+ 1
2 )+ f ( xn+1 , yn+1 )
Método de Runge-Kutta de cuarto orden
Los Métodos de Runge-Kutta de cuarto orden se deducen de una manera
similar a la expuesta en la sección anterior para el caso de tercer orden.
Ahora se introduce un nuevo paso intermedio en la evaluación de la
derivada. Una vez más se presentan varias opciones en la evaluación y es
posible ajustar de tal manera que se garantice el error local de manera
proporcional a h 5 (es decir garantizando exactitud en el cuarto orden en el
polinomio de Taylor), lo cual lleva a un error global proporcional a h 4. El
Método de cuarto orden más habitual es el determinado por las formulas
siguientes:
K1= hf(xn,yn)
K2= hf(xn+ h2 , yn+ k12 )
K3= hf(xn+ h2 , yn+ k22 )
K4= hf( xn+h , yn+k3 )
Yn+1= yn+16
( ki+2k 2+2 k 3+k 4 )
Que al igual que el método de tercer orden está basado en el método de
interacción de Simpson. Los errores local y global son en este caso
proporcionales a h 5 y h 4 respectivamente.
Método de Jacobi
El método Jacobi es el método iterativo para resolver sistemas de
ecuaciones lineales más simple y se aplica solo a sistemas cuadrados, es
decir a sistemas con tantas incógnitas como ecuaciones.
1 Primero se determina la ecuación de recurrencia. Para ello se
ordenan las ecuaciones y las incógnitas. De la ecuación i se despeja
la incógnita i. En notación matricial se escribirse como:
X= C + Bx
Donde x es el vector de incógnitas.
2. Se toma una aproximación para las soluciones y a ´esta se le designa
por xo.
3. Se itera en el ciclo que cambia la aproximación.
Xi+1= c + Bxi
Convergencia y convergencia en Jacobi
Uno de los principales problemas de los métodos iterativos es la garantía
de que el método va a converger, es decir, va a producir una sucesión de
aproximaciones cada vez efectivamente más próximas a la solución. En el
caso del método de Jacobi no existe una condición exacta para la
convergencia. Lo mejor es una condición que garantiza la convergencia,
pero en caso de no cumplirse puede o no haberla es la siguiente: Si la matriz
de coeficientes original del sistema de ecuaciones es diagonalmente
dominante, el método de Jacobi seguro converge.
El Método de Gauss-Seidel
El método de Gauss-Seidel es muy semejante al método de Jacobi.
Mientras que en el de Jacobi se utiliza el valor de las incógnitas para
determinar una nueva aproximación, en el de Gauss-Seidel se va utilizando
los valores de las incógnitas recién calculados en la misma iteración, y no en
la siguiente. Por ejemplo, en el método de Jacobi se obtiene en el primer
cálculo xi+1, pero este valor de x no se utiliza sino hasta la siguiente
iteración. En el método de Gauss-Seidel en lugar de eso se utiliza de xi+1 en
lugar de xi en forma inmediata para calcular el valor de yi+1 de igual manera
procede con las siguientes variables; siempre se utilizan las variables recién
calculadas.
Top Related