Resumen Numérico

30
Tabla de contenido 1. Errores................................................................ 3 1.1. Error de Truncamiento.................................................3 1.2. Error de Redondeo.....................................................3 1.3. Error Absoluto........................................................3 1.4. Error Relativo........................................................3 1.5. Cifras Significativas.................................................3 1.6. Redondeo Simétrico....................................................3 1.7. Redondeo Truncado.....................................................3 1.8. Estable...............................................................4 1.9. Condicionalmente Estable..............................................4 1.10. Rapidez de convergencia.............................................4 2. Soluciones de Ecuaciones de una Variable...............................4 2.1. Bisección.............................................................4 2.1.1. Teorema: Sobre la cantidad de iteraciones...........................4 3. Interpolación de Curvas................................................ 5 3.1. Método de Lagrange....................................................5 3.1.1. Desventajas del método..............................................5 4. Derivación Numérica.................................................... 5 4.1. Fórmulas de tres puntos...............................................5 4.1.1. Fórmula de tres puntos del punto extremo............................5 4.1.2. Fórmula de tres puntos del punto medio..............................5 4.2. Fórmulas de cinco puntos..............................................6 4.2.1. Fórmula de cinco puntos del punto medio.............................6 4.2.2. Fórmula de los cinco puntos extremos................................6 4.3. Fórmula de la segunda derivada del punto medio........................6 4.4. Extrapolación de Richardson...........................................6 4.4.1. Precisión de las aproximaciones.....................................6 1

description

Fórmulas Análisis Numérico

Transcript of Resumen Numérico

Page 1: Resumen Numérico

Tabla de contenido1. Errores................................................................................................................................................................................................... 3

1.1. Error de Truncamiento..............................................................................................................................................................3

1.2. Error de Redondeo...................................................................................................................................................................... 3

1.3. Error Absoluto............................................................................................................................................................................... 3

1.4. Error Relativo................................................................................................................................................................................ 3

1.5. Cifras Significativas..................................................................................................................................................................... 3

1.6. Redondeo Simétrico....................................................................................................................................................................3

1.7. Redondeo Truncado................................................................................................................................................................... 3

1.8. Estable............................................................................................................................................................................................... 4

1.9. Condicionalmente Estable........................................................................................................................................................4

1.10. Rapidez de convergencia.....................................................................................................................................................4

2. Soluciones de Ecuaciones de una Variable............................................................................................................................4

2.1. Bisección.......................................................................................................................................................................................... 4

2.1.1. Teorema: Sobre la cantidad de iteraciones.................................................................................................................4

3. Interpolación de Curvas.................................................................................................................................................................5

3.1. Método de Lagrange................................................................................................................................................................... 5

3.1.1. Desventajas del método....................................................................................................................................................... 5

4. Derivación Numérica.......................................................................................................................................................................5

4.1. Fórmulas de tres puntos...........................................................................................................................................................5

4.1.1. Fórmula de tres puntos del punto extremo.................................................................................................................5

4.1.2. Fórmula de tres puntos del punto medio.....................................................................................................................5

4.2. Fórmulas de cinco puntos........................................................................................................................................................ 6

4.2.1. Fórmula de cinco puntos del punto medio..................................................................................................................6

4.2.2. Fórmula de los cinco puntos extremos..........................................................................................................................6

4.3. Fórmula de la segunda derivada del punto medio........................................................................................................6

4.4. Extrapolación de Richardson..................................................................................................................................................6

4.4.1. Precisión de las aproximaciones......................................................................................................................................6

5. Integración Numérica..................................................................................................................................................................... 7

5.1. Regla Compuesta del Trapecio...............................................................................................................................................7

5.2. Regla Compuesta de Simpson.................................................................................................................................................7

1

Page 2: Resumen Numérico

5.3. Integración de Romberg........................................................................................................................................................... 7

5.4. Fórmulas de Newton Cotes......................................................................................................................................................7

5.4.1. Fórmulas Cerradas Comunes de Newton Cotes.........................................................................................................7

5.4.2. Fórmulas Abiertas de Newton Cotes..............................................................................................................................8

5.4.3. Cuadratura de Gauss..............................................................................................................................................................8

6. Problemas a Valores Iniciales......................................................................................................................................................9

6.1. Existencia y Unicidad de la Solución...................................................................................................................................9

6.2. Método de Euler........................................................................................................................................................................... 9

6.2.1. Error de Truncamiento Local............................................................................................................................................9

6.2.2. Error global............................................................................................................................................................................. 10

6.2.3. Consistencia............................................................................................................................................................................ 10

6.2.4. Estabilidad............................................................................................................................................................................... 10

6.2.5. Convergencia.......................................................................................................................................................................... 10

6.3. Método de Taylor de Orden n..............................................................................................................................................10

6.4. Método de Runge-Kutta..........................................................................................................................................................10

6.4.1. Método de Runge-Kutta de orden dos.........................................................................................................................10

6.4.2. Método de Runge-Kutta de Orden Cuatro.................................................................................................................11

6.5. Método explícito de Adams-Moulton..............................................................................................................................11

6.5.1. Método explícito de Adams-Moulton de dos pasos...............................................................................................11

6.5.2. Método Explícito de Adams-Moulton de tres pasos..............................................................................................11

6.5.3. Método Explícito de Adams-Moulton de cuatro pasos........................................................................................12

6.6. Método implícito de Adams Bashforth............................................................................................................................12

6.6.1. Método Implícito de Adams Bashforth de dos pasos............................................................................................12

6.6.2. Método Implícito de Adams Bashforth de tres pasos...........................................................................................12

6.7. Método Predictor-Corrector de Milne..............................................................................................................................13

2

Page 3: Resumen Numérico

1. Errores

1.1. Error de TruncamientoSe refiere al error implícito al usar una suma truncada o finita, para aproximar la suma de una serie infinita.1.2. Error de RedondeoSe refiere al error debido a que la aritmética de una máquina solo usa números con una cantidad finita de cifras, de modo que los cálculos se realizan únicamente con representaciones aproximadamente de los números verdaderos.1.3. Error AbsolutoSi p¿ es una aproximación de p→ el error absoluto de p es:

¿ p−p¿∨¿

1.4. Error RelativoSi p∗¿ es una aproximación de p → el error relativo de p es:¿ p−p¿∨ ¿

¿ p∨¿con p≠0¿¿

1.5. Cifras SignificativasEl número p¿ aproxima a p con t cifras significativas si t es el mayor entero no negativo para el cual, el ¿ p−p¿∨ ¿

¿ p∨¿≤5.10−t ¿¿.

1.6. Redondeo SimétricoEl último dígito significativo o el más significativo, si existe, se deja tal cual, si el primer dígito no significativo es menor a 5 o se incrementa en 1 caso contrario.1.7. Redondeo TruncadoSe escribe hasta el último dígito significativo o el más significativo si existe.

Nota: Los errores se expresan con 1 o a lo sumo 2 dígitos.3

Page 4: Resumen Numérico

1.8. EstableEl término indica que un pequeño cambio en las condiciones iniciales no resulta en un cambio dramático en la solución del problema.1.9. Condicionalmente EstableSon algoritmos que sólo son estables para ciertas elecciones de datos iniciales.1.10. Rapidez de convergenciaSuponga que, {βn }n=1∞ es una sucesión que converge a cero y que {αn }n=1∞ converge a un número α . Si existe una constante positiva k tal que |αn−α|≤k|βn|, para n grande, entonces decimos que la sucesión {αn }n=1∞ converge a α con rapidez u orden de convergencia O(βn).2. Sistemas de Ecuaciones Lineales (SEL)

2.1. Métodos DirectosEl objetivo es resolver el sistema del tipo Ax=b2.1.1. Sistema de Solución InmediataEl sistema se presenta con la forma de las matrices L o U dondela primera es una triangular inferior, por lo que el sistema se resuelve por sustitución directa; y la segunda es una matriz triangular superior por lo que el sistema se resuelve por sustitución inversa.2.1.2. Eliminación de GaussTransforma cualquier matriz en una matriz triangular superior y luego aplica sustitución inversa para obtener la solución del sistema. El procedimiento en líneas generales sería

Se fija la primer fila de la matriz A Se transforman las filas siguientes de manera de que el coeficiente a i1 se anule, es decir, se utiliza el coeficiente a11 de la diagonal principal como pivote Se fija la siguiente fila, se fija el pivote en la diagonal principal y se repite el paso anterior Se continua hasta que la matriz transformada queda en una triangular superior

4

Page 5: Resumen Numérico

Para achicar el multiplicador se utiliza un pivoteo2.1.2.1. Pivoteo Parcial

Intercambia las filas de la matriz. Se busca el pivote más grande tal que el multiplicador sea lo más chico posible PA=APERMUTADA con P una matriz que es la matriz identidad permutada. El resultado es el mismo, sólo cambia el vector b.2.1.2.2. Pivoteo Total Permuta filas y columnas, o sólo columnas, ubicando el elemento más grande como pivote. AP=APERMUTADA. No cambia el vector b , pero si el vector resultado x.2.1.3. Factorización LUConsiste en descomponer la matriz Aoriginal en un producto de dos matrices; una triangular inferior L (contiene 1’s en su diagonal y en la parte inferior los multiplicadores) y una triangular superior U (sale de la eliminación de Gauss en

Ax=b) para amar el sistema Ax=LUx=bcon A=LU . De esta forma, obtenemos dos sistemas de ecuacionesLy=b

Ux= y

Para los pivoteos PA=LU donde P es la matriz de permutación2.2. Refinamiento IterativoSe ocupa de los errores de redondeo, y mejora las soluciones obtenidas por algún método directo.Sea Ax=b→b−Ax=0, pero b−A~x≠0→r=b−A~x donde r es el residuo (en este caso, se trabaja con doble precisión)Entonces Ax−A~x=A ( x−~x )=Aδ~x=r→ nuevo SEL →Aδ ~x=r

LUδ~x=r donde Uδ~x=δyPor lo tanto queda el sistema Lδy=rUδ~x=δyDe donde se obtiene δ~x

2.3. Condición de una matriz El número de condición K (A ) de una matriz es único, da una idea de cuan cerca está la matriz de ser singular, es decir, de que el sistema no tenga solución o sean infinitas.Se define K (A )=‖A‖‖A−1‖ y K (A )≅

|δ~x|10t

¿~x∨¿¿

5

Page 6: Resumen Numérico

Si K (A) está cerca de 1 la matriz A está bien condicionadaSi K (A )>1 está mal condicionadaPara poder mejorar la condición, los dígitos de mejora q=t−p con p=log10(K (A))

2.4. Métodos IterativosEn estos métodos, la solución la obtenemos a partir de una solución inicial, la cual va corrigiendo en sucesivas iteraciones hasta obtener la solución “correcta”. Buscan mejorar el tiempo de convergencia, no propagan errores de redondeo y son eficientes en matrices con muchos ceros.Se convierte un sistema Ax=b a xn+1=T xn+C , donde, A=D−L−U con D formada por los números de la diagonal de A (a ii=d ii), L formada por lij=−a ij∀ i> j y U formada por uij=−aij∀ i< j. T y C dependen del método.

2.4.1. Jacobi

x (k +1)=D−1 (L+U ) xk⏟+D−1b⏟CJTJ

2.4.2. Gauss Seidel

x (k +1)=(D−L )−1U xk⏟+¿

2.4.3. SOR

xk+1−xk=Rik→GS

xk+1=xk+ωRi

Donde ω es el factor de relajación tal que ω=1 entonces es solución por Gauss Seidel ω<1 subrelajación ω>1 sobrerelajación

x (k +1)=(D−ωL )−1[(1−ω)D+ωU ]xk⏟+ω ¿

2.4.4. Convergencia

Teorema de la Convergencia: Cualquier x0 converge a la solución única sii ρ (T )<1 con ρ(T ) el radio espectral de la matriz, esto es, el máximo autovalor el módulo. Esto vale para cualquier método

6

Page 7: Resumen Numérico

Si ‖T‖<1→ converge. Válido para cualquier método. Si ‖T‖no es ¿1 no se puede asegurar que diverge Si A es estrictamente diagonal dominante, esto es, |aii|>∑

j=1i ≠ j

n

¿aij∨¿→¿ Jacobi y Gauss Seidel convergen

Si A es definida positiva, es decir, todos los subdeterminantes son ¿0 y 0<ω<2→ SOR converge

Si A es simétrica, definida positiva y tridiagonal dominante entonces ωóptimo=

21+√1−ρ(T GS)

2.4.5. Orden de ConvergenciaUna sucesión converge a x con orden de convergencia p y constante asintótica del error λ si limk→∞

ek+1

e( k ) p=limk→∞

¿ xk+1−x∨ ¿|xk−x|p

= λ¿ Como ∆ xk+1

∆ x (k )p=¿ xk +1−x∨ ¿|xk−x|p

=λ (1)¿ y ∆ xk

∆ x (k−1 )p=λ (2)

Por (1) y (2) p= ln(∆ xk+1

∆ xk)

ln∆ xk

∆ xk−1

3. Ecuaciones No Lineales

3.1. Métodos de Arranque

Son fácil de implementarlos Casi siempre convergen Son lentos, y en la práctica pueden no converger

3.1.1. Bisección Supongamos que f es una función continua definida en el I=[a ,b ] con f (a) y f (b) de signos diferentes. De acuerdo con el Teorema del Valor Intermedio, existe un número p en (a ,b) tal que f ( p )=0. Suponemos que la raíz en este intervalo es única. El método requiere dividir varias veces a la mitad los subintervalos de (a ,b) y, en cada paso, localizar la mitad que contenga a p.7

Page 8: Resumen Numérico

Para empezar supongamos que a1=a y b1=b, y sea p1 el punto medio de [a ,b]; es decir, p1=a1+( b1−a12 )=a1+b1

2

Si f ( p1)=0→p=p1y se finaliza

Si f ( p1)≠0→f ( p1) tiene el mismo signo que f (a1 ) o de f (b1)

Si f ( p1) y f (a1 ) tienen igual signo entonces, p∈ ( p1 , b1 )→a2=p1 yb2=b1

Si f ( p1) y f (a1 ) tienen distinto signo entonces, p∈ (a1 , p1 )→a2=a1 y b2=p1

3.1.2. Teorema: Sobre la cantidad de iteracionesSupongamos que f ∈C [a ,b ] y f (a ) f (b )<0. El método de bisección genera una sucesión {pn}n=1∞ que aproxima un cero p de f tal que |pn−p|≤ b−a

2n cuando n≥1.

3.1.3. Regula FalsiEs un método más rápido que bisección. Se basa en trazar la recta que une f (a) y f (b) hasta obtener x tal que f ( x )=0. Siempre converge.

pk +1=ak−f (ak )⌈bk−ak

f (bk )−f (ak)⌉

3.2. Métodos Iterativos

3.2.1. Punto FijoUn punto fijo de una función g es un número p para el cual g (p )=p. Dado el problema f ( p )=0, se puede definir una función g ( x )=x−f (x) entonces se busca x=g(x ).Se define β tal que g (β )=β entonces β es un punto fijo de g, por lo tanto

g (β )=β−f (β)β=β−f (β )→f (β )=0

Entonces β es raíz de f .La idea básica del método es

Elegir una semilla x0∈[a ,b ]

8

Page 9: Resumen Numérico

Construir la sucesión xk+1=g (xk)3.2.1.1. Teorema de Existencia y Unicidad del Punto FijoSi g(x )∈C [a ,b ] y g ( x )∈ [a ,b ]∀ x∈ [a ,b ]→g(x ) tiene un punto fijo en [a ,b].Si además, existe g' (x )∈[a ,b] y existe 0<k<1 tal que |g' ( x )|≤k ≤1∀ x∈[a ,b ] entonces el punto fijo es único.

3.2.1.2. Teorema del Punto FijoSi g∈[a ,b] tal que g ( x )∈ [a ,b ]∀ x∈(a ,b).Si existe g' (x )∈(a ,b) y existe 0<k<1 tal que |g' ( x )|≤k ≤1∀ x∈(a ,b) entonces ∀ x0∈(a ,b) la sucesión x (k +1)=g (xk ) , k ≥0 converge al único punto fijo β∈(a ,b).

3.2.1.3. CorolarioUna cota para el error cometido al aproximar β por xn es |xn−β|≤knmáx {x0−a ,b−x0 }Y |xn−β|≤ kn

1−k|x1−x0|∀n≥1

3.2.2. Newton Raphson

Es una técnica de iteración funcional de la forma g ( pn−1 )=pn−1−f ( pn−1)f ' ( pn−1)

Los pasos para mostrar que converge son g∈ (a ,b )∀ x∈(a ,b) |g' ( x )|<1∀∈(a .b) ∃ f ' ( x ) incluida (a ,b ) tal que f ' ( x )≠0 ∀ x∈ (a ,b ) ∃ f ' '(x )

Observación: Este método tiene un grave problema, la necesidad de conocer el valor de la derivada de f en cada aproximación.3.2.3. Secante Este método elimina el problema que traía Newton Raphson de conocer la derivada en cada punto. Utiliza dos semillas, el método es de la forma

xk+1=xk−(xk− xk−1)[ f (xk)f (xk )−f (xk−1) ]

9

Page 10: Resumen Numérico

4. Aproximación de Funciones

4.1. Teoría Lineal de AproximaciónAproximamos f por f ¿ tal que f ≈ f ¿f ( x )=C0φ0 ( x )+…+Cnφn ( x )=∑

j=1

n

C jφ j

4.2. Cuadrados Mínimos

e j2=( f ¿ (x j )−f (x j ))

2

e=∑i=0

n

ei2=∑

i=0

n

[f ¿ (x i )−f (x i ) ]2

Para que exista mínimo ∂e∂Ck

=0 ∀ k=0 ,…,n

De esto sale que ∑j=0

n

¿φ j , φk>C j=¿ f , φ j>¿ llamadas ecuaciones normales.Para asegurar a existencia y unicidad de la solución hay que usar una base {φ j } LI.Al utilizar una base ortogonal u ortonormal tiene la ventaja de poder agregar más términos sin necesidad de calcular todo desde 0.

5. Interpolación de Curvas

5.1. Método de LagrangeSean x0 , x1 , x2 ,…,xn n+1 números diferentes y sea f una función tal que sus valores se obtengan a partir de los números dados ( f ( x0 ) ; f ( x1 ) ;…; f (xn)) entonces existe un único polinomio Pn(x ) de grado n , que cumple con la propiedad f (xk )=P (xk ) para cada k=0,1 ,…n , y este polinomio está dado por la siguiente expresiónPn ( x )=f (x0 ) Ln ,0 ( x )+ f (x1 )Ln, 1 ( x )+…+ f (xn )Ln, n (x )=∑

i=0

n

f ( xi)Ln , i ( x )

Donde Ln ,i ( x )=∏j=0j ≠ i

n x−x jx i−x j para i=0,1 ,…n.

10

Page 11: Resumen Numérico

5.1.1. Desventajas del método

Cada evaluación del polinomio Pn(x ) requiere O(n2) operaciones aritméticas. Agregar un par de datos xn+1 f ( xn+1) requiere rehacer todos los polinomios Ln ,i ( x ). Es numéricamente inestable.

5.2. Método de Newton (Método de Diferencias Divididas)

Pn ( x )=f (x0 )+∑k=1

n

f (x0 , x1 ,…, xk ) (x−x0 )…(x−xk−1)

Para la k-ésima diferencia divididaf (x i , xi+1 ,…, x i+k−1 , x i+k )=

f (x i+1 , x i+2 ,…,x i+ k )− f (x i , x i+1 ,…,x i+k−1)x i+ k−x i

5.2.1. Ventajas del método

Propaga menos errores que el de Lagrange5.3. Método de HermiteSea f ∈C1 [a ,b ] y sean x0 , x1 ,…,xn∈[a ,b ] distintos, el polinomio único de menor grado que concuerda con f y f ' en x0 , x1 ,…,xn es el polinomio de Hermite de grado a lo sumo 2n+1, que está dado por la siguiente expresión

H 2n+1 ( x )=∑i=0

n

f ( xi )H n , i( x)+∑i=0

n

f '(x i)H n ,i(x)

Donde H n , i ( x )=[1−2 ( x−x i) Ln , i' (x i ) ] Ln ,i2 (x ) y H n , i ( x )=(x−x i)Ln ,i

2 (x) Donde Ln ,i es el i-ésimo polinomio de Lagrange de grado n.

5.4. Fenómeno de Runge Es una dificultad asociada a la interpolación en una malla de nodos equidistantes. La solución a este fenómeno son las Abscisas de Tchebychef.Primero, se aplica una transformación lineal del tipo (a ,b )→(−1,1) para los puntos que se encuentran en los extremos de la curva. Entonces se aplica el cambio t=a+b

2+ a−b2

x

Luego se aplica el polinomio de Tchebychef.

11

Page 12: Resumen Numérico

5.4.1. Polinomio de TchebychefEste polinomio presenta las siguientes raíces T 0 ( x )=1, T 1 ( x )=x , T 2 ( x )=2 x2−1, T 3 ( x )=4 x3−3 x,…5.4.1.1. Ventajas

Sirven para reducir al mínimo el error de aproximación Una colocación óptima de los puntos interpolantes para reducir al mínimo el error en la interpolación de Lagrange. Un medio de reducir el grado de un polinomio de una aproximación con una pérdida de exactitud mínima.

5.5. ErroresCualquiera sea el método utilizado, el error se expresa Rn=Pn+1 ( x )−P(x)

6. Derivación Numérica

6.1. Aproximación por Diferencias

1.1.1 Diferencias Progresivas

f ' ( x )=f ( x+h )−f (x )

h−f ' ' ( ξ ) h

2

2 !

Donde O (h )=f ' ' (ξ ) h2

2 ! es el orden de convergencia.

1.1.2 Diferencias Regresivas

f ' ( x )=f ( x)−f (x−h)

h+f ' ' (ξ ) h

2

2!

Donde O (h )=f ' ' (ξ ) h2

2 ! es el orden de convergencia.

1.1.3 Diferencias Centradas

f ' ( x )=f ( x+h )−f (x−h)

2h−f ' ' ' (ξ ) h

2

3 !

Donde O (h2 )=f ' ' ' (ξ ) h2

3 ! es el orden de convergencia.

12

Page 13: Resumen Numérico

6.2. Fórmulas de tres puntos

6.2.1. Fórmula de tres puntos del punto extremo

f ' (x0 )= 12h

[−3 f (x0 )+4 f (x0+h )−f (x0+2h ) ]+ h2

3f (3 ) (ξ0 )

Donde ξ0 se encuentra entre x0 y x0+2h.6.2.2. Fórmula de tres puntos del punto medio

f ' (x0 )= 12h

[ f (x0+h )−f (x0−h ) ]−h2

6f (3 ) (ξ1 )

Donde ξ1 se encuentra entre x0−h y x0+h.6.3. Fórmulas de cinco puntos

6.3.1. Fórmula de cinco puntos del punto medio

f ' (x0 )= 112h

[ f (x0−2h )−8 f (x0−h )+8 f (x0+h )−f (x0+2h ) ]+ h4

30f (5)(ξ )

Donde ξ está entre x0−2h y x0+2h.6.3.2. Fórmula de los cinco puntos extremos

f ' (x0 )= 112h

⌊−25 f (x0 )+48 f (x0+h )−36 f (x0+2h )+16 f (x0+3h )−3 f (x0+4 h ) ⌋+ h4

5f (5 )(ξ)

6.4. Fórmula de la segunda derivada del punto medio

f ' ' (x0 )= 1h2⌊ f (x0−h )−2 f (x0 )+ f (x0+h) ⌋−

h2

12f (4 )(ξ)

Para alguna ξ, donde x0−h<ξ< x0+h6.5. Extrapolación de RichardsonSea N j la aproximación de orden O(h2 j) para cada j=2 ,3 ,…

N j (h )=N j−1( h2 )+N j−1( h2 )−N j−1 (h )

4 j−1−1

6.5.1. Precisión de las aproximacionesRegla práctica N=OD+OP donde N es la cantidad de puntos, OD es el orden de la derivada y OP es el orden de la precisión.13

Page 14: Resumen Numérico

Excepción para aproximar centradas OP=N−OD−1 si paridad (N )≠ paridad (OD).Agregar método de coeficientes indeterminadosVentajas de centradas.

7. Integración Numérica

7.1. Regla Compuesta del Trapecio

Sean f ∈C2[a ,b ], h=b−an

y x j=a+ jh para cada j=0,1 ,…,n. Existe una μ∈(a ,b) tal que la regla compuesta del trapecio para n sub-intervalos puede escribirse con su término de error como

∫a

b

f ( x )dx=h2 [ f (a )+2∑

j=1

n−1

f (x j)+ f (b )]− (b−a )h2

12f ' '(μ)

7.2. Regla Compuesta de Simpson

Sean f ∈C4[a ,b], n par, h=b−an

y x j=a+ jh para cada j=0,1 ,…,n. Existe una μ∈(a ,b) tal que la regla compuesta de Simpson para n sub-intervalos puede escribirse con su término de error como

∫a

b

f ( x )dx=h3 [ f (a )+2∑

j=1

n2−1

f (x2 j )+4∑j=1

n2

(x2 j−1 )+f (b)]−b−a180

h4 f 4(μ)

7.3. Integración de Romberg

Para aproximar la integral ∫a

b

f (x )dxusamos los resultados de la regla compuesta del trapecio con n=1,2,4,8,16 , y se denotan las aproximaciones resultantes, respectivamente, por R1,1 , R2,1 ,R3,1, etc. Luego, aplicamos extrapolación de Richardson. En general, después de que las aproximaciones Rk , j−1han sido obtenidos, determinamos las aproximaciones O(h2 j) a partir de

14

Page 15: Resumen Numérico

Rk , j=Rk , j−1+Rk , j−1−Rk−1 , j−1

4 j−1−1

7.4. Fórmulas de Newton Cotes

7.4.1. Fórmulas Cerradas Comunes de Newton Cotes

La fórmula cerrada de Newton Cotes adopta la forma ∫a

b

f (x )dx=∑i=0

n

ai f (x i ) donde a i=∫

x0

xn

Li ( x )dx=∫x0

xn

∏j=0j ≠ i

n x−x jx i−x j

dx

Supongamos que ∑i=0

n

ai f (x i ) denota la fórmula cerrada de (n+1) puntos de Newton Cotes, con x0=a, xn=b y h=b−a

n. Existe una ξϵ (a ,b) para la cual

Si n es par, si fϵCn+2 [a ,b ]

∫a

b

f (x )dx=∑i=0

n

ai f (x i )+hn+3 f (n+2)(ξ)

(n+2 )! ∫0

n

t2 (t−1 )… (t−n )dt

Si n es impar y si fϵCn+1 [a ,b ]

∫a

b

f (x )dx=∑i=0

n

ai f (x i )+hn+3 f (n+1)(ξ)

(n+1 )! ∫0

n

t ( t−1 )… (t−n )dt

7.4.2. Fórmulas Abiertas de Newton Cotes

La fórmula abierta de Newton Cotes adopta la forma ∫a

b

f (x )dx=∫x−1

xn+1

f (x)dx≈∑i=0

n

ai f (x i ) donde a i=∫

a

b

Li(x)dx.Supongamos que ∑

i=0

n

ai f (x i ) denota la fórmula abierta de (n+1) puntos de Newton Cotes, con x−1=a, xn+1=b y h=b−a

n+2 . Existe una ξϵ (a ,b) para la cualSi n es par, si fϵCn+2 [a ,b ]

∫a

b

f (x )dx=∑i=0

n

ai f (x i )+hn+3 f (n+2)(ξ)

(n+2 )! ∫−1

n+1

t 2 ( t−1 )… ( t−n )dt

Si n es impar y si fϵCn+1 [a ,b ]

15

Page 16: Resumen Numérico

∫a

b

f (x )dx=∑i=0

n

ai f (x i )+hn+3 f (n+1)(ξ)

(n+1 )! ∫−1

n+1

t ( t−1 )… ( t−n )dt

7.4.3. Cuadratura de GaussSupongamos que x1 , x2 ,…, xn son las raíces del polinomio de Legendre Pn(x ) de n-ésimo grado y que para cada i=1,2…,n los números c j están definidos por c j=∫

−1

1

∏i=1j ≠ i

n x−x jx i−x j

Si P(x ) es un polinomio cualquiera de grado menor que 2n, entonces∫−1

1

P ( x )dx=∑j=1

n

c iP(x i)

Una integral ∫a

b

f (x )dx en un intervalo arbitrario [a ,b] se puede en otra integral de [−1,1] usando el cambio de variables

t=2x−a−bb−a

↔ x=12[ (b−a ) t+a+b ]

Esto nos permite aplicar la cuadratura gaussiana a cualquier intervalo [a ,b], ya que la ∫

a

b

f (x )dx=∫−1

1

f (12 [ (b−a ) t+a+b ]) b−a2 dt

La expresión del error cometido al aproximar una integral mediante cuadratura de Gauss en el intervalo [−1,1 ] es E=

22n+1 (n! )4

(2n+1 ) [ (2n ) !]2f 2n(ξ)

La expresión del error cometido al aproximar la integral mediante cuadratura de Gauss en el intervalo [a ,b] es E=

(b−a )2n+1 (n! )4

(2n+1 ) [ (2n ) !]2f 2n(ξ)

En ambos casos, el error cometido es proporcional a la derivada de orden 2n.

16

Page 17: Resumen Numérico

8. Problemas a Valores Iniciales

Clasificacion de metodos8.1. Existencia y Unicidad de la Solución

Se dice que un problema de valor inicial dydt

=f (t , y), a≤ t ≤b, y (a )=α es un problema bien planteado si: El problema tiene una solución única , y (t ) Para cualquier ε>0, existe una constante positiva k (ε ) con la propiedad de que siempre |ε0|<ε y δ (t) es continua con |δ (t )|<ε en [a ,b], existe una solución única

z (t) al problemadzdt

=f ( t , z )+δ ( t ), a≤ t ≤b, z (a )=α+ε0

Con |z ( t )− y ( t )|<k (ε ) ε para toda a≤ t ≤b

8.2. Error global

τ i=wi− y (t i)

8.3. Consistencia

limh→0

τ i=0

8.4. EstabilidadSean δ wi y δ wi+1 tal que w i→w i+δw i

w i+1→wi+1+δ wi+1Entonces si el factor de amplificación gi=

δ wi+1

δw iEs tal que17

Page 18: Resumen Numérico

|gi|>1→Inestable

|gi|=1→Marginalmente estable

|gi|<1→Estable

8.5. Convergencia

limh→0

wi= y (ti)

Como esto es difícil de probar, se recurre al Teorema de LAX“Si la solución es consistente y estable, entonces converge.”8.6. Método de Euler

8.6.1. Método de Euler ExplícitoEl método de Euler tiene por objetivo obtener una aproximación de un problema bien planteado con valores inicialesdydt

=f ( t , y ), a≤ t ≤b, y (a )=α

El método construye w i≈ y ( ti) para cada i=1 ,2 ,…, N

w0=α

w i+1=wi+hf ( ti ,wi)Para i=0,1 ,…N−1

8.6.2. Método de Euler Implícito

w i+1=wi+hf ( ti+1 ,w i+1)Para i=0,1 ,…N−1

8.6.3. Error de Truncamiento Local.El método de Euler tiene un error de truncamiento local para el i-ésimo pasoτ i+1 (h )=

y i+1− y ih

−f (t i , y i)

Este es un error local, porque mide la exactitud del método en un paso determinado, suponiendo que el método fue exacto en el paso anterior. Así pues, 18

Page 19: Resumen Numérico

depende de la ecuación diferencial, el tamaño del paso y el paso particular de la aproximación.En este caso la expresión es h

2f ' [ξ , y (ξ )] con ξ∈[t i ,t i+1].

8.6.4. Teorema sobre el error cometido al resolver la ecuación diferencialSea f (t , y ) continua, que satisface la condición de Lipschitz con la constante Len D= {(t , y ): a≤t ≤b ;−∞≤ y≤+∞ } y existe una constante M, tal que |y ' ' (t )|≤M para toda t∈[a ,b]. Si y (t ) es la solución única del PVI dado por dy

dt=f (t , y) con a≤ t ≤b e

y (a )= y0 y los w0 ,w1 ,….,wN son las aproximaciones a nuestra función obtenidas por el método de Euler entonces se cumple que |y (t i )−wi|≤ hM2L [eL ( ti−a)−1].

8.6.5. Orden de Convergencia El error local del método de Euler es O(h), es decir tiene una convergencia lineal, lo mismo sucede con el método de Euler Implícito y con el predictor –corrector. 8.7. Método de Taylor de Orden n

w0=α

w i+1=wi+hT(n )( ti ,wi), para cada i=0 ,1 ,…,N−1,Donde

T (n ) (t i ,w i )=f (ti ,w i)+h2f ' (ti ,w i )+…+ h

n−1

n !f (n−1 )(t i ,wi)

8.7.1. Error Local

El error local queda determinado por la siguiente expresión eL= hn

(n+1 ) !f n[ξ , y (ξi)]

con ξ∈[t i ,t i+1].8.8. Método de Runge-Kutta

8.8.1. Método de Runge-Kutta de orden dos8.8.1.1. Método del Punto Mediow0=α

w i+1=wi+hf ( ti+ h2 ,w i+h2f (t i ,wi ))

Para i=0 ,1 ,…,N−1

19

Page 20: Resumen Numérico

8.8.1.2. Método modificado de Eulerw0=α

w i+1=wi+h2 [ f (t i ,w i )+f (t i+1 ,w i+hf ( ti ,wi )) ]

Para i=0 ,1 ,…,N−1.8.8.1.3. Método implícito ponderado o de Crank-Nicolsonw0=α

w i+1=wi+h2 [ f (ti ,w i)+ f (t i+1 ,wi+1) ]

Para i=0 ,1 ,…,N−18.8.1.4. Método de Heunw0=α

w i+1=wi+h4 [ f ( ti ,wi )+3 f (t i+ 23 h ,wi+

23hf (t i ,wi ))]

Para i=0 ,1 ,…,N−1

8.8.2. Método de Runge-Kutta de Orden Cuatro

w0=α

k 1=hf (ti ,w i)

k 2=hf (t i+ h2 ,w i+12k1)

k 3=hf (t i+ h2 ,w i+12k2)

k 4=hf (t i+1 ,wi+k3 )

w i+1=wi+16

(k1+2k2+2k3+k4 )

Para cada i=0 ,1 ,…,N−1.8.9. Métodos de Paso Múltiple

8.9.1. Método del Salto de la Rana

w0= y0

w i+1=wi−1+2hf (t i ,w i)Para i=0,1…,n−1

20

Page 21: Resumen Numérico

El valor de w i debemos calcularlo con otro método. Como las aproximaciones que obtenemos por el método del salto de la rana son del mismo orden que las que se obtienen por cualquier método de Runge-Kutta de orden 2, es conveniente aproximar w1 con alguno de esos métodos.8.10. Método explícito de Adams-Moulton

8.10.1. Método explícito de Adams-Moulton de Orden 1

w i+1=wi+h f n+1

8.10.2. Método explícito de Adams-Moulton de dos pasos

ω0=α

ωi+1=ωi+h12

[5 f (t i+1 ,ωi+1 )+8 f (ti ,ωi )−f (t i−1 ,ωi−1) ]

Donde i=1,2 ,…N−1El orden de convergencia es 3.8.10.3. Método Explícito de Adams-Moulton de tres pasos

ω0=α

ω1=α 1

ω2=α 2

ωi+1=ωi+h24

[9 f (ti+1 ,ωi+1 )+19 f (t i ,ωi )−5 f (ti−1 ,ωi−1 )+ f ( ti−2 ,ωi−2 )]

Donde i=1,2 ,…N−1El orden de convergencia es de 4.8.10.4. Método Explícito de Adams-Moulton de cuatro pasos

ω0=α

ω1=α 1

ω2=α 2

ω3=α 3

ωi+1=ωi+h720

[251 f (t i+1 ,ωi+1 )+646 f (t i ,ωi)−264 f (ti−1 ,ωi−1 )+106 f (t i−2 ,ωi−2 )−19 f (ti−3 ,ωi−3)] Donde i=1,2 ,…N−1

8.10.5. Método de Adams Moulton de Orden 2Es el método de Crank Nicolson.21

Page 22: Resumen Numérico

8.11. Método implícito de Adams Bashforth

8.11.1. Método Implícito de Adams Bashforth de Orden 1

w i+1=wi+h f n

8.11.2. Método Implícito de Adams Bashforth de dos pasos

ω0=α

ω1=α 1

ωi+1=ωi+h2 [3 f (t i ,ωi )−f (t i−1 ,ωi−1 ) ]

Donde i=1,2 ,…N−1El orden de convergencia es 2.8.11.3. Método Implícito de Adams Bashforth de tres pasos

ω0=α

ω1=α 1

ω2=α 2

ωi+1=ωi+h12

[23 f (t i ,ωi )−16 f ( ti−1 ,ωi−1 )+5 f (t i−2 ,ωi−2 ) ]

Donde i=2,3 ,…N−1El orden de convergencia es 3.8.11.4. Método Implícito de Adams Bashforth de cuatro pasosω0=α

ω1=α 1

ω2=α 2

ω3=α 3

ωi+1=ωi+h24

[55 f ( ti ,ωi )−59 f (t i−1 ,ωi−1 )+37 f (ti−2 ,ωi−2 )−9 f (t i−3 ,ωi−3)] Donde i=3,4 ,…N−1

El orden de convergencia es 4.8.11.5.Método predictor-Corrector de Adams8.11.5.1. Método predictor-corrector de Orden 2

w i+1¿ =wi+

h2 [3 f ( ti ,wi )−f (t i−1 ,w i−1 ) ]

22

Page 23: Resumen Numérico

w i+10 =wi+

h2 [ f (t i+1 ,wi+1

¿ )+ f (t i ,w i ) ]

w i+1n+1=wi+

h2[ f (t i+1 ,wi+1

n )+f (wi ,w i)]

8.11.5.2. Método predictor-corrector de Orden 4w i+1

¿ =wi+h24 [55 f (ti ,w i )−59 f (t i−1 ,w i−1 )+37 f (t i−2 ,w i−2 )−9 f (t i−3 ,w i−3)]

w i+10 =wi+

h24 [9 f (t i+1 ,wi+1

¿ )+19 f (t i ,w i )−5 f (t i−1 ,wi−1 )+f (ti−2 ,wi−2)]

w i+1n+1=wi+

h24

[9 f (t i+1 ,w i+1n )+19 f (wi ,wi )−5 ( ti−1 ,wi−1 )+ f (ti−2 ,wi−2)]

8.12. Método Predictor-Corrector de Milne

ωi+1=ωi−3+4h3

[2 f (ti ,ωi )−f (t i−1 ,ωi−1 )+2 f (t i−2 ,ωi−2)]

8.13. Análisis de Estabilidad

8.13.1.Métodos Condicionalmente EstablesAquellos en los que la estabilidad está condicionada a la elección del paso, generalmente métodos explícitos.8.13.2.Métodos Incondicionalmente EstablesAquellos que no tienen ningún tipo de condicionamiento para su estabilidad, generalmente métodos implícitos.

9. Ecuaciones Diferenciales Ordinarias de Orden Superior

9.1. Problemas a Valores Iniciales Conservativos

9.1.1. Método de Taylor

w i+1=wi+vih+ f (ti ,w i , v i )h2

2!

v i+1=v i+h[ βf ( ti ,wi , v i )+(1−β) f (ti+1 ,wi+1 , v i+1)]

9.1.2. Método de Newmark

w i+1=wi+vih+h2

2 ![αf (t i ,w i , v i)+(1−α ) f (t i+1 ,wi+1 , v i+1)]

23

Page 24: Resumen Numérico

v i+1=v i+h[ βf ( ti ,wi , v i )+(1−β) f (ti+1 ,wi+1 , v i+1)]

9.1.3. Método de Nyström

w1=w0+v0h+ f (t 0 ,w0 , v0)h2

2!

w i+1=2w i−w i−1+h2 f (t i ,wi ,

w i+1−wi−1

2h )El orden de convergencia es 2.

9.1.4. ClasificaciónDe acuerdo a los autovalores γ i que se obtienen del sistema que resulta de aplicar alguno de los métodos mencionados anteriormente, los problemas se pueden clasificar de la siguiente manera Si los γ i son complejos Oscilatorio Si |γi|=1 Conservativo Si |γi|<1 Discipativo Si |γi|>1 Inestable

9.2. Problemas a Valores Iniciales con Condiciones de Contorno

9.2.1. Método del tiroSi el problema lineal con valor en la fronteray ' '=p (x ) y '+q ( x ) y+r ( x )Con a≤ x≤b , y (a )=α , y (b )=βSatisface

p ( x ) , q ( x ) yr (x) son continuas en [a ,b] q ( x )>0 en [a ,b]

Entonces el problema tiene solución única.Para aproximar la solución única consideramos los problemas con valor inicial

y ' '=p (x ) y '+q ( x ) y+r ( x ) , a≤ x ≤b , y (a )=α , y ' (a )=0(1)

y ' '=p (x ) y '+q ( x ) y ,a≤ x≤b , y (a )=0 , y ' (a )=1 (2)

24

Page 25: Resumen Numérico

Si y1(x) denota la solución de (1) e y2(x ) denota la solución de (2) entoncesy ( x )= y1 ( x )+

β− y1 (b )y2 (b )

y2(x )

25