Analisis numerico pag web

31
República Bolivariana de Venezuela Ministerio del Poder Popular para la Educación Superior Universidad “Fermín Toro” Cabudare – Lara Análisis Numérico.

Transcript of Analisis numerico pag web

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Superior

Universidad “Fermín Toro”

Cabudare – Lara

Análisis Numérico.

Integrantes:

Christopher Adan C.I 24400311

Sección. SAIA B

Cabudare, Estado Lara 2015

Sistema de numeración y errores.

Tipos de errores

error por truncamiento: Los errores de truncamiento son aquellos

que resultan al usar una aproximación en lugar de un procedimiento

matemático exacto. Estos tipos de errores son evaluados con una

formulación matemática: la serie de Taylor. Taylor es una

formulación para predecir el valor de la función en Xi+1 en términos

de la función y de sus derivadas en una vecindad del punto Xi.

Siendo el termino final: Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1. En general, la

expansión en serie de Taylor de n-ésimo orden es exacta par a un

polinomio de n-ésimo orden. Para otras funciones continuas

diferenciables, como las exponenciales o senoidales, no se obtiene

una estimación exacta mediante un número finito de términos. Cada

una de los términos adicionales contribuye al mejoramiento de la

aproximación, aunque sea un poco.

Error de redondeo: Los errores de redondeo se deben a que las

computadoras solo guardan un número finito de cifras significativas

durante un cálculo. Las computadoras realizan esta función de

maneras diferentes; esta técnica de retener solo los primeros siete

términos se llamó “truncamiento” en el ambiente de computación.

De preferencia se llamara de corte, para distinguirlo de los errores

de truncamiento. Un corte ignora los términos restantes de la

representación decimal completa. La mayor parte de las

computadoras tienen entre 7 y 14 cifras significativas, los errores de

redondeo parecerían no ser muy importantes. Sin embargo, hay

dos razones del por qué pueden resultar críticos en algunos

métodos numéricos:

1. Ciertos métodos requieren cantidades extremadamente grandes

para obtener una respuesta. Además, estos cálculos a menudo

dependen entre sí, es decir, los cálculos posteriores son

dependientes de los anteriores. En consecuencia, aunque un

error de redondeo individual puede ser muy pequeño, el efecto

de acumulación en el transcurso de la gran cantidad de cálculos

puede ser significativo.

2. El efecto de redondeo puede ser exagerado cuando se llevan a

cabo operaciones algebraicas que emplean números muy

pequeños y muy grandes al mismo tiempo. Ya que este caso se

presenta en muchos métodos numéricos, el error de redondeo

puede resultar de mucha importancia.

Base de los números.

El sistema decimal (Base 10):

Este sistema está formado por diez símbolos, llamados números arábicos.

También es llamado sistema de base 10. Usando los diez símbolos

separadamente 0, 1, 2, 3, ..., 9 nos permite representar el valor de los

números en unidades individuales, pero para representar más de nueve

números es necesario combinarlos. Cuando usamos símbolos en

combinación, el valor de cada uno de ellos depende de su posición con

respecto al punto decimal, designando así un símbolo para las unidades, otro

para las decenas, otro para las centenas, otro para los millares (de miles, no

de millón), en adelante.

El símbolo correspondiente a las unidades asume la posición más

izquierda antes del punto decimal. Esta designación de posición determina

que la potencia del número se corresponde con la distancia en que está del

punto decimal, y es por ello que la primera posición se llama UNIDAD (100 =

1). 

Errores de redondeo y aritmético en una computadora.

Cuando se usa una calculadora o computadora digital para realizar

cálculos numéricos, se debe considerar un error inevitable, el llamado error

de redondeo. Este error se origina porque la aritmética realizada en una

máquina involucra números con sólo un número finito de dígitos, con el

resultado de que muchos cálculos se realizan con representaciones

aproximadas de los números verdaderos. Este subconjunto contiene sólo

números racionales, positivos y negativos, y almacena una parte fraccionaria,

llamada la mantisa, junto con otra parte exponencial, llamada la

característica.

Ejemplo: Para la representación de un número flotante de precisión

simple, que consiste de 1 dígito binario (bit), indicador de signo, un

exponente de 7 bits en base 16, y una mantisa de 24 bits. 24 bits

corresponden a 6 o 7 dígitos decimales, podemos suponer que este número

tiene, por lo menos, seis cifras decimales de precisión para el sistema de

numeración de punto flotante. Por otro lado, el exponente de siete bits da un

rango de 0 a 127, pero debido a los exponentes usados el rango es,

realmente entre -64 y +63, o sea que, se resta automáticamente 64 del

exponente listado.

Error absoluto y error relativo

Error absoluto. Es la diferencia entre el valor de la medida y el

valor tomado como exacto. Puede ser positivo o negativo, según si

la medida es superior al valor real o inferior (la resta sale positiva o

negativa). Tiene unidades, las mismas que las de la medida.

El error absoluto es igual a la imprecisión que acompaña a la

medida. Nos da idea de la sensibilidad del aparato o de lo

cuidadosas que han sido las medidas por lo poco dispersas que

resultaron. Ea=imprecisión=incertidumbre El error absoluto nos

indica el grado de aproximación y da un indicio de la calidad de la

medida. El conocimiento de la calidad se complementa con el error

relativo.

Error relativo. Es el cociente (la división) entre el error absoluto y

el valor exacto. Si se multiplica por 100 se obtiene el tanto por

ciento (%) de error. Al igual que el error absoluto puede ser positivo

o negativo (según lo sea el error absoluto) porque puede ser por

exceso o por defecto. no tiene unidades.

Cifras significativas: representan el uso de una o más escalas de

incertidumbre en determinadas aproximaciones. Se dice que 4,7 tiene 2

cifras significativas, mientras que 4,70 tiene 3. Para distinguir los ceros que

son significativos de los que no son, estos últimos suelen indicarse como

potencias de 10 en notación científica, por ejemplo 5724 será 5,724x103, con

4 cifras significativas. También, cuando no se pueden poner más una cierta

cantidad de cifras, por ejemplo de tres cifras simplemente, a la tercera cifra

se le incrementa un número si el predecesor es 5 con otras cifras o mayor

que 5 y si es menor simplemente se deja igual. Ejemplo 5,3689 consta de 5

cifras significativas, si sólo se pueden mostrar tres cifras, se le suma una

unidad a la cifra 6 (6+1=7) ya que la cifra que la precede 8 es mayor que 5,

así que queda 5,37 y si el número es menor que cinco: así 5,36489 y se

redondea queda 5,36, no aumenta por que la cifra 4 es menor que 5.

Teorema del valor medio.

En esencia el teorema dice que dada cualquier función f continua en el

intervalo [a, b] y diferenciable en el intervalo abierto (a, b) entonces existe al

menos algún punto c en el intervalo (a, b) tal que la tangente a la curva

en c es paralela a la recta secante que une los puntos (a, f(a)) y (b, f(b)). Es

decir:

Este teorema lo formuló Lagrange.

El teorema del valor medio de Lagrange de hecho es una generalización

del teorema de Rolle que dice que si una función es definida y continua [a, b],

diferenciable en el intervalo abierto (a, b), y toma valores iguales en los

extremos del intervalo – en otras palabras, f(a) = f(b) – entonces existe al

menos algún punto c en el intervalo (a, b) tal que la tangente a la curva

en c es horizontal, es decir f'(c) = 0.

Teorema del valor medio ponderado para integrales.

Este teorema es importante porque asegura que una función continua en

un intervalo cerrado alcanza su valor promedio al menos en un punto. Si f es

continua en el intervalo cerrado [a, b], existe un número c en este intervalo tal

que

f(c)(b - a) = ∫a

b

F (x)dx

Demostración:

Primer caso: Si f es constante en el intervalo [a, b] el resultado es trivial

puesto que c puede ser cualquier punto.

Segundo caso: Si f no es constante en [a, b] elegimos m y M como el

menor y mayor valor que toma f en el intervalo. Dado que m ≤ f(x) ≤ M ∀ x∈[a, b] por el teorema de conservación de desigualdades.

Aplicando propiedades: m(b - a)≤∫a

b

F ( x )dx ≤ M(b - a)

Entonces

m ≤ 1b−a∫a

b

F ( x )dx≤M. Dado que f es continua el teorema del valor

intermedio asegura que f alcanza cada valor entre su mínimo y su máximo.

Por lo tanto permite deducir que debe alcanzar el valor 1b−a∫a

b

F ( x )dx en

algún punto c del intervalo. [a, b]. Queda demostrado que existe algún c tal

que

f(c) = 1b−a∫a

b

F ( x )dx

Teorema de rolle

El teorema de Rolle demuestra la existencia de un punto interior en

un intervalo abierto para el cual la derivada de una función derivable se anula

cuando el valor de ésta en los extremos del intervalo es el mismo. Es

generalizado mediante el teorema del valor medio, del que este es un caso

especial. Es uno de los principales teoremas en cálculo debido a sus

aplicaciones.

Se puede enunciar de la siguiente manera,

Si   es una función continua definida en un intervalo cerrado 

, derivable sobre el intervalo abierto   y  , entonces:

Existe al menos un punto   perteneciente al intervalo   tal

que  .

Teorema del valor intermedio.

El teorema del valor intermedio (o más correctamente teorema de los

valores intermedios, o TVI), es un teorema sobre funciones continuas

reales definidas sobre un intervalo. Intuitivamente, el resultado afirma que, si

una función es continua en un intervalo, entonces toma todos los intermedios

comprendidos entre los extremos del intervalo.

El teorema de los valores intermedios establece que:

Sea   una función continua en un intervalo  . Entonces para cada   

tal que  , existe al menos un   dentro de   tal

que  .

Teorema de Taylor.

 Este teorema permite obtener aproximaciones polinómicas de una

función en un entorno de cierto punto en que la función sea diferenciable.

Además el teorema permite acotar el error obtenido mediante dicha

estimación.

Caso con una variable:

Este teorema permite aproximar una función derivable en

el entorno reducido alrededor de un punto a Є (a, d) mediante un

polinomio cuyos coeficientes dependen de las derivadas de la

función en ese punto. Más formalmente, si   ≥ 0 es un entero y   

una función que es derivable   veces en el intervalo cerrado [ ,  ]

y  +1 veces en el intervalo abierto ( ,  ), entonces se cumple que:

(1a)

O en forma compacta

(1b)

Donde   denota el factorial de  , y   es el resto, término que

depende de   y es pequeño si   está próximo al punto  . Existen

dos expresiones para   que se mencionan a continuación:

(2a)

donde   y  , pertenecen a los números reales,   a los enteros y   

es un número real entre   y  :

(2b)

Si   es expresado de la primera forma, se lo

denomina Término complementario de Lagrange, dado que el

Teorema de Taylor se expone como una generalización del

Teorema del valor medio o Teorema de Lagrange, mientras que la

segunda expresión de R muestra al teorema como una

generalización del Teorema fundamental del cálculo integral.

Para algunas funciones  , se puede probar que el resto, 

, se aproxima a cero cuando   se acerca al ∞; dichas funciones

pueden ser expresadas como series de Taylor en un entorno

reducido alrededor de un punto   y son denominadas funciones

analíticas.

El teorema de Taylor con   expresado de la segunda forma

es también válido si la función   tiene números complejos o valores

vectoriales. Además existe una variación del teorema de Taylor

para funciones con múltiples variables.

Caso de varias variables: El teorema de Taylor anterior (1) puede

generalizarse al caso de varias variables como se explica a

continuación. Sea B una bola en RN centrada en el punto a, y f una

función real definida sobre la clausura   cuyas derivadas parciales

de orden n+1 son todas continuas en cada punto de la bola. El

teorema de Taylor establece que para cualquier  :

Donde la suma se extiende sobre los multi-índices α (esta fórmula

usa la notación multi-índice). El resto satisface la desigualdad:

para todo α con |α|=n+1. Tal como sucede en el caso de una

variable, el resto puede expresarse explícitamente en términos de

derivadas superiores (véase la demostración para los detalles).

Teorema fundamental del algebra.

Establece que todo polinomio de grado mayor que cero tiene una raíz. El

dominio de la variable es el conjunto de los números complejos, que es una

extensión de los números reales.

Aunque este enunciado, en principio, parece ser una declaración débil,

implica que todo polinomio de grado n de una variable con grado mayor que

cero con coeficientes complejos tiene, contando las multiplicidades,

exactamente n raíces complejas. La equivalencia de estos dos enunciados

se realiza mediante la división polinómica sucesiva por factores lineales.

Hay muchas demostraciones de esta importante proposición, que

requieren bastantes conocimientos matemáticos para formalizarlas.

Solución de ecuaciones no lineales.

Un algoritmo de búsqueda de raíces es un método numérico

o algorítmico para encontrar las soluciones aproximadas de una ecuación

dada por la expresión f(x) = 0 para una función matemática f dada. A la

solución x de la ecuación se le llama raíz o cero de la función.

Igualmente, resolver la ecuación f(x) = g(x) es análogo a resolver la

ecuación f − g = 0, es decir, encontrar las raíces de la función f - g.

Este artículo trata sobre cómo encontrar raíces reales ó complejas,

aproximadas por números de punto flotante.

Los métodos numéricos de resolución de ecuaciones no lineales suelen

ser métodos iterativos que producen una sucesión de valores aproximados

de la solución, que se espera, que converja a la raíz de la ecuación. Estos

métodos van calculando las sucesivas aproximaciones sobre la base de los

anteriores, a partir de una o varias aproximaciones iniciales.

El comportamiento de los algoritmos de búsqueda de raíces se estudia

en análisis numérico. Funcionan mejor cuando se toman en cuenta las

características de la función. Para saber que método debemos aplicar, hay

que tener en cuenta la capacidad de separar raíces cercanas, confiabilidad

en el alcance de soluciones evitando errores numéricos graves y orden de

convergencia.

Método de bisección.

El método de bisección es un algoritmo de búsqueda de raíces que

trabaja dividiendo el intervalo a la mitad y seleccionando el subintervalo que

tiene la raíz.

Para aplicar el método consideremos tres sucesiones   

definidas por las siguientes relaciones:

Donde los valores iniciales vienen dados por:

Se puede probar que las tres sucesiones convergen al valor de la única

raíz del intervalo:

Método de la falsa posición.

Pretende conjugar la seguridad del método de la bisección con la rapidez

del método de la secante. Este método, como en el método de la bisección,

parte de dos puntos que rodean a la raíz f(x) = 0, es decir, dos puntos x0 y x1

tales que f(x0)f(x1) < 0. La siguiente aproximación, x2, se calcula como la

intersección con el eje X de la recta que une ambos puntos (empleando la

ecuación (35) del método de la secante). La asignación del nuevo intervalo

de búsqueda se realiza como en el método de la bisección: entre ambos

intervalos, [x0,x2] y [x2,x1], se toma aquel que cumpla f(x)f(x2) < 0.

Método de Newton.

(conocido también como el método de Newton-Raphson o el método de

Newton-Fourier) es un algoritmo eficiente para encontrar aproximaciones de

los ceros o raíces de una función real. También puede ser usado para

encontrar el máximo o mínimo de una función, encontrando los ceros de su

primera derivada.

El método de Newton-Raphson es un método abierto, en el sentido de que

no está garantizada su convergencia global. La única manera de alcanzar la

convergencia es seleccionar un valor inicial lo suficientemente cercano a la

raíz buscada. Así, se ha de comenzar la iteración con un valor

razonablemente cercano al cero (denominado punto de arranque o valor

supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de

la naturaleza de la propia función; si ésta presenta múltiples puntos de

inflexión o pendientes grandes en el entorno de la raíz, entonces las

probabilidades de que el algoritmo diverja aumentan, lo cual exige

seleccionar un valor puesto cercano a la raíz. Una vez que se ha hecho esto,

el método linealiza la función por la recta tangente en ese valor supuesto. La

abscisa en el origen de dicha recta será, según el método, una mejor

aproximación de la raíz que el valor anterior. Se realizarán sucesivas

iteraciones hasta que el método haya convergido lo suficiente.

Sea f: [a, b] -> R función derivable definida en el intervalo real [a, b].

Empezamos con un valor inicial x0 y definimos para cada número natural n

Donde f ' denota la derivada de f.

Nótese que el método descrito es de aplicación exclusiva para funciones

de una sola variable con forma analítica o implícita conocible. Existen

variantes del método aplicables a sistemas discretos que permiten estimar

las raíces de la tendencia, así como algoritmos que extienden el método de

Newton a sistemas multivariables, sistemas de ecuaciones, etcétera.

Método de la secante.

Es un método para encontrar los ceros de una función de forma iterativa.

Es una variación del método de Newton-Raphson donde en vez de

calcular la derivada de la función en el punto de estudio, teniendo en mente

la definición de derivada, se aproxima la pendiente a la recta que une la

función evaluada en el punto de estudio y en el punto de la iteración anterior.

Este método es de especial interés cuando el coste computacional de derivar

la función de estudio y evaluarla es demasiado elevado, por lo que el método

de Newton no resulta atractivo.

En otras palabras, el método de la secante es un algoritmo de la raíz de

investigación que utiliza una serie de raíces de las líneas secantes para

aproximar mejor la raíz de una función f. El método de la secante se puede

considerar como una aproximación en diferencias finitas del método de

Newton-Raphson. Sin embargo, este método fue desarrollado

independientemente de este último.

El método se define por la relación de recurrencia:

Como se puede ver, este método necesitará dos aproximaciones iniciales

de la raíz para poder inducir una pendiente inicial.

Interpolación y aproximación de funciones.

Interpolación polinomica de lagrange.

Dado un conjunto de k + 1 puntos

donde todos los xj se asumen distintos, el polinomio interpolador en la

forma de Lagrange es la combinación lineal

de bases polinómicas de Lagrange

La función que estamos buscando es una función polinómica L(x) de

grado k con el problema de interpolación puede tener tan solo una solución,

pues la diferencia entre dos tales soluciones, sería otro polinomio de

grado k a lo sumo, con k+1 ceros.

Por lo tanto, L(x) es el único polinomio interpolador

Polinomio de avance de Newton Gregory

Dados los valores   de una función correspondientes a los

(n+1) valores equidistantes   de la variable, se busca un

polinomio de grado n:

que pase por los (n+1) pares de coordenadas.

Los coeficientes   se obtienen sometiendo a la parábola

correspondiente a   las n+1 condiciones de pasar por los

punto  .

El polinomio de Gregory-Newton (ascendente) expresado formalmente

por:

Es utilizado para hallar la expresión del polinomio derivada con datos

equidistantes interpolados.

Diferenciación e integración numérica.

Diferenciación numérica: es una técnica de análisis

numérico para calcular una aproximación a la derivada de

una función en un punto utilizando los valores y propiedades de la

misma.

Por definición la derivada de una función   es:

Las aproximaciones numéricas que podamos hacer (para h > 0)

serán:

Diferencias hacia adelante:

Diferencias hacia atrás:

La aproximación de la derivada por este método entrega resultados

aceptables con un determinado error. Para minimizar los errores se

estima que el promedio de ambas entrega la mejor aproximación

numérica al problema dado:

Diferencias centrales:

Integración numérica: constituye una amplia gama

de algoritmos para calcular el valor numérico de una integral

definida y, por extensión, el término se usa a veces para describir

algoritmos numéricos para resolver ecuaciones diferenciales. El

término cuadratura numérica (a menudo abreviado a cuadratura) es

más o menos sinónimo de integración numérica, especialmente si

se aplica a integrales de una dimensión a pesar de que para el

caso de dos o más dimensiones (integral múltiple) también se

utiliza.

El problema básico considerado por la integración numérica es

calcular una solución aproximada a la integral definida:

Este problema también puede ser enunciado como un problema de

valor inicial para una ecuación diferencial ordinaria, como sigue:

Encontrar y(b) es equivalente a calcular la integral. Los métodos

desarrollados para ecuaciones diferenciales ordinarias, como

el método de Runge-Kutta, pueden ser aplicados al problema

reformulado.

Fórmulas de newton-cotes.

Son un grupo de fórmulas de integración numérica de tipo interpolatorio,

en las cuales se evalúa la función en puntos equidistantes, para así hallar un

valor aproximado de la integral. Cuantos más intervalos se divida la función

más precisa será el resultado.

Este método es eficiente si se conocen los valores de la función en puntos

igualmente separados. Si se pueden cambiar los puntos en los cuales la

función es evaluada otros métodos como la cuadratura de Gauss son

probablemente más eficientes.

Regla del trapecio

La regla del trapecio consiste en hallar la integral aproximada de una

función a través de un polinomio de primer grado, es decir uniendo mediante

una recta los puntos en donde se evaluara la función.

Y el error es:

Siendo   un número entre a y b.

Regla de Simpson

La regla de Simpson (nombrada así por Thomas Simpson) halla la integral

aproximada de una función mediante un polinomio de segundo o tercer

grado.

Regla de Simpson 1/3

La regla de Simpson 1/3 utiliza tres puntos consecutivos en donde se

evalúa la función a través de un polinomio de segundo grado.

Y el error es:

Siendo   un número entre a y b.

Regla de Simpson 3/8

La regla de Simpson 3/8 utiliza cuatro puntos consecutivos en donde se

evalúa la función a través de un polinomio de tercer grado.

.

Y el error es:

Siendo   un número entre a y b.

Ecuaciones diferenciales ordinarias.

En matemáticas, una ecuación diferencial ordinaria (comúnmente

abreviada "EDO") es la que contiene una función desconocida

de una variable independiente y relaciona con sus derivadas:

una sola variable independiente (a diferencia de las ecuaciones

diferenciales parciales que involucran derivadas parciales de varias

variables), y

una o más de sus derivadas respecto de tal variable.

Recursos de la física, la ingeniería, la economía, la meteorología y en

aplicaciones como las de modelado en ciencias, se las estudia en diversas

áreas (como geometría, mecánica y astronomía) y perspectivas.

Matemáticamente es de crucial interés el conjunto de funciones que verifican

la ecuación y establecen sus soluciones. Sólo las ecuaciones diferenciales

más sencillas admiten soluciones dadas por fórmulas explícitas (como las

lineales asociadas a una teoría desarrollada prácticamente por completo).

No obstante, pueden determinarse algunas propiedades de las soluciones de

una ecuación diferencial sin requerirse su formulación exacta. Clave para

resolver la mayoría de las ecuaciones diferenciales no lineales de sumo

interés en numeroso casos. Casos carentes de una fórmula auto-contenida

para su solución que se suple con la aproximada numéricamente con el

auxilio crucial de las computadoras.

La matemática pura centra el foco formal en la solución, su existencia y si

es o no única. La aplicada controla la validez de los métodos para la solución

numéricamente aproximada y el rigor de las justificaciones con que se los

sustenta.

La teoría de los sistemas dinámicos prioriza el análisis cualitativo de

sistemas descriptos por ecuaciones diferenciales mientras se han venido

sumando numerosos métodos numéricos para determinar soluciones con un

grado dado de precisión.

Método de Euler

El Método de Euler o de las Tangentes constituye el primer y más sencillo

ejemplo de método numérico para la resolución de un problema de valor

inicial:

y 0 = f(x, y), y(x0) = y0

Donde suponemos además que se verifican las hipótesis del Teorema de

Picard 1, y en consecuencia existe solución única para el problema.

Interpretando la e.d.o. y 0 = f(x, y) como un campo de direcciones en el

plano x − y Y la condición inicial y(x0) = y0 como un punto (x0, y0) de dicho

plano, podemos aproximar la función solución y(x) por medio de la recta

tangente a la misma que pasa por ese punto:

y(x) ∼= y0 + f(x0, y0) (x − x0)

Métodos de Runge-Kutta

La idea general de los Métodos de Runge-Kutta es sustituir el Problema

de Valor Inicial:

Y´= f(x,y)

Y(x0)= y0

Por la ecuación integral equivalente

∫y 0

y

dy=∫x 0

x

f (x , y¿¿(x ))dx ¿¿ Entonces y=y0+ ∫x0

x

f (x , y ( x ) )dx

Para proceder a aproximar esta ´ultima integral mediante un método

numérico adecuado (recordemos que y(x) es desconocida). Si nuevamente

planteamos el problema “paso a paso” tendremos:

Yn+1= Yn + ∫xn

xn+1

f ¿¿

Método de Runge-Kutta de segundo orden

La primera opción que podemos aplicar es integrar mediante el método

de los trapecios, es decir tomando:

∫xn

xn+1

f (x , y (x ) )dx ≅ 12

h(f(xn,yn)) + f(xn+1,yn+1)

Método de Runge-Kutta de tercer orden

Se trata de la misma idea pero integrando por el Método de Simpson,

entonces:

∫xn

xn+1

f (x , y (x ) )dx ≅

h23 ( f ( xn , yn ) )+4 f (xn+ 1

2, yn+ 1

2 )+ f ( xn+1 , yn+1 )

Método de Runge-Kutta de cuarto orden

Los Métodos de Runge-Kutta de cuarto orden se deducen de una manera

similar a la expuesta en la sección anterior para el caso de tercer orden.

Ahora se introduce un nuevo paso intermedio en la evaluación de la

derivada. Una vez más se presentan varias opciones en la evaluación y es

posible ajustar de tal manera que se garantice el error local de manera

proporcional a h 5 (es decir garantizando exactitud en el cuarto orden en el

polinomio de Taylor), lo cual lleva a un error global proporcional a h 4. El

Método de cuarto orden más habitual es el determinado por las formulas

siguientes:

K1= hf(xn,yn)

K2= hf(xn+ h2 , yn+ k12 )

K3= hf(xn+ h2 , yn+ k22 )

K4= hf( xn+h , yn+k3 )

Yn+1= yn+16

( ki+2k 2+2 k 3+k 4 )

Que al igual que el método de tercer orden está basado en el método de

interacción de Simpson. Los errores local y global son en este caso

proporcionales a h 5 y h 4 respectivamente.

Método de Jacobi

El método Jacobi es el método iterativo para resolver sistemas de

ecuaciones lineales más simple y se aplica solo a sistemas cuadrados, es

decir a sistemas con tantas incógnitas como ecuaciones.

1 Primero se determina la ecuación de recurrencia. Para ello se

ordenan las ecuaciones y las incógnitas. De la ecuación i se despeja

la incógnita i. En notación matricial se escribirse como:

X= C + Bx

Donde x es el vector de incógnitas.

2. Se toma una aproximación para las soluciones y a ´esta se le designa

por xo.

3. Se itera en el ciclo que cambia la aproximación.

Xi+1= c + Bxi

Convergencia y convergencia en Jacobi

Uno de los principales problemas de los métodos iterativos es la garantía

de que el método va a converger, es decir, va a producir una sucesión de

aproximaciones cada vez efectivamente más próximas a la solución. En el

caso del método de Jacobi no existe una condición exacta para la

convergencia. Lo mejor es una condición que garantiza la convergencia,

pero en caso de no cumplirse puede o no haberla es la siguiente: Si la matriz

de coeficientes original del sistema de ecuaciones es diagonalmente

dominante, el método de Jacobi seguro converge.

El Método de Gauss-Seidel

El método de Gauss-Seidel es muy semejante al método de Jacobi.

Mientras que en el de Jacobi se utiliza el valor de las incógnitas para

determinar una nueva aproximación, en el de Gauss-Seidel se va utilizando

los valores de las incógnitas recién calculados en la misma iteración, y no en

la siguiente. Por ejemplo, en el método de Jacobi se obtiene en el primer

cálculo xi+1, pero este valor de x no se utiliza sino hasta la siguiente

iteración. En el método de Gauss-Seidel en lugar de eso se utiliza de xi+1 en

lugar de xi en forma inmediata para calcular el valor de yi+1 de igual manera

procede con las siguientes variables; siempre se utilizan las variables recién

calculadas.