Diego Leal Análisis Numérico SAIA A

24
REPUBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD FERMIN TORO VICE RECTORADO ACADEMICO ESCUELA DE INGENIERIA CABUDARE-LARA Solución de sistemas de ecuaciones lineales DIEGO LEAL P. CI 25927184 SAIA A PROF DOMINGO MÉNDEZ

Transcript of Diego Leal Análisis Numérico SAIA A

Page 1: Diego Leal Análisis Numérico SAIA A

REPUBLICA BOLIVARIANA DE VENEZUELAUNIVERSIDAD FERMIN TORO

VICE RECTORADO ACADEMICOESCUELA DE INGENIERIA

CABUDARE-LARA

Solución de sistemas de ecuaciones lineales

DIEGO LEAL P.CI 25927184

SAIA APROF DOMINGO MÉNDEZ

JUNIO 2016

¿Qué es un slideshare?

Page 2: Diego Leal Análisis Numérico SAIA A

SlideShare es un sitio web 2.0 de alojamiento de diapositivas que ofrece a los usuarios la posibilidad de subir y compartir en público o en privado presentaciones de diapositivas en PowerPoint (.ppt,.pps,.pptx,.ppsx,.pot y.potx), OpenOffice (.odp); presentaciones e infografías PDF (.pdf); documentos en Adobe PDF (.pdf), Microsoft Word (.doc,.docx y.rtf) y OpenOffice (.odt) y la mayoría de documentos de texto sin formato (.txt), e incluso algunos formatos de audio y vídeo.

Originalmente el sitio web estaba destinado para los empleados del ámbito empresarial con la intención de que compartieran con más facilidad diapositivas entre ellos, pero luego el público objetivo se amplió para convertirse también en un entretenimiento.

SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES

MÉTODOS DE ELIMINACIÓN GAUSSIANA:

El primer método que se presenta usualmente en álgebra, para la solución de ecuaciones algebraicas lineales simultáneas, es aquel en el que se eliminan las incógnitas mediante la combinación de las ecuaciones. Este método se conoce como Método de Eliminación. Se denomina eliminación Gaussiana si en el proceso de eliminación se utiliza el esquema particular atribuido a Gauss.

Utilizando el método de Gauss, un conjunto de n ecuaciones con n incógnitas se reduce a un sistema triangular equivalente (un sistema equivalente es un sistema que tiene iguales valores de la solución), que a su vez se resuelve fácilmente por "sustitución inversa"; un procedimiento simple que se ilustrará con la presentación siguiente.

El esquema de Gauss empieza reduciendo un conjunto de ecuaciones simultáneas, a un sistema triangular equivalente como:

En el cual los superíndices indican los nuevos coeficientes que se forman en el proceso de reducción. La reducción real se logra de la siguiente manera:

1. La primera ecuación se divide entre el coeficiente de X1 en esa ecuación para obtener:

(1)

(2)

Page 3: Diego Leal Análisis Numérico SAIA A

2. La ecuación (3) se multiplica entonces por el coeficiente de X1 de la segunda ecuación (1) y la ecuación que resulta se resta de la misma, eliminando así X1. La ecuación (2) se multiplica entonces por el coeficiente de X1 de la tercera ecuación (2), y la ecuación resultante se resta de la misma para eliminar X1 de esa ecuación. En forma similar, X1 se elimina de todas las ecuaciones del conjunto excepto la primera, de manera que el conjunto adopta la forma:

3. La ecuación utilizada para eliminar las incógnitas en las ecuaciones que la siguen se denomina Ecuación Pivote. En la ecuación pivote, el coeficiente de la incógnita que se va a eliminar de las ecuaciones que la siguen se denomina el Coeficiente Pivote (a11 en los pasos previos).

4. Siguiendo los pasos anteriores, la segunda ecuación (4) se convierte en la ecuación pivote, y los pasos de la parte 1 se repiten para eliminar X2 de todas las ecuaciones que siguen a esta ecuación pivote.

Esta reducción nos conduce a:

A continuación se utiliza la tercer ecuación (5) como ecuación pivote, y se usa el procedimiento descrito para eliminar X3 de todas las ecuaciones que siguen a la tercer ecuación (5). Este procedimiento, utilizando diferentes ecuaciones pivote, se continúa hasta que el conjunto original de ecuaciones ha sido reducido a un conjunto triangular tal como se muestra en la ecuación (2).

(3)

(4)

(5)

Page 4: Diego Leal Análisis Numérico SAIA A

5. Una vez obtenido el conjunto triangular de ecuaciones, la última ecuación de este conjunto equivalente suministra directamente el valor de Xn (ver ec. 2). Este valor se sustituye entonces en la antepenúltima ecuación del conjunto triangular para obtener un valor de Xn-1, que a su vez se utiliza junto con el valor de Xn en la penúltima ecuación del conjunto triangular para obtener un valor Xn-2 y así sucesivamente. Este es el procedimiento de sustitución inversa al que nos referimos previamente.

Para ilustrar el método con un conjunto numérico, apliquemos estos procedimientos a la solución del siguiente sistema de ecuaciones:

X1 + 4 X2 + X3 = 7

X1 + 6 X2 - X3 = 13

2 X1 - X2 + 2 X3 = 5

Utilizando como ecuación pivote la primera ecuación (el coeficiente pivote es unitario), obtenemos:

X1 + 4 X2 + X3 = 7

2 X2 - 2 X3 = 6

9 X2 + (0) X3 = -9

A continuación, utilizando la segunda ecuación del sistema (7) como ecuación pivote y repitiendo

X1 + 4 X2 + X3 = 7

2 X2 - 2 X3 = 6

- 9 X3 = 18

Finalmente mediante sustitución inversa, comenzando con la última de las ecuaciones (8) se obtienen los siguientes valores:

X3 = -2

X2 = 1

X1 = 5

(6)

(7)

(8)

Page 5: Diego Leal Análisis Numérico SAIA A

MÉTODO DE GAUSS-JORDAN:

Este método, que constituye una variación del método de eliminación de Gauss, permite resolver hasta 15 o 20 ecuaciones simultáneas, con 8 o 10 dígitos significativos en las operaciones aritméticas de la computadora. Este procedimiento se distingue del método Gaussiano en que cuando se elimina una incógnita, se elimina de todas las ecuaciones restantes, es decir, las que preceden a la ecuación pivote así como de las que la siguen.

El método se ilustra mejor con un ejemplo. Resolvamos el siguiente conjunto de ecuaciones

3.0 X1 - 0.1 X2 - 0.2 X3 = 7.8500

0.1 X1 + 7.0 X2 - 0.3 X3 = - 19.3

0.3 X1 - 0.2 X2 + 10 X3 = 71.4000

Primero expresemos los coeficientes y el vector de términos independientes como una matriz aumentada.

Se normaliza el primer renglón dividiendo entre 3 para obtener:

El término X1 se puede eliminar del segundo renglón restando 0.1 veces el primero del segundo renglón. De una manera similar, restando 0.3 veces el primero del tercer renglón se elimina el término con X1 del tercer renglón.

Page 6: Diego Leal Análisis Numérico SAIA A

En seguida, se normaliza el segundo renglón dividiendo entre 7.00333:

Reduciendo los términos en X2 de la primera y la tercera ecuación se obtiene:

El tercer renglón se normaliza dividiendolo entre 10.010:

Finalmente, los términos con X3 se pueden reducir de la primera y segunda ecuación para obtener:

Nótese que no se necesita sustitución hacia atrás para obtener la solución.

Las ventajas y desventajas de la eliminación gaussiana se aplican también al método de Gauss-Jordan.

Aunque los métodos de Gauss-Jordan y de eliminación de Gauss pueden parecer casi idénticos, el primero requiere aproximadamente 50% menos operaciones. Por lo tanto, la eliminación gaussiana es el método simple por excelencia en la obtención de soluciones exactas a las ecuaciones lineales simultáneas. Una de las principales razones para incluir el método de Gauss-Jordan, es la de proporcionar un método directo para obtener la matriz inversa.

Page 7: Diego Leal Análisis Numérico SAIA A

DESCOMPOSICIÓN LU:

Su nombre se deriva de las palabras inglesas “Lower" y “Upper”, que en español se traducen como “Inferior” y “Superior”. Estudiando el proceso que se sigue en la descomposición LU es posible comprender el por qué de este nombre, analizando cómo una matriz original se descompone en dos matrices triangulares, una superior y otra inferior.

La descomposición LU involucra solo operaciones sobre los coeficientes de la matriz [A], proporcionando un medio eficiente para calcular la matriz inversa o resolver sistemas de álgebra lineal.

Primeramente se debe obtener la matriz [L] y la matriz [U].

[L] es una matriz diagonal inferior con números 1 sobre la diagonal. [U] es una matriz diagonal superior en la que sobre la diagonal no necesariamente tiene que haber números 1.

El primer paso es descomponer o transformar [A] en [L] y [U], es decir obtener la matriz triangular inferior [L] y la matriz triangular superior [U].

PASOS PARA ENCONTRAR LA MATRIZ TRIANGULAR SUPERIOR (MATRIZ [U])

1. Hacer cero todos los valores abajo del pivote sin convertir este en 1.2. Para lograr lo anterior se requiere obtener un factor el cual es necesario para convertir a

cero los valores abajo del pivote.3. Dicho factor es igual al número que se desea convertir en cero entre el número pivote.4. Este factor multiplicado por -1 se multiplica luego por el pivote y a ese resultado se le

suma el valor que se encuentra en la posición a cambiar (el valor en la posición que se convertirá en cero). Esto es:

- factor * pivote + posición a cambiar

PASOS PARA ENCONTRAR LA MATRIZ TRIANGULAR INFERIOR (MATRIZ [L])

Para encontrar la matriz triangular inferior se busca hacer ceros los valores de arriba de cada pivote, así como también convertir en 1 cada pivote. Se utiliza el mismo concepto de “factor” explicado anteriormente y se ubican todos los “factores” debajo de la diagonal según corresponda en cada uno.

Page 8: Diego Leal Análisis Numérico SAIA A

Esquemáticamente se busca lo siguiente:

Originalmente se tenía:

Debido a que [A] = [L][U], al encontrar [L] y [U] a partir de [A] no se altera en nada la ecuación y se tiene lo siguiente:

Por lo tanto, si Ax = b, entonces LUx = b, de manera que Ax = LUx = b.

PASOS PARA RESOLVER UN SISTEMA DE ECUACIONES POR EL MÉTODO DE DESCOMPOSICIÓN LU

1. Obtener la matriz triangular inferior L y la matriz triangular superior U.2. Resolver Ly = b (para encontrar y).3. El resultado del paso anterior se guarda en una matriz nueva de nombre “y”.4. Realizar Ux = y (para encontrar x).5. El resultado del paso anterior se almacena en una matriz nueva llamada “x”, la cual brinda

los valores correspondientes a las incógnitas de la ecuación.

EJEMPLO DE DESCOMPOSICIÓN LU

PROBLEMA: Encontrar los valores de x1, x2 y x3 para el siguiente sistema de ecuaciones:

NOTA: Recuérdese que si la matriz es 2x2 se hará 1 iteración; si es 3x3, 2 iteraciones; si es 4x4, 3 iteraciones; y así sucesivamente.

Page 9: Diego Leal Análisis Numérico SAIA A

SOLUCIÓN:

4 - 2 - 1 9[A] = 5 1 - 1 [B] = 7

1 2 - 4 12

ITERACIÓN 1

factor 1 = (a21 / a11) = 5 / 4 = 1.25factor 2 = (a31 / a11) = 1 / 4 = 0.25

Encontrando [U]

fila 2 = - (factor 1) * (fila 1) + (fila 2)fila 3 = - (factor 2) * (fila 1) + (fila 3)

a11 = a11

a12 = a12

a13 = a13

a21 = - (1.25) * (4) + (5) = 0a22 = - (1.25) * (- 2) + (1) = 3.5a23 = - (1.25) + (- 1) + (- 1) = 0.25a31 = - (0.25) * (4) + (1) = 0a32 = - (0.25) * (- 2) + (2) = 2.5a33 = - (0.25) * (- 1) + (- 1) = - 0.75

4 - 2 - 1[U] = 0 3.5 0.25

0 2.5 - 0.75

Encontrando [L]

1 0 0[L] = 1.25 0 0

0.25 0 0

ITERACIÓN 2

factor 3 = (u32 / u22) = 2.5 / 3.5 = 0.7142857143

Encontrando [U]

fila 3 = - (factor 3) * (fila 2) + (fila 3)

a31 = - (2.5 / 3.5) * (0) + (0) = 0a32 = - (2.5 / 3.5) * (3.5) + (2.5) = 0a33 = - (2.5 / 3.5) * (0.25) + (- 0.75) = - 0.9285714286

Page 10: Diego Leal Análisis Numérico SAIA A

4 - 2 - 1[U] = 0 3.5 0.25

0 0 - 0.9285714286

Encontrando [L]

1 0 0

[L] =1.25 1 0

0.25

0.7142857143 1

Ahora ya se tiene la matriz [U] y la matriz [L]. El siguiente paso es resolver Ly = b para encontrar la matriz y. En pocas palabras es como que se pidiera resolver el siguiente sistema de ecuaciones, encontrando los valores de y1, y2 y y3:

Al resolver el sistema anterior, se obtienen los siguientes valores para y1, y2 y y3:

El último paso es resolver Ux = y para encontrar la matriz x. En otras palabras es como que se pidiera resolver el siguiente sistema de ecuaciones, encontrando los valores de x1, x2 y x3:

La solución del sistema es:

Este es finalmente el valor de x1, x2 y x3; es decir, la respuesta del ejercicio utilizando la descomposición LU.

Page 11: Diego Leal Análisis Numérico SAIA A
Page 12: Diego Leal Análisis Numérico SAIA A

FACTORIZACIÓN DE CHOLESKY:

En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación.

Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica y definida positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la descomposición o factorización de Cholesky. Tanto la descomposición LU como la descomposición de Cholesky son usadas para resolver sistemas de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más eficiente que la descomposición LU.

DEFINICIÓN:

En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como

A=¿¿ ,

donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas y L* representa la conjugada traspuesta de L. Esta es la descomposición de Cholesky.

La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida A, hay una única matriz triangular inferior L con entradas diagonales estrictamente positivas tales que A = LL*. El recíproco se tiene trivialmente: si A se puede escribir como LL* para alguna matriz invertible L, triangular inferior o no, entonces A es Hermitiana y definida positiva.

El requisito de que L tenga entradas diagonales estrictamente positivas puede extenderse para el caso de la descomposición en el caso de ser semidefinida positiva. La proposición se lee ahora: una matriz cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para matrices semidefinidas positivas no son únicas en general.

En el caso especial que A es una matriz simétrica definida positiva con entradas reales, L se puede asumir también con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal (valores propios de A), es factorizable como D=√D√D, donde √D es matriz cuya diagonal consiste en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:

A=LU=LDU 0=LD Lt=L¿

Page 13: Diego Leal Análisis Numérico SAIA A

La factorización puede ser calculada directamente a través de las siguientes fórmulas (en este caso realizamos la factorizacón superior A=U t∗U :

uii2=a ii∑

K=1

i−1

uik2 para los elementos de la diagonal principal, y:

uij=aij−∑

k=1

j−1

u iku jk

u jj para el resto de los elementos. Dondeuij son los elementos de la matriz U.

APLICACIONES

La descomposición de Cholesky se usa principalmente para hallar la solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y positiva definida, entonces se puede solucionar Ax = b calculando primero la descomposición de Cholesky A = LLT, luego resolviendo Ly = b para y, y finalmente resolviendo LTx = y para x.

Mínimos cuadrados lineales

Sistemas de la forma Ax = b con A simétrica y definida positiva aparecen a menudo en la práctica. Por ejemplo, las ecuaciones normales en problemas de mínimos cuadrados lineales son problemas de esta forma. Podría ocurrir que la matriz A proviene de un funcional de energía el cual debe ser positivo bajo consideraciones físicas; esto ocurre frecuentemente en la solución numérica de ecuaciones diferenciales parciales.

Simulación de Montecarlo

La descomposición de Cholesky se usa comúnmente en el método de Montecarlo para simular sistemas con variables múltiples correlacionadas: la matriz de correlación entre variables es descompuesta, para obtener la triangular inferior L. Aplicando ésta a un vector de ruidos simulados incorrelacionados, u produce un vector Lu con las propiedades de covarianza del sistema a ser modelado.

Filtro de Kalman

Los filtros de Kalman usan frecuentemente la descomposición de Cholesky para escoger un conjunto de puntos sigma. El filtro de Kalman sigue el estado promedio de un sistema como un vector x de longitud n y covarianza dada por una matriz P de tamaño nxn. La matriz P es siempre semidefinida positiva y puede descomponerse como LLT. Las columnas de L puede ser adicionadas y restadas de la media x para formar un conjunto de 2N vectores llamados los puntos sigma. Estos puntos sigma capturan la media y la covarianza del estado del sistema.

Page 14: Diego Leal Análisis Numérico SAIA A

FACTORIZACIÓN QR (HOUSEHOLDER):

En álgebra lineal, la descomposición o factorización QR de una matriz es una descomposición de la misma como producto de una matriz ortogonal por una triangular superior. La descomposición QR es la base del algoritmo QR utilizado para el cálculo de los vectores y valores propios de una matriz.

Mediante el uso de reflexiones de Householder:

Una transformación de Householder o reflexión de Householder es una transformación que refleja el espacio con respecto a un plano determinado. Esta propiedad se puede utilizar para realizar la transformación QR de una matriz si tenemos en cuenta que es posible elegir la matriz de Householder de manera que un vector elegido quede con una única componente no nula tras ser transformado (es decir, premultiplicando por la matriz de Householder). Gráficamente, esto significa que es posible reflejar el vector elegido respecto de un plano de forma que el reflejo quede sobre uno de los ejes de la base cartesiana.

La manera de elegir el plano de reflexión y formar la matriz de Householder asociada es el siguiente:

Sea X un vector columna arbitrario m-dimensional tal que ‖x‖=|a|, donde α es un escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante, entonces α debe adoptar el signo contrario que x1 para evitar pérdida de precisión).

Entonces, siendo e1 el vector (1,0,...,0)T, y ||·|| la norma euclídea, se define:

u=x−ae1,

v= u‖u‖,

Q=1−2v v t,

v es un vector unitario perpendicular al plano de reflexión elegido. Q Es una matriz de Householder asociada a dicho plano.

Qx=¿

Esta propiedad se puede usar para transformar gradualmente los vectores columna de una matriz A de dimensiones m por n en una matriz triangular superior. En primer lugar se multiplica A con la matriz de Householder Q1 que obtenemos al elegir como x la primera columna de la matriz. Esto proporciona una matriz QA con ceros en la primera columna (excepto el elemento de la primera fila).

Q1 A=⌊¿

Page 15: Diego Leal Análisis Numérico SAIA A

el procedimiento se puede repetir para A (que se obtiene de A eliminando la primera fila y′ columna), obteniendo así una matriz de Householder Q 2. Hay que tener en cuenta que Q 2 es′ ′ menor que Q1. Para conseguir que esta matriz opere con Q1A en lugar de A es necesario′ expandirla hacia arriba a la izquierda, completando con un uno en la diagonal, o en general:

Qk=(I k−1 00 Q´k )

Tras repetir el proceso t veces, donde t=min(m−1 ,n),

R=Qt…Q1Q2 A

es una matriz triangular superior. De forma que tomando

Q=Q1Q2…Qt

A=Qt R es una descomposición QR de la matriz A.

Este método tiene una estabilidad numérica mayor que la del método de Gram-Schmidt descrito arriba.

Una pequeña variación de este método se utiliza para obtener matrices semejantes con la forma de Hessenberg, muy útiles en el cálculo de autovalores por acelerar la convergencia del algoritmo QR reduciendo así enormemente su coste computacional.

Page 16: Diego Leal Análisis Numérico SAIA A

Solución De Sistemas Lineales Utilizando Métodos Iterativos.

El método de Gauss y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax = b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da lugar a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre iterativos.

Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir, es solución del sistema. Se dirá que el método es convergente si la sucesión generada por cualquier vector inicial x0 es convergente a la solución del sistema”. Es evidente que si un método es convergente es consistente, sin embargo, el recíproco no es cierto.

MÉTODO DE GAUSS-SEIDEL:

El método de Gauss-Seidel es un método iterativo y por lo mismo resulta ser bastante eficiente. Se comienza planteando el sistema de ecuaciones con el que se va a trabajar:

De la ecuación 1 despejar x1, de la ecuación 2 despejar x2, …, de la ecuación n despejar xn. Esto da el siguiente conjunto de ecuaciones:

Este último conjunto de ecuaciones son las que forman las fórmulas iterativas con las que se va a estar trabajando. Para comenzar el proceso iterativo, se le da el valor de cero a las variables x2,…, xn; esto dará un primer valor para x1. Más precisamente, se tiene que:

Page 17: Diego Leal Análisis Numérico SAIA A

Enseguida, se sustituye este valor de x1 en la ecuación 2, y las variables x3,…, xn siguen teniendo el valor de cero. Esto da el siguiente valor para x2:

Estos últimos valores de x1 y x2, se sustituyen en la ecuación 3, mientras que x4,…, xn siguen teniendo el valor de cero; y así sucesivamente hasta llegar a la última ecuación. Todo este paso arrojará una lista de primeros valores para las incógnitas, la cual conforma el primer paso en el proceso iterativo. Para una mejor comprensión esto se simbolizará de esta forma:

Se vuelve a repetir el proceso, pero ahora sustituyendo estos últimos datos en vez de ceros como al inicio. Se obtendrá una segunda lista de valores para cada una de las incógnitas, lo cual se simbolizará así:

En este momento se pueden calcular los errores aproximados relativos, respecto a cada una de las incógnitas. La lista de errores se presenta a continuación:

El proceso se vuelve a repetir hasta que:

donde se debe prefijar convenientemente.

Page 18: Diego Leal Análisis Numérico SAIA A

MÉTODO DE JACOBI:En análisis numérico el método de Jacobi es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo AX=b. El algoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar fórmulas como iteración de punto fijo.La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema.

La sucesión se construye descomponiendo la matriz del sistema A en la forma siguiente:

A=D+R

Donde D, es una matriz diagonal y R, es la suma de una matriz triangular inferior L y una matriz triangular superior U, luego R=L+U . Partiendo de Ax=b, podemos reescribir dicha ecuación como:

Dx+Rx=b

Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede ser expresado de la forma:

X (K+i)=D−1(B−R xk)

Donde K es el contador de iteración, Finalmente tenemos:

x i¿¿

Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k), excepto el que tenga el mismo i. Por eso, al contrario que en el método Gauss-Seidel, no se puede sobreescribir xi(k) con xi(k+1), ya que su valor será necesario para el resto de los cálculos. Esta es la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar un copiado explícito.