Post on 13-Apr-2017
REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD “FERMIN TORO”
CABUDARE – EDO.LARA
INTEGRANTES
DAYANNY AGUILAR
20.237.853
RESUMEN
Métodos De Eliminación Gaussiana
En forma general este método propone la eliminación progresiva de variables en el
sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta
esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables.
Sea por ejemplo el siguiente sistema de ecuaciones: Lo que buscamos son 3 números, que
satisfagan a las tres ecuaciones. El método de solución será simplificar las ecuaciones, de
tal modo que las soluciones se puedan identificar con facilidad. Se comienza dividiendo la
primera ecuación entre, obteniendo: Se simplificará el sistema si multiplicamos por -4
ambos lados de la primera ecuación y sumando esta a la segunda. Entonces: sumándolas
resulta :
Métodos De Eliminación Gaussiana La nueva ecuación se puede sustituir por
cualquiera de las dos. Ahora tenemos: Luego, la primera se multiplica por -3 y se le suma a
la tercera, obteniendo: Acto seguido, la segunda ecuación se divide entre -3. Ahora se
multiplica por 5 y se le suma a la tercera: En este momento ya tenemos el valor de x3,
ahora simplemente se procede a hacer la sustitución hacia atrás, y automáticamente se van
obteniendo los valores de las otras incógnitas. Se obtendrá:
Método de Gauss-Jordan El Método de Gauss – Jordan o también llamado
eliminación de Gauss – Jordan, es un método por el cual pueden resolverse sistemas de
ecuaciones lineales con n números de variables, encontrar matrices y matrices inversas, en
este caso desarrollaremos la primera aplicación mencionada. Para resolver sistemas de
ecuaciones lineales aplicando este método, se debe en primer lugar anotar los coeficientes
de las variables del sistema de ecuaciones lineales en su notación matricial: Entonces,
anotando como matriz (también llamada matriz aumentada):
Método de Gauss-Jordan Una vez hecho esto, a continuación se procede a convertir dicha
matriz en una matriz identidad, es decir una matriz equivalente a la original, la cual es de la
forma: Esto se logra aplicando a las distintas filas y columnas de las matrices simples
operaciones de suma, resta, multiplicación y división; teniendo en cuenta que una operación
se aplicara a todos los elementos de la fila o de la columna, sea el caso. Obsérvese que en
dicha matriz identidad no aparecen los términos independientes, esto se debe a que cuando
nuestra matriz original alcance la forma de la matriz identidad, dichos términos resultaran
ser la solución del sistema y verificaran la igualdad para cada una de las variables,
correspondiéndose de la siguiente forma: d1 = x d2 = y d3 = z
6. Descomposición LU El método de descomposición LU para la solución de sistemas de
ecuaciones lineales debe su nombre a que se basa en la descomposición de la matriz
original de coeficientes (A) en el producto de dos matrices (L y U). Esto es: Donde: L -
Matriz triangular inferior U - Matriz triangular superior con todos los elementos de la
diagonal principal iguales a 1. De lo anterior, para matrices de 3x3 se escribe: Si
efectuamos la multiplicación de L y U, igualando los elementos de ese producto con los de
la matriz A correspondientes, se obtiene:
Descomposición LU De aquí que los elementos de L y U son, en este caso: Si el sistema de
ecuaciones original se escribe como: A x = b lo cual resulta lo mismo escribir: L U X = b
Definiendo a: U X = Y podemos escribir: L Y = b Resolviendo para Y, encontramos:
Descomposición LU El algoritmo de solución, una vez conocidas L, U y b, consiste en
encontrar primeramente los valores de "Y" por sustitución progresiva sobre "L Y = b". En
segundo lugar se resuelve "U x = y " por sustitución regresiva para encontrar los valores de
"x", obteniendo: La determinación de los elementos de las matrices L y U se realizan
eficientemente aplicando una forma modificada del método de eliminación de Gauss.
Factorización De Cholesky Una matriz simétrica es aquella donde Aij = Aji para toda i y j,
En otras palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de ambos
contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que
sólo se necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere
la mitad del tiempo de cálculo para su solución. Al contrario de la Descomposición LU, no
requiere de pivoteo. El método de Factorización de Cholesky se basa en demostrar que si
una matriz A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser
factorizada como el producto de una matriz triangular inferior y la traspuesta de la matriz
triangular inferior, es decir los factores triangulares resultantes son la traspuesta de cada
uno. Ejemplo: Obtener la factorización de Cholesky de la siguiente matriz (entrar sólo los
elementos de U, la triangular superior) 5 7 −8 7 14 −14 −8 −14 24
. Factorización De Cholesky √5 7/5 √5 −8/5 √5 0 1/5 1051/2 −2/15 1051/2 0 0 2/3 211/2
Entrar el valor del determinante: Resolver el sistema lineal Ax=b cuando b es el vector
siguiente 51 84 −90 Factorización: En cada etapa de la resolución se muestran los valores
actuales de la matriz. Los nuevos elementos calculados aparecen con su valor definitivo en
color diferente. Calculando el elemento (1,1) 5^(1/2) 7 -8 7 14 -14
Solución De Sistemas Lineales Utilizando Métodos Iterativos El método de Gauss
y sus variantes son conocidos como métodos directos para resolver el problema inicial Ax
= b. Se ejecutan a través de un número finito de pasos y generan una solución x que sería
exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da lugar a
una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene
cuando se cuenta con una solución aproximada con cierto grado de precisión especificado
de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi
siempre iterativos. Un método iterado de resolución del sistema Ax = b es aquel que
genera, a partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un
método iterado se dirá que es consistente con el sistema Ax = b, si el límite x de la sucesión
(xn), en caso de existir, es solución del sistema. Se dirá que el método es convergente si la
sucesión generada por cualquier vector inicial x0 es convergente a la solución del
sistema".Es evidente que si un método es convergente es consistente, sin embargo, el
recíproco no es cierto
Método De Gauss Seidel El Método de Gauss Seidel emplea valores iniciales y
después itera para obtener estimaciones refinadas de la solución; es particularmente
adecuado para un gran número de ecuaciones, lo cual en cierto modo lo hace un método
más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por el despeje de
cada una de las xi en cada una de las ecuaciones y se les da un valor inicial a cada xi de
cero. Observase que en el método de Gauss-Seidel los valores actualizados de xi sustituyen
de inmediato a los valores anteriores, mientras que en el método de Jacobi todas las
componentes nuevas del vector se calculan antes de llevar a cabo la sustitución. Por contra,
en el método de Gauss-Seidel los cálculos deben llevarse a cabo por orden, ya que el nuevo
valor xi depende de los valores actualizados de x1, x2, ..., x i-1. La desventaja del método
de Gauss-Seidel es que no siempre converge a la solución exacta o algunas veces los hace
de manera muy lenta. Únicamente es confiable para aquellos sistemas dominantes
diagonalmente.
Método de Jacobi El Método de Jacobi transforma una matriz simétrica en una
matriz diagonal al eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de operaciones, ya que la
eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el elemento
cero anterior. Si A es diagonalmente dominante, entonces la sucesión que resulta de la
iteración de Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo.
Partimos de una aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y
sustituimos estos valores en la ecuación: Que es la expresión que nos proporciona las
nuevas componentes del vector x(k) en función de vector anterior x(k-1) en la iteración de
Jacobi, en su respectivo algoritmo; donde el a el método de Jacobi más que usar el último
valor disponible de , con base en un conjunto de las x anteriores (). De esta forma, como se
generan nuevos valores, no se usan en forma inmediata sino que se retienen para la
siguiente iteración.