UNIVERSIDAD REGIONAL AUTÓNOMA DE LOS ANDES
EXTENSIÓN SANTO DOMINGO
CARRERA DE SISTEMAS
SIMULACIÒN
TEMA: CONSULTA
AUTOR: ADRIAN PAREDES
TUTOR: ING. SANDRO TOCTAGUANO
NIVEL: QUINTO
PERIODO: OCTUBRE – FEBRERO
STO. DGO – ECUADOR
2015-216
1. INTRODUCCION
Esta consulta está enfocada a presentar de manera precisa una interpretación de
diferentes temas referentes a la asignatura de simulacion, teniendo en cuenta su
definición, componentes, aspectos y procesos relevantes para que se dé, desde
una perspectiva amplia y tener un entendimiento de la materia en sí.
En la actualidad, los métodos numéricos son una herramienta indispensable en
prácticamente todos los campos de las ciencias exactas e ingenierías. Aquellos
métodos utilizados para encontrar las raíces de un polinomio de grado n tienen
además aplicaciones que van desde encontrar los puntos de intersección de
funciones complejas, hasta la resolución de ecuaciones diferenciales.
2. OBJETIVOS
2.1.GENERAL
Investigar los métodos de desarrollo para el aprendizaje de la matera de
simulación.
2.2.ESPECIFICOS
Identificar los diferentes tipos de métodos que se ha investigado.
Realizar ejemplos de los diferentes tipos de métodos investigados.
3. FUNDAMENTACION CIENTIFICA
MÉTODOS DE APROXIMACIONES SUCESIVAS
Descripción
El método de las aproximaciones sucesivas es uno de los procedimientos más
importantes y más sencillos de codificar. Supongamos la ecuación
donde f(x) es una función continua que se desea determinar sus raíces reales. Se
sustituye f(x) por la ecuación equivalente
Se estima el valor aproximado de la raíz x0, y se sustituye en el segundo miembro
de la ecuación para obtener x1.
Poniendo x1 como argumento de j(x), obtendremos un nuevo número x2, y así
sucesivamente. Este proceso se puede sintetizar en la fórmula.
(1)
Si esta secuencia es convergente es decir, tiende hacia un límite, la solución x es
El método de iteración se explica geométricamente mediante el gráfico de la figura.
Se dibuja la curva y=j(x), y la recta y=x, bisectriz del primer cuadrante. La
abscisa x del punto de intersección es la raíz buscada.
Un ejemplo típico es la de encontrar la raíz de la ecuación
Para encontrar la raíz, se comienza en el punto cualquiera de abscisa x0 dentro del
intervalo (0, p/2), y se traza la línea vertical hasta que interseca la curva, luego,
desde este punto, se traza una línea horizontal hasta que se alcanza la recta
bisectriz, este punto tendrá por abscisa x1. Se traza de nuevo, una línea vertical
hasta encontrar a la curva, y otra línea horizontal hasta encontrar la línea recta, el
punto de intersección tiene de abscisa x2 , y así sucesivamente. Como podemos
apreciar en la figura, la sucesión x1, x2, x3... tiende hacia la raíz x de la ecuación
buscada.
Tal como nos sugiere la representación gráfica de la función en la figura, la raíz
buscada está en el intervalo 0 a p/2. Tomamos una aproximación inicial a la raíz x0,
en dicho intervalo y aplicamos la fórmula (1), su codificación no presenta grandes
dificultades.
double x=0.5;
while(true){
x=Math.cos(x);
}
La condición de finalización
Primero, introducimos el valor inicial x, la primera aproximación, calculamos el valor
del coseno de x, el valor devuelto (segunda aproximación), lo guardamos de nuevo
en la variable x, y repetimos el proceso indefinidamente. El código aunque correcto,
necesita terminarse en algún momento, cumpliendo una determinada condición.
Cuando el valor absoluto del cociente entre la diferencia de dos términos
consecutivos de la sucesión y uno de los términos, sea menor que cierta
cantidad e.
Este criterio, no es completamente riguroso, pero es un buen punto de partida para
el estudio de este método. Volvemos a escribir el código incluyendo la condición de
terminación y dentro de una función denominada raiz, a la que se le pasa el valor
inicial y que devuelve la raíz buscada
final double ERROR=0.001;
double raiz(double x0){
double x1;
while(true){
x1=Math.cos(x0);
if(Math.abs((x1-x0)/x1)<ERROR) break;
x0=x1;
}
return x0;
}
En primer lugar, fijamos el valor de la constante e o ERROR. Introducimos la
primera aproximación a la raíz, y la guardamos en la variable x0, calculamos su
coseno y obtenemos la segunda aproximación, la guardamos en la variable x1.
Verificamos si se cumple la condición de terminación. En el caso de que no se
cumpla, x0 toma el valor de x1 y se repite el proceso. En el momento en que se
cumpla la condición de terminación, se sale del bucle y la función devuelve la raíz
buscada. Como podemos observar las variables x0 y x1 guardan dos términos
consecutivos de la sucesión que tiende hacia la raíz de la función.
La clase que describe el procedimiento
Queremos que el procedimiento numérico sea independiente de la función f(x) cuya
raíz deseamos averiguar. Para ello, creamos una clase base
abstracta denominada Ecuacion con una función miembro raizque defina el
procedimiento numérico, y que deje sin definir la función f(x), declarándola
abstracta, dejando a las clases derivadas de Ecuacion la definición de la
función f(x) particular.
public abstract class Ecuacion {
protected static final double ERROR=0.001;
public double raiz(double x0){
double x1;
while(true){
x1=f(x0);
if(Math.abs(x1-x0)<ERROR) break;
x0=x1;
}
return x0;
}
abstract public double f(double x);
}
Las clases derivadas denominadas Funcion1 y Funcion2 definen la función f(x)
public class Funcion1 extends Ecuacion{
public double f(double x){
return Math.cos(x);
}
}
public class Funcion2 extends Ecuacion{
public double f(double x){
return Math.pow(x+1, 1.0/3);
}
}
Creamos objetos de las clases derivadas y llamamos desde ellos a la
función raiz que describe el procedimiento numérico
Funcion1 f1=new Funcion1();
System.out.println("solucion1 "+f1.raiz(0.5));
System.out.println("solucion1 "+f1.raiz(0.9));
Funcion2 f2=new Funcion2();
System.out.println("solucion1 "+f2.raiz(0.5));
En las dos primeras llamadas a la función raiz comprobamos que la solución
buscada no depende del valor inicial de partida x0, que en el primer caso es 0.5 y
en el segundo caso es 0.9.
El criterio de convergencia
No todas las ecuaciones pueden resolverse por este método, solamente si el valor
absoluto de la derivada de la función j(x) en la vecindad de la raíz x es menor que
la unidad (la pendiente de la recta bisectriz del primer cuadrante es uno). En la
figura, podemos ver como es imposible encontrar la solución marcada por un
puntito negro en la intersección entre la curva y la recta bisectriz del primer
cuadrante, ya que la sucesión xi diverge.
Por ejemplo, la ecuación
tiene una raíz en el intervalo (1, 2) ya que f(1)=-1<0 y f(2)=5>0. Esta ecuación
puede escribirse de la forma
En este caso,
y por tanto,
en consecuencia, no se cumplen las condiciones de convergencia del proceso de
iteración. Si escribimos la ecuación en la forma
como podrá verificar fácilmente el lector, cumple las condiciones de convergencia,
obteniéndose rápidamente un valor aproximado de la raíz buscada.
Ejemplos
Resolver por el método de aproximaciones sucesivas las siguientes ecuaciones.
Primero hay que ponerlas de la forma x=f(x).
METODO DE ALINEACION DE NEWTON RAPHSON
El método de Newton-Raphson es un método iterativo que nos permite aproximar
la solución de una ecuación del tipo f(x)=0. Partimos de una estimación inicial de la
solución x0 y construimos una sucesión de aproximaciones de forma recurrente
mediante la fórmula xj+1 = xj − f (xj) f0 (xj). Por ejemplo, consideremos la ecuación
ex = 1 x. En este caso es imposible despejar la incógnita, no obstante, si
representamos las curvas y = ex, y = 1/x en el intervalo x ∈ [0, 4], es evidente que
la ecuación tiene una solución en este intervalo. 1 Para aplicar el método de
Newton-Raphson, seguimos los siguientes pasos: 1. Expresamos la ecuación en la
forma f(x)=0, e identificamos la función f. En el ejemplo es f(x) = ex − 1 x. 2.
Calculamos la derivada f0 (x) = ex + 1 x2. 3. Construimos la fórmula de recurrencia
xj+1 = xj − exj − 1 xj exj + 1 x2 j
En análisis numérico, el método de Newton (conocido también como el método de
Newton-Raphson o el método de Newton-Fourier) es un algoritmo eficiente para
encontrar aproximaciones de los ceros o raíces de una función real. También
puede ser usado para encontrar el máximo o mínimo de una función, encontrando
los ceros de su primera derivada.
El algoritmo ha sido generalizado de muchas formas para la resolución de otros
problemas no lineales más difíciles; por ejemple, sistemas de ecuaciones y
ecuaciones diferenciales e integrales no lineales.
Nos es siempre el mejor método para un problema dado, pero su simplicidad forma
y su gran velocidad hace que frecuentemente sea el primer algoritmo que se
experimenta en la resolución de un problema no lineal.
Además los más comunes se consideran la técnica grafica otra posibilidad es la
derivar una estrategia simple para intentar conseguir una convergencia más rápida
de la que ofrecen muchos otros tipos de alineación.
Considé re la ecuaci´on f (x) = 0 en la que supondremos que f (x) es una
funci´on de clase C2([a, b]). Supongamos adem´as que la ecuaci´on anterior admite
una
2 ·
soluci´on x∗ en el intervalo [a, b]. Para cualquier otro valor x0 ∈ [a, b], denotando
por h al valor tal que x∗ = x0 + h, la expresi´on del desarrollo en serie de Taylor
nos permitir´ıa escribir que:
0 = f (x∗) = f (x0 + h) = f (x0) + h.f ′(x0) + h2
2 · f ”(x0 + θh), θ ∈ [0, 1]
Si conocido x0 se fuese capaz de determinar h resolviendo la ecuaci´on:
h2
f (x0) + h · f ′(x0) + 2 · f ”(x0 + θh) = 0
podrıa determinarse x∗ como x∗ = x0 +h. Pero para resolver esta ecuaci´on
primero deberíamos conocer el valor de θ (lo cual no es obvio) y una vez conocido
resolver una ecuaci´on, en general, no lineal pues obsérvese que h interviene en la
expresión f ”(x0 + θh). Por tanto, salvo en situaciones muy particulares, no se
ganaría gran cosa remplazando el problema de resolver f (x) = 0 por el de resolver
F (h) = f (x0) + h · f ′(x0) + h2
.f ”(x0 + θh) = 0
2
El m´etodo de Newton-Raphson (o m´etodo de linealizaci´on de Newton) se
sustenta en simplificar la expresi´on anterior linealiz´andola. Para ello
considera que si se est´a suficientemente cerca de la soluci´on (es decir si h es
suficientemente pequen˜o)
el t´ermino h2 f ”(x0 + θh) podr´a despreciarse fente a los otros t´erminos de
la
ecuaci´on. Por ello resuelve la ecuaci´on lineal:
de la que se obtiene que:
−
f (x0) + H · f ′(x0) = 0
H = f (x0)
f ′(x0)
Obviamente, al ser diferente la ecuación linealizada que la proporcionada por el
desarrollo de Taylor, se tendría que H ƒ= h y por tanto x∗ = x0 + h ƒ= x1 = x0 + H.
De una forma intuitiva (que después deberemos precisar cuándo es correcta)
puede pensarse que aunque x1 sea diferente de x∗ sería un valor más próximo a
x∗ que x0 pues lo hemos obtenido ”aproximando” el valor h que nos llevaba de x0
a x∗. Ello, al menos, seria asi cuando h sea suficientemente pequeño, es decir
cuando x0 sea suficientemente próximo a x∗. Con ello el m´etodo de Newton-
Raphson propone
repetir este proceso de forma recursiva hasta estar lo suficientemente cercanos a la
soluci´on buscada. Más concretamente el m´etodo de Newton-Raphson consiste
∞
en generar la sucesió n,xi+1 = xi − f ( xi ) , a partir de un valor x0 dado.
f ′(xi) i=0
Sobre este m´etodo, en primer lugar, puede observarse que si denotamos por:
f (x)
g(x) = x − f ′(x)
MÉTODO DE REGULA-FALSI Y DE LA SECANTE
Método de la secante
Este método aproxima el valor de f
(xi) mediante:
f
(xi) ≈
f(xi) − f(xi−1)
xi − xi−1
con lo que el esquema iterativo del método de Newton-Raphson se ve modificado
a:
xi+1 = xi −
f(xi)
f(xi)−f(xi−1)
xi−xi−1
=
xi−1 · f(xi) − xi
· f(xi−1)
f(xi) − f(xi−1)
Obsérvese que para aplicar el método se necesitan dos valores x0 y x1 con los que
Inicializar el proceso. Por ello en el método de la secante la primera iteración se
realiza mediante el método de Newton siguiéndose el siguiente proceso:
Dado x0:
x1 ← x0 −
f(x0)
f
′(x0)
xi+1 =
xi−1·f(xi)−xi·f(xi−1)
f(xi)−f(xi−1)
, i = 1, 2, . . .
El método de la secante toma su nombre del hecho de que gráficamente
Se puede interpretar el método de forma similar al de Newton pero sustituyendo la
recta tangente a la curva en el punto.
EL MÉTODO DE “REGULA FALSI”
Este método es una combinación del método de bipartición y del método de la
secante. En ´él se considera una ecuación f(x) = 0 y un intervalo [a, b] en el que f(x)
sea continua y además se verifique que f(a) · f(b) < 0. Con ello, según se indicó al
analizar el método de bipartición se puede estar seguro de que en [a, b] existe al
menos una raíz. Tras ello se denomina x1 al punto de corte con el eje de abscisas
de la recta secante que pasa por los puntos (a, f(a)), (b, f(b)) es decir al punto:
x1 =
a · f(b) − b · f(a)
f(b) − f(a)
Si f(x1)·f(a) < 0 se puede asegurar que en el intervalo (a, x1) existirá una solución de
la ecuación. En el caso de que f(x1)· f(a) > 0 se puede afirmar lo mismo para el
intervalo (x1, b). Y en el caso de que f(x1) = 0 se habrá determinado ya la solución.
En todo caso o se tiene la solución de la ecuación o se dispone de un intervalo más
pequeño en el que volver a repetir el proceso. Esta forma de proceder es repetida
las veces que sea necesario hasta encontrar un intervalo en el que exista una
solución y con una longitud inferior a la precisión deseada.
MÉTODO DE BIPARTICIÓN
En matemáticas, el método de bisección es un algoritmo de búsqueda de raíces que
trabaja dividiendo el intervalo a la mitad y seleccionando el su intervalo que tiene la
raíz.
Este es uno de los métodos más sencillos y de fácil intuición para resolver
ecuaciones en una variable, también conocido como Método de Intervalo Medio.1 Se
basa en el teorema del valor intermedio (TVI), el cual establece que toda función
continua f en un intervalo cerrado [a,b] toma todos los valores que se hallan entre
f(a) y f(b). Esto es que todo valor entre f(a) y f(b) es la imagen de al menos un valor
en el intervalo [a,b]. En caso de que f(a) y f(b) tengan signos opuestos, el valor cero
sería un valor intermedio entre f(j) y f(e), por lo que con certeza existe un p en [a,b]
1
que cumple f(p)=0. De esta forma, se asegura la existencia de al menos una
solución de la ecuación f(x)=0.
Para aplicar el método consideremos tres sucesiones definidas por
las siguientes relaciones:
Donde los valores iniciales vienen dados por:
Se puede probar que las tres sucesiones convergen al valor de la única raíz del
intervalo:
CASO DE RAÍCES COMPLEJAS. MÉTODO DE BAIRSTOW
Como vimos anteriormente, si un polinomio tiene todos sus coeficientes reales,
entonces puede tener raíces reales o complejas. En este caso, es posible determinar
todas sus raíces de dos en dos, utilizando sólo aritmética real. El procedimiento que
presentamos a continuación, llamado método de Bairstow, permite realizar esto.
Si realizamos la división de polinomios con coeficientes reales
, entonces resulta que
(3.6)
siendo el cociente y el resto de la división, ambos dependientes
de los números reales y , por lo que podemos considerar , y los
coeficientes de funciones dependientes de los parámetros y .
2
Si pudiéramos determinar dos valores y de manera que
y se tendría que
con lo que calculando las raíces de la ecuación de segundo
grado , se obtendrían dos raíces del polinomio .
Veamos pues cómo se pueden obtener esos dos valores y . En principio
partiremos de dos valores iniciales y , por lo que podemos expresar
y
Si suponemos que las funciones de dos variables y son diferenciables
3
DESARROLLO
MÉTODO DE BIPARTICIÓN.
El método de bipartición o más conocido como método de intervalo medio se basa
en el teorema del valor inter el cual establece que toda función f en un intervalo
cerrado tomas todos los valores que se hallan en f(a) y f(b) estos valores es la
imagen de por lo menos un valor en el intervalo medio
MÉTODO DE REGULA-FALSI Y DE LA SECANTE.
Este método se basa en la fórmula de Newton-Raphson, pero evita el cálculo de la
derivada.
El gran parecido con la fórmula del método de la regla falsa. La diferencia entre una
y otra es que mientras el método de la regla falsa trabaja sobre intervalos cerrados,
el método de la secante es un proceso iterativo y por lo mismo, encuentra la
aproximación casi con la misma rapidez que el método de Newton-Raphson. Claro,
corre el mismo riesgo de éste último de no converger a la raíz, mientras que el
método de la regla falsa va a la segura.
MÉTODOS DE APROXIMACIONES SUCESIVAS.
En el método de aproximación sucesiva, en cada ecuación se debe reescribir la
ecuación con una ecuación con equivalencia para asi poder encontrar la solución se
debe partir de un valor inicial que será x0 y se procede a calcular la aproximación
de un valor entero o decimal y es proceso se lo debe repetir el proceso las veces
necesarias para obtener el resultado del problema planteado
4
METODO DE ALINEACION DE NEWTON RAPHSON.
Este método es uno de los usados y efectivos, no trabaja sobre un intervalo se basa
en una formula en un proceso iterativo El método de alineación es un método que
nos permite aproximar la solución de un problema o una ecuación más compleja que
al igual que el método de aproximación sucesivas comenzamos desde un valor x0 y
seguimos los siguientes pasos expresando una formula o identificamos la función
que se está empleando.
El método consiste en lo siguiente:
Debe existir seguridad sobre la continuidad de la función f(x) en el intervalo
[a,b]
A continuación se verifica que
Se calcula el punto medio m del intervalo [a,b] y se evalúa f(m) si ese valor es
igual a cero, ya hemos encontrado la raíz buscada
En caso de que no lo sea, verificamos si f(m) tiene signo opuesto con f(a) o
con f(b)
Se redefine el intervalo [a, b] como [a, m] o [m, b] según se haya determinado
en cuál de estos intervalos ocurre un cambio de signo
5
Con este nuevo intervalo se continúa sucesivamente encerrando la solución
en un intervalo cada vez más pequeño, hasta alcanzar la precisión deseada
CASO DE RAÍCES COMPLEJAS. MÉTODO DE BAIRSTOW.
En este caso es posible determinar las raíces de dos en dos, el método de Bairstow
se basa por lo general en esta aproximación. El proceso matemático depende de
dividir el polinomio entre un factor.
Si un polinomio tiene todos sus coeficientes reales, entonces puede tener raíces
reales o complejas, este caso, es posible determinar todas sus raíces de dos en dos,
utilizando sólo aritmética real.
Realizamos la división de polinomios con coeficientes reales.
4. DESARROLLO
MÉTODO DE BIPARTICIÓN.
El método de bipartición o más conocido como método de intervalo medio se basa
en el teorema del valor inter el cual establece que toda función f en un intervalo
cerrado tomas todos los valores que se hallan en f(a) y f(b) estos valores es la
imagen de por lo menos un valor en el intervalo medio
MÉTODO DE REGULA-FALSI Y DE LA SECANTE.
6
Este método se basa en la fórmula de Newton-Raphson, pero evita el cálculo de la
derivada.
El gran parecido con la fórmula del método de la regla falsa. La diferencia entre una
y otra es que mientras el método de la regla falsa trabaja sobre intervalos cerrados,
el método de la secante es un proceso iterativo y por lo mismo, encuentra la
aproximación casi con la misma rapidez que el método de Newton-Raphson. Claro,
corre el mismo riesgo de éste último de no converger a la raíz, mientras que el
método de la regla falsa va a la segura.
MÉTODOS DE APROXIMACIONES SUCESIVAS.
En el método de aproximación sucesiva, en cada ecuación se debe reescribir la
ecuación con una ecuación con equivalencia para asi poder encontrar la solución se
debe partir de un valor inicial que será x0 y se procede a calcular la aproximación
de un valor entero o decimal y es proceso se lo debe repetir el proceso las veces
necesarias para obtener el resultado del problema planteado
METODO DE ALINEACION DE NEWTON RAPHSON.
Este método es uno de los usados y efectivos, no trabaja sobre un intervalo se basa
en una formula en un proceso iterativo El método de alineación es un método que
7
nos permite aproximar la solución de un problema o una ecuación más compleja que
al igual que el método de aproximación sucesivas comenzamos desde un valor x0 y
seguimos los siguientes pasos expresando una formula o identificamos la función
que se está empleando.
El método consiste en lo siguiente:
Debe existir seguridad sobre la continuidad de la función f(x) en el intervalo
[a,b]
A continuación se verifica que
Se calcula el punto medio m del intervalo [a,b] y se evalúa f(m) si ese valor es
igual a cero, ya hemos encontrado la raíz buscada
En caso de que no lo sea, verificamos si f(m) tiene signo opuesto con f(a) o
con f(b)
Se redefine el intervalo [a, b] como [a, m] o [m, b] según se haya determinado
en cuál de estos intervalos ocurre un cambio de signo
Con este nuevo intervalo se continúa sucesivamente encerrando la solución
en un intervalo cada vez más pequeño, hasta alcanzar la precisión deseada
CASO DE RAÍCES COMPLEJAS. MÉTODO DE BAIRSTOW.
En este caso es posible determinar las raíces de dos en dos, el método de Bairstow
se basa por lo general en esta aproximación. El proceso matemático depende de
dividir el polinomio entre un factor.
Si un polinomio tiene todos sus coeficientes reales, entonces puede tener raíces
reales o complejas, este caso, es posible determinar todas sus raíces de dos en dos,
utilizando sólo aritmética real.
Realizamos la división de polinomios con coeficientes reales.
8
5. CONCLUSIONES
• Un modelo matemático puede definirse como una formulación o una ecuación
que expresa las características, esenciales de un sistema físico o proceso en
términos matemáticos.
• El método de Newton-Raphson es un método abierto, en el sentido de que no
está garantizada su convergencia global. La única manera de alcanzar la
convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz
buscada. Así, se ha de comenzar la iteración con un valor razonablemente
cercano al cero (denominado punto de arranque o valor supuesto).
6. BIBLIOGRAFÌA
6.1.DIGITAL
http://www.academia.edu/3524278/
Metodo_de_Newton_Raphson._Raices_de_ecuaciones_lineales
http://ocw.upm.es/matematica-aplicada/programacion-y-metodos-numericos/
contenidos/TEMA_8/Apuntes/EcsNoLin.pdf
9
Top Related