7823331-RaicesFunciones.pdf

103
_____________________________________________________________________________________ [email protected] Página 3 - 1 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0. Capítulo 3 SOLUCIÓN DE ECUACIONES NO-LINEALES, f(x) = 0 FIGURA 3.1 Resultados de algoritmos de Mètodos Numèricos. Fuente: «O- MATRIX TM ». Copyright© 1994-2006 Harmonic Software Inc. http://www.omatrix.com/ La Teoría de ecuaciones es una rama de las matemáticas que estudia la naturaleza y la obtención de las raíces de ecuaciones polinómicas, y de otros tipos, y de los métodos de búsqueda de dichas raíces 1 . Dichos métodos de búsqueda de las raíces de una ecuación, generalmente, se denominan Métodos Numéricos 2 . El análisis de la existencia, naturaleza y errores inherentes en la obtención de las raíces de una ecuación se llama Análisis Numérico. Ambas disciplinas se han visto potenciadas con la aplicación de la Teoría de Algoritmos y de los desarrolos en hardware y software, a partir de mediados del siglo 20. La teoría de ecuaciones tiene aplicaciones en todas las ramas de las matemáticas, de las ciencias y de la Ingeniería 3 . Históricamente, se han desarrollado muy diversas categorías de ecuaciones. Un listado de tales categoría incluye: Las ecuaciones polinómicas. Una ecuación polinómica puede representarse mediante la siguiente forma general: f(x) = a 0 + a 1 x 1 + a 2 x 2 + ... a n x n = 0 (3.1) en donde a 0 , a 1 , ..., a n se llaman los coeficientes, los cuales son números cualesquiera, ya sea dentro del campo de los enteros (E), los reales (R) o los complejos (C). El grado de una ecuación polinómica es igual al número entero positivo n, para el cual se cumple que a n 0 . En otros términos, el grado de una ecuación polinómica corresponde al exponente de mayor valor en la ecuación. Una raíz, o un cero, de una ecuación, es un valor de la x tal que al sustituir dicho valor en la ecuación se obtiene f(x) = 0 (es decir, 0 = 0). El proceso de resolver una ecuación f(x) = 0, consiste en encontrar todas las raíces de la función f(x), es decir sus ceros. Una ecuación lineal es una ecuación de primer grado que sólo tiene una raíz. La única raíz de la ecuación lineal ax + b = 0 es x = -b/a. La ecuación cuadrática, o de segundo grado, ax 2 + bx + c = 0, tiene dos raíces, dadas por la fórmula siguiente: Las ecuaciones radicales son aquellas en las que la incógnita, x, está bajo un signo radical, como en el siguiente caso: Las ecuaciones racionales son ecuaciones en las que aparecen cocientes de polinomios. Por ejemplo: 0 1 Dayton, Barry H.: «Theory of Equations». Northeastern Illinois University Chicago, IL 60625, USA. October, 2004. www.neiu.edu/˜bhdayton/theq/. 2 Cambridge University Press: «NUMERICAL RECIPES IN C: THE ART OF SCIENTIFIC COMPUTING» (ISBN 0-521-43108-5). Copyright (C) 1988-1992 by . Programs Copyright (C) 1988-1992 by Numerical Recipes Software. Permission is granted for internet users to make one paper copy for their own personal use. Further reproduction, or any copying of machinereadable files (including this one) to any server computer, is strictly prohibited. To order Numerical Recipes books or CDROMs, visit website http://www.nr.com. 3 Devlin, Keith: «Why are equations important?», Center for the Study of Language and Information at Stanford University. Copyright ©2005 The Mathematical Association of America (http://www.maa.org). // Gilbert, John: «Lectures notes on Numerical Methods, Roots of equations», Lancaster university, 1998. // Rusin, Dave: «The Mathematical Atlas, Diofantine equations», 2000, http://www.math-atlas.org/welcome.html. a ac b b x 2 4 2 ± = (3.2) (3.3) 7 3 4 2 = + x x

Transcript of 7823331-RaicesFunciones.pdf

Page 1: 7823331-RaicesFunciones.pdf

_____________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 1Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Capítulo 3SOLUCIÓN DE ECUACIONES NO-LINEALES, f(x) = 0

FFIIGGUURRAA 33..11 Resultados de algoritmos deMètodos Numèricos. Fuente: «O-MATRIXTM». Copyright© 1994-2006Harmonic Software Inc.http://www.omatrix.com/

La Teoría de ecuaciones es una rama de las matemáticas que estudia la naturaleza y la obtención de las raíces deecuaciones polinómicas, y de otros tipos, y de los métodos de búsqueda de dichas raíces1. Dichos métodos de búsquedade las raíces de una ecuación, generalmente, se denominan Métodos Numéricos2. El análisis de la existencia, naturaleza yerrores inherentes en la obtención de las raíces de una ecuación se llama Análisis Numérico. Ambas disciplinas se hanvisto potenciadas con la aplicación de la Teoría de Algoritmos y de los desarrolos en hardware y software, a partir demediados del siglo 20. La teoría de ecuaciones tiene aplicaciones en todas las ramas de las matemáticas, de las ciencias yde la Ingeniería3. Históricamente, se han desarrollado muy diversas categorías de ecuaciones. Un listado de talescategoría incluye:

• Las ecuaciones polinómicas. Una ecuación polinómica puede representarse mediante la siguiente forma general:

f(x) = a0 + a1x1+ a2x2+ ... anxn = 0 (3.1)

en donde a0, a1, ..., an se llaman los coeficientes, los cuales son números cualesquiera, ya sea dentro del campo de losenteros (E), los reales (R) o los complejos (C). El grado de una ecuación polinómica es igual al número entero positivo n,para el cual se cumple que an ≠ 0 . En otros términos, el grado de una ecuación polinómica corresponde al exponente demayor valor en la ecuación. Una raíz, o un cero, de una ecuación, es un valor de la x tal que al sustituir dicho valor en laecuación se obtiene f(x) = 0 (es decir, 0 = 0). El proceso de resolver una ecuación f(x) = 0, consiste en encontrar todas lasraíces de la función f(x), es decir sus ceros. Una ecuación lineal es una ecuación de primer grado que sólo tiene una raíz.La única raíz de la ecuación lineal ax + b = 0 es x = -b/a. La ecuación cuadrática, o de segundo grado, ax2 + bx + c = 0,tiene dos raíces, dadas por la fórmula siguiente:

Las ecuaciones radicales son aquellas en las que la incógnita, x, está bajo un signo radical, como en el siguiente caso:

Las ecuaciones racionales son ecuaciones en las que aparecen cocientes de polinomios. Por ejemplo:

0 1 Dayton, Barry H.: «Theory of Equations». Northeastern Illinois University Chicago, IL 60625, USA. October, 2004. www.neiu.edu/˜bhdayton/theq/.2 Cambridge University Press: «NUMERICAL RECIPES IN C: THE ART OF SCIENTIFIC COMPUTING» (ISBN 0-521-43108-5). Copyright (C) 1988-1992

by . Programs Copyright (C) 1988-1992 by Numerical Recipes Software. Permission is granted for internet users to make one paper copy for their ownpersonal use. Further reproduction, or any copying of machinereadable files (including this one) to any server computer, is strictly prohibited. To orderNumerical Recipes books or CDROMs, visit website http://www.nr.com.

3 Devlin, Keith: «Why are equations important?», Center for the Study of Language and Information at Stanford University. Copyright ©2005 TheMathematical Association of America (http://www.maa.org). // Gilbert, John: «Lectures notes on Numerical Methods, Roots of equations», Lancasteruniversity, 1998. // Rusin, Dave: «The Mathematical Atlas, Diofantine equations», 2000, http://www.math-atlas.org/welcome.html.

aacbbx

242 −±−

= (3.2)

(3.3)7342 =+− xx

Page 2: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 2Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Se denominan ecuaciones exponenciales a aquellas ecuaciones en las cuales la incógnita, x, aparece en un exponente,como en el siguiente ejemplo:

Las ecuaciones trigonométricas contienen funciones trigonoméricas específicas. Por ejemplo:

Ecuaciones como la 3.1 a 3.6 serán el objetivo del presente capìtulo, en lo referente a su formulaciòn y los variadosmétodos de solución.

• Ecuaciones Diofantinas. Una ecuación Diofantina es aquella en la cual sólo se permiten soluciones en númerosenteros. Este tipo de ecuaciones se conoce, en matemáticas, desde muy antiguo, pero fue trás la obra delmatemético griego Diofanto de Alejandría (siglo III d.c.: 210 - 290) que comenzaron a llamarse EcuacionesDiofantinas. La obra de Diofanto fue preservada por los árabes y traducida al latin en el siglo XVI. Desde entonces,muchos matemáticos han realizado diveros tipos de solución de las ecuaciones Diofantinas4.

Dentro de tal grupo de matemáticos puede citarse a: Bhaskara, Fermat, Lagrange, Euler, Hilbert, Gauss, Thue, Baker,Peano, Pell, cuyos aportes han jalonado no sólo el campo de las ecuaciones Diofantinas sino también el de otras áreas delas matemáticas.

Diofanto inició el estudio sistemático de las ecuaciones con coeficientes y soluciones enteras. Fue pionero en resolverciertas ecuaciones algebraicas indeterminadas, es decir, ecuaciones en las cuales las variables toman valores en el campode los enteros (positivos o negativos) y tienen un infinito pero enumerable conjunto de soluciones, como por ejemplo laecuación x+2y=3. Diofanto publicó sus resultados en el libro Aritmetica. De su obra Sobre números poligonales sólo seconocen algunos fragmentos; el libro Porismata se perdió.

Para las ecuaciones Diofantinas lineales de la forma Ax + By = C el algoritmo de Euclides suministra una respuesta si lasolución existe (enteros x, y). Si D es el máximo común divisor (MCD) de A,B, y D es divisor de C, entonces existe unasolución. Tómese, por ejemplo, la ecuación 6x+15y = 12. El MCD de 6 y 15 es 3, y 12 es divisible exactamente por 3. Unasolución existe: x = -3, y =2 ( la cual da -18 + 30 = 12).

Diofanto conoció y empleó los numeros negativos y a él se atribuye la norma empírica de menos por menos da más, ymenos por más da menos, aplicada en Aritmética y en Álgebra modernas. Sin embargo la notación algebráica de Diofantofue sustituida más tarde, en el siglo XVII, por la que propuso el matemático francés Francois Viete (1540 - 1603), que es laque se sigue actualmente. Sobre las ecuaciones Diofantinas de orden 2 y superiores se han realizado prolijos estudios,algunos de los cuales son5:

• Solución de la ecuación cuadrática diofantina Ax2 + Bxy + Cy2 + Dx + Ey + F = 0, para la cual Lagrange en 1769encontró un algoritmo completo.

• Ecuación de Pell. Es un caso especial de la ecuación cuadrática diofantina de la forma x2 - Dy2 = N, donde D esun entero positivo que no es un cuadrado, N es un entero diferente de cero. Para el caso general de la ecuaciónde Pell (cualquier ) hay por lo menos cinco buenos métodos de solución:: (1) - Búsqueda de «Fuerza bruta», que

0 4 Weisstein , Eric W.: «Diophantine Equation--2nd Powers», From MathWorld--A Wolfram Web Resource.

http://mathworld.wolfram.com/DiophantineEquation2ndPowers.html . // Lahanas, Michael: «Diophantus of Alexandria», 2005, http://mlahanas.de/.5 Robertson, John P: 4«Solving the equation ax2 + bxy + cy2 + dx + ey + f = 0». May 8, 2003. Véase:http://www.maths.nott.ac.uk/personal/jec/papers/index.html. Ver también: http://www.math.niu.edu/˜rusin/papers/research-math/legendre/. // Thien Do:«Developing A General 2nd Degree Diophantine Equation x2 + p = 2n». Westmoore High School Science Department Oklahoma City, Oklahoma (USA).http://www.biochem.okstate.edu/OAS/OJAS/thiendo.htm.

(3.4)

(3.5)

(3.6)

Page 3: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 3Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

es la base de los otros métodos; (2) - El algoritmo de Lagrange-Matthews-Mollin (LMM); (3) - Sistema dereducciones de Lagrange; (4) - El método cíclico; (5) - El uso de de formas cuadráticas binarias.

• Dificultades en la elaboración de un algoritmo para resolver ecuaciones Diofantinas .• Un ejercicio consistente en analizar una ecuación Diofantina desde diversas perspectivas: x2 + 7 = 8 pn, con p

primo.• ¿Qué es el Método del descenso Infinito? (propuesto por Lagrange).• El problema multigrados Tarry-Escott : dado un entero positivo n, hallar dos conjuntos de enteros a1, ..., ar y b1,

..., br, con r tan pequeño como sea posible, tal que suma (aj)k = suma (bj)k, para k = 1, 2, ..., n. Conjetura: r = n+1para todo n.

• El problema multigrados (hallar conjuntos de enteros cuyas sumas sean iguales; sumas de cuadrados, sumas decubos,...).

• Nueva solución del problema Prouhet-Tarry-Escott para k=11; otras restricciones.• Sugerido por el ordenamiento de números en un torneo de baloncesto: resolver ab = c + d, cd = a + b en

enteros.• El rompecabeza Times : Hallar soluciones racionales para x3+y3 = 6. (una curva elíptica)• Cuestiones relativas a una conjetura de Erdös: que 4/n = 1/x + 1/y + 1/z tiene solución para todo número natural

n.• Soluciones para a6 + 5(a4)b + 6(a2)(b2) + b3 = 1 en enteros.• Generar todas (pequeñas) ternas Pitagóricas• Triángulos enteros con un ángulo de 120 grados• Teorema de Runges: límite en el número de soluciones para ciertas ecuaciones Diofantinas en dos variables• Un par de ecuaciones se convierten en una sola ecuación en enteros Gaussianos• Ecuación de Fermat .• Resolver xn + d yn = c: Ecuación de Thue6.• Ecuaciones Diofantinas Exponenciales (e.g. 3x + 5y = yz+1 ).• Completa parametrización de la superficie cúbica de Fermat: w3 + x3 + y3 + z3 = 0. Este es un famoso problema

Diofantino.

• Ecuaciones funcionales. Son aquellas en las cuales una función debe satisfacer ciertas relaciones entre sus valoresen todos los puntos. Por ejemplo, se puede estar interesado en encontrar las funciones que satisfacenf(x*y)=f(x)+f(y) e indagar cuándo la función logaritmo f(x)=log(x) es la única solución (en realidad, no lo es). Enalgunos casos, la naturaleza de la respuesta es diferente cuando se exige que la ecuación funcional debe cumplirsepara todos los valores reales del x, o para todos los valores complejos de x, o sólo para los valores de x en ciertosdominios. Un caso especial es el de las ecuaciones diferenciales, es decir ecuaciones que comparan f(x) - f(x-1), porejemplo, con algunas expresiones que involucran x y f(x). En alguna medida dichas ecuaciones son analogíasdiscretas de ecuaciones diferenciales, por lo cual el análisis es similar para determinar la existencia y unicidad de lassoluciones, el comporatmiento global, y la eficiencia de los algoritmos y la estabilidad computacional.

• Ecuaciones Diferenciales. Una ecuación diferencial es una ecuación que involucra una función desconocida y una omás de sus derivadas. Las ecuaciones diferenciales son ampliamente empleadas para modelar situaciones ofenómenos físicos, y también en modelos utilizados en matemáticas7. La ecuación se denomina ecuación diferencialordinaria (EDO) si la función desconocida está relacionada con una única variable independiente. Algunos ejemploscomunes de EDO son los siguientes8:

0 6 Heuberger, Clemens: «Parametrized Thue Equations, A Survey». Institut fr Mathematik B. Technische Universitt Graz. Austria. January 29, 2005.7 Mykola SHKIL: «On Asymptotic Methods in the Theory of Dierential Equations of Mathematical Physics». Nonlinear Mathematical Physics 1996, V.3, N

1-2, 40-50. Drahomanov Pedagogical University, Ukrania.8 Drakos, Nikos: «Ordinary Differential Equations», 1995, University of Leeds, Computational Science Education Project

,http://csep1.phy.ornl.gov/ode/node1.html

(3.7) ecuación del crecimiento

(3.8) ecuación del péndulo

(3.9) ecuación de van der Pol

Page 4: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 4Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Historicamente, las ecuaciones diferenciales se han originado en áreas tan diversas como la Química, la Física, y laIngeniería9. Más recientemente también han surgido en los modelos que se emplean en Medicina, Biología, Antropología,Aeronáutica, y otras disciplinas. Tres etapas inherentes al uso de las ecuaciones diferenciales son: (1) - el modelar unasituación específica o un problema particular por medio de una ecuación diferencial; (2) - la determinación de los valoresiniciales; (3) - los métodos de solución numérica. Ecuaciones del tipo 3.7 a 3.12 se estudiarán en el capítulo 11.

3.1 Historia, Función, Conceptos y Métodos para hallar raìces de f(x) = 0

Hasta el siglo XVII, la teoría de ecuaciones estuvo limitada pues los matemáticos no fueron capaces deaceptar que los números negativos y complejos podían ser raíces de ecuaciones polinómicas. Sólo losantiguos matemáticos indios, como Brahmagupta, conocían las raíces negativas, pero fuera de China e Indiano se trabajaba con coeficientes negativos en los polinomios.

En vez de un solo tipo de ecuación de segundo grado, el mencionado más arriba, había seis tipos distintos, según cuálesfueran los coeficientes negativos. Un método de resolución de ecuaciones que puede encontrarse en antiguos librosegipcios y chinos, es el de la falsa posición.

Por ejemplo, para resolver la ecuación x + x/7 = 19, primero se toma una aproximación de la x que simplifique el cálculodel primer término, como x = 7. Al sustituir la x por 7 en esta ecuación, el resultado es 8 en vez de 19. Por tanto, senecesita un factor corrector que se obtiene dividiendo 19 por 8. Este factor, 2-, se multiplica por el primer valor, 7, con loque se encuentra que la raíz de la ecuación original es 16.

Los egipcios utilizaban el método de la falsa posición para encontrar una raíz en ecuaciones de segundo grado sencillas.Para ecuaciones cuadráticas con un término en x, como x2- 5x = 6, las primeras soluciones no se encuentran hasta en loslibros de matemáticas babilonios del 2000 a.C.

Aunque los babilonios no conocían las raíces negativas ni las complejas, su método de búsqueda de las raíces positivasreales es el mismo que se utiliza en la actualidad.

Otro importante descubrimiento del mundo antiguo, que se puede encontrar en los escritos del matemático y científicogriego Herón de Alejandría en el siglo I, es un método de aproximación de la raíz positiva de ecuaciones como x2 = 2. Eneste método, primero se toma una aproximación como 3/2 para calcular una nueva aproximación utilizando la regla [3/2 +2/(3/2)]/2, o 17/12. Si se repite este procedimiento se obtiene 577/408, que es una buena aproximación de la raíz de 2.Estas aproximaciones y cálculos repetidos se denominan iteraciones. Un método iterativo muy útil, que se encuentra enlos trabajos de los matemáticos chinos Liu Hui (en el siglo III) y Chu Shih-Chieh (en el siglo XIII), fue redescubierto enEuropa hacia 1800 por el matemático inglés W. G. Horner. También había sido usado por el matemático árabe Yamschidal-Kaschi. Entre otros matemáticos árabes que hicieron importantes contribuciones a la teoría de ecuaciones se incluyen

0 9 S. Vandewalle & J. Van lent: «Fast and Robust Solvers for Partial Differential Equations. Numerical Methods for Delay Partial Differential Equations.

Solution of a time-dependent partial differential equation», 2001, Katholieke Universiteit Leuven, http://www.cs.kuleuven.ac.be. // Osborne, Martin J.:«Math Tutorial on Differentials Equations», University of Toronto, Canada, 1997-2003 , http://www.chass.utoronto.ca/~osborne/MathTutorial/DEE.HTM.// «S.O.S. Math - Differential Equations», 1999-2005, MathMedics, LLC, El Paso, Texas, USA, http://www.sosmath.com/diffeq/diffeq.html. // G.Longoni and A. Haghighat: «APPLICATION OF KRYLOV SUBSPACE METHODS FOR THE SOLUTION OF THE SPL EQUATIONS». 18’thInternational Conference on Transport Theory (18 ICTT) Rio de Janeiro, RJ, Brazil, July 20 - 25, 2003. University of Florida 202 Nuclear ScienceBuilding Gainesville, FL 32611 USA.

(3.10) ecuación de un oscilador LCR

(3.11) ecuación de Riccati

(3.12) ecuación de d’Alembert paraun resorte vibrante

Page 5: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 5Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Al-Jwarizmi y Omar Jayyam, que desarrollaron la primera teoría de las ecuaciones cúbicas. Sin embargo, esta teoríaestaba definida en términos geométricos y era, por tanto, incompleta.

En 1545 el matemático italiano Gerolamo Cardano publicó una solución algebraica para las ecuaciones de tercer grado enfunción de sus coeficientes y Niccolò Tartaglia la desarrolló. Poco después, Ludovico Ferrari, alumno de Cardano,encontró una solución algebraica para las ecuaciones de cuarto grado.

En 1629 el matemático francés Albert Girard aceptó raíces de ecuaciones tanto negativas como complejas y fue, portanto, capaz de finalizar el aún incompleto estudio que François Viète había realizado sobre la relación entre las raíces deuna ecuación algebraica y sus coeficientes. Viète había descubierto que si a y b son las raíces de x2 - px + q = 0, entoncesp = (a + b) y q = a·b. Generalizando, Viète demostró que si el coeficiente del término de mayor grado de la ecuación p(x) =0 es la unidad, entonces el coeficiente del segundo término de mayor grado cambiado de signo es igual a la suma detodas las raíces; el coeficiente del tercer término es igual a la suma de todos los productos formados al multiplicar lasraíces de dos en dos; el coeficiente del cuarto término cambiado de signo es igual a la suma de todos los productos queresultan de multiplicar las raíces de tres en tres. Si el grado de la ecuación es par, el coeficiente del último término es igualal producto de todas las raíces; si es impar, es el producto de todas las raíces cambiado de signo. Viète también aportóimportantes métodos numéricos para encontrar aproximaciones a las raíces de una ecuación.

En 1635 el matemático y filósofo francés René Descartes publicó un libro sobre la teoría de ecuaciones, incluyendo suregla de los signos para saber el número de raíces positivas y negativas de una ecuación. Unas cuantas décadas mástarde, el físico y matemático inglés Isaac Newton descubrió un método iterativo para encontrar las raíces de ecuaciones.Hoy se denomina método Newton-Raphson, y el método iterativo de Herón mencionado más arriba es un caso particularde éste.

A finales del siglo XVIII, el matemático alemán Carl Friedrich Gauss demostró que cualquier ecuación polinómica tiene almenos una raíz. Sin embargo, quedaba aún por saber si era posible expresar esta raíz con una fórmula algebraicautilizando los coeficientes de la ecuación, como se había encontrado para las de segundo, tercer y cuarto grado.

El astrónomo y matemático francés Joseph Lagrange dio un paso importante para resolver esta cuestión con su método depermutación de las raíces de una ecuación para el estudio de sus soluciones. Este fructífero concepto, junto con lostrabajos del matemático italiano Paolo Ruffini, del noruego Niels Abel y del francés Évariste Galois, condujo a una teoríacompleta de los polinomios. Entre otras cosas, esta teoría demuestra que un polinomio sólo se puede resolver utilizandouna fórmula algebraica general si es de cuarto grado o menor. El trabajo de Galois también sirvió para resolver dosfamosos problemas que se remontaban a los antiguos griegos: Galois demostró que es imposible dividir algunos ángulosen tres partes iguales utilizando sólo el compás y la regla recta, y que es imposible construir un cubo cuyo volumen seados veces el de un cubo dado.

FFUUNNCCIIÓÓNNFunción10, en matemáticas, término usado para indicar la relación o correspondencia entre dos o más cantidades11. Eltérmino función fue usado por primera vez en 1637 por el matemático francés René Descartes para designar una potenciaxn de la variable x.

En 1694 el matemático alemán Gottfried Wilhelm Leibniz11 utilizó el término para referirse a varios aspectos de una curva,como su pendiente. Hasta recientemente, su uso más generalizado ha sido el definido en 1829 por el matemático alemánPeter Dirichlet. Dirichlet entendió la función como una variable y, llamada variable dependiente, cuyos valores son fijados odeterminados de una forma definida según los valores que se asignen a la variable independiente x, o a varias variablesindependientes x1, x2, ..., xk. Los valores, tanto de la variable dependiente, como de las variables independientes, sonnúmeros reales o complejos.

La expresión y = f(x), leída “y es función de x” indica la interdependencia entre las variables x e y; f(x) se dabanormalmente en forma explícita, como f(x) = x2 - 3x + 5, o mediante una regla expresada en palabras, como f(x) es elprimer entero mayor que x para todos aquellos x que sean reales (ver número). Si a es un número, entonces f(a) es elvalor de la función para el valor x = a. Así, en el primer ejemplo, f(3) = 32 - 3 · 3 + 5 = 5, f(-4) = (-4)2 - 3(-4) + 5 = 33; en el0 10 Kleiner, Israel: «Evolution of the Function Concept: A Brief Survey», The College Mathematics Journal, September 1989, Volume 20, Number 4, pp.

282–300.11 Grant, Hardy: «Leibniz and the Spell of the Continuous», The College Mathematics Journal, September 1994, Volume 25, Number 4, pp. 291-294.

Page 6: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 6Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

segundo ejemplo, f(3) = f(3,1) = f(p) = 4. La aparición de la teoría de conjuntos primero extendió, y luego alterósustancialmente, el concepto de función.

El concepto de función en las matemáticas de nuestros días queda ilustrado a continuación. Sean X e Y dos conjuntos conelementos cualesquiera; la variable x representa un elemento del conjunto X, y la variable y representa un elemento delconjunto Y. Los elementos de ambos conjuntos pueden ser o no números, y los elementos de X no tienen que sernecesariamente del mismo tipo que los de Y.

Por ejemplo, X puede ser el conjunto de los doce signos del zodíaco e Y el conjunto de los enteros positivos. Sea P elconjunto de todos los posibles pares ordenados (x, y) y sea F un subconjunto de P con la propiedad de que si (x1, y1) y(x2, y2) son dos elementos de F, entonces si y1 ? y2 implica que x1 ? x2 esto es, F contiene no más de un par ordenadocon una x dada como primer elemento. (Si x1 ? x2, sin embargo, puede ocurrir que y1 = y2 ). Una función queda ahoradefinida como el conjunto F de pares ordenados, con la condición seńalada, y se escribe F: X ? Y. El conjunto X1 de las xque aparecen como primer elemento de los pares ordenados de F se denomina dominio de la función F; el conjunto Y1 delas y que aparecen como segundo elemento de los pares ordenados se denomina rango de la función F. De esta manera,{(Piscis, 7), (Sagitario, 4), (Capricornio, 4)} es una función en la que X = conjunto de los doce signos del zodíaco e Y =conjunto de los enteros positivos; el dominio son los tres signos mencionados y el rango son 4 y 7.

El concepto moderno de función está relacionado con la idea de Dirichlet. Dirichlet consideró que y = x2 - 3x + 5 era unafunción; hoy en día, se considera que y = x2 - 3x + 5 es la relación que determina la y correspondiente a una x dada paraun par ordenado de la función ; así, la relación anterior determina que (3, 5), (-4, 33) son dos de los infinitos elementos dela función. Aunque y = f(x) se usa hoy todavía, es más correcto si se lee “y está funcionalmente relacionado con x”. Lasfunciones se denominan también transformaciones o aplicaciones en muchas ramas de las matemáticas. Si el conjunto Y1es un subconjunto propio de Y (esto es, al menos una y pertenece a Y pero no a Y1), entonces F es una función,transformación o aplicación del dominio X1 en Y; si Y1 = Y, F es una función, transformación o aplicación de X1 sobre Y.

CCOONNCCEEPPTTOOSS BBÁÁSSIICCOOSS SSOOBBRREE LLAASS RRAAÍÍCCEESS DDEE FFUUNNCCIIOONNEESS

Al resolver problemas en ciencias e ingenierías, cuyo caso típico es hallar las raíces de una función, generalmente sesigue una metodología cuyas etapas básicas se pueden sentitizar en cuatro, como se ilustra en la figura 3.1.1.

Cuando el problema es sencillo, o de baja complejidad, es suficiente que una persona con su experiencia y conocimientosanalice y describa el problema y lo resuelva, utilizando herramientas sencillas (una calculadora podría bastar). Perocuando la complejidad del problema aumenta se hace necesario la intervención de muchas otras personas, implicándoseun trabajo interdisciplinario y el empleo de enfoques y herramientas más sofisticadas (computadores, redes, softwareespecializado). En cualquier caso, es muy conveniente tener presente la metodología básica de resolución de problemasen ciencias e ingenierías, Las cuatro etapas involucradas son las siguientes (véase la figura 3.1.1):

• Identificación y descripción o formulación del problema, que incluye las simplificaciones e hipótesis que la situaciónamerita. El juicio experto, la experiencia y la experimentación ayudan en gran medida. También el conocimiento de lasolución de problemas similares.

• Desarrollar un Modelo Matemático del problema de tal manera que pueda ser resuelto de una manera numérica.Normalmente, implica el uso del Álgebra, del Cálculo y de otras herramientas matemáticas que permitan modelar esaparte de la realidad bajo estudio.

• Solucionar el Modelo Matemático planteado. Esto implica emplear métodos ecuacionales y algorítmicos para obtenerla solución del modelo matemático. Las herramientas actuales implican el uso de computadores, redes decomputadores y software especializado.

• Interpretación y análisis de los resultados obtenidos. Lo cual requiere experiencia, juicio experto enfocados en lasituación que generó el problema. Se presenta aquí un proceso de realimentación que puede llevar a repetir lasactividades metodológicas desde el paso 1.

Page 7: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 7Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

La obtención de las raíces de una función, f(x)=0 (3.13), es uno de los problemas más antiguo de las matemáticas y se leencuentra con frecuencia tanto en la computación moderna como en las aplicaciones prácticas de ingeniería12.

AALLGGUUNNOOSS EEJJEEMMPPLLOOSS TTÍÍPPIICCOOSS

Antes de estudiar los métodos de solución de ecuaciones de la forma (3.13) es conveniente dar un vistazo a algunoscasos prácticos donde se presenta la solución de tal tipo de ecuaciones, lo que implica hallar una o varias raíces de lafunción f(x).

EESSFFEERRAA SSUUMMEERRGGIIDDAA EENN UUNN LLÍÍQQUUIIDDOO

Considérese el problema físico que implica una esfera de radio r sumergida hasta una altura d en agua (vése la figura3.1..2). Supóngase que la esfera está construída en madera, de una variedad de pino, cuya densidad es rho = 0.638 y queel valor numérico del radio es r = 10 cms. ¿Hasta qué altura d alcanza el líquido cuando la esfera se sumerge en agua?13

0 12 Chapra, Steven C. & Canale, Raymond P.: «Numerical Methods for Engineers, With Software and Programming applications", fourth edition, McGraw-

Hill, 2002.13 Mathews, John H.: «Numerical Mthods for Mathematics, Science and Engineering», second edition, Prentice Hall, Englewood Cliffs, New Jersey

(USA),1992. ISBN 0-13-624990-6. Cap. 2, pp. 43-112.

FFIIGGUURRAA 33..11..11 Metodología básica para la solución de problemas en ciencias e ingenierías.

FFIIGGUURRAA 33..11..22 La porción de esfera de radio r que es sumergida hastauna altura d.

Page 8: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 8Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

La masa Ma de agua desplazada cuando la esfera se sumerge en agua y ésta alcanza la altura d está dada por lasiguiente ecuación12:

Y la masa de la esfera, Me, es:

Aplicando la Ley de Arquimedes14, segun la cual Ma = Me («volumen del líquido desplazado es igual al volumen delcuerpo sumergido»), se genera la ecuación 3.16 que debe ser resuelta:

Reemplazando los valores r = 10, rho = 0.638, se obtiene la ecuación 3.17 cuya gráfica se esquematiza en la figura 3.1.3 .

De esta gráfica se puede apreciar que una raíz de la función f(d)= 2552 - 30d2 + d3 está entre el valor d = 10 yel valor d = 15.

Existen varios métodos que permiten obtener las raíces de laecuación 3.17. Por ejemplo, por el método de bisección (véasela 3.2) es fácil hallar las tres raíces de la ecuación 3.17: d1 = -8.17607212, d2 = 11.86150151, y d3 = 26.31457061.

La primera raíz, d1, no es una solución factible para el problema planteado, pues la distancia ha de ser postiva; la terceraraíz, d3, es mayor que el diámetro de la esfera (2r = 20); la segunda raíz, d2, está dentro del rango válido [0.0, 20.0] y esuna solución correcta para el problema. Además, es una magnitud razonable porque algo más que la mitad de la esferadebe estar sumergida.

UUNNAA EESSCCAALLEERRAA EENN UUNNAA MMIINNAA

Considérese que en una mina15 hay dos túneles quese intersectan en un ángulo de 123o, como se muestra en la figura3.1.4.

El túnel horizontal tiene un ancho de 7 pies, mientras que el tunel descendente tiene una anchura de 9 pies. ¿Cuál es elmáximo largo de la escalera que puede pasarse por la intersección?. Se asume que el grosor de la escalera esdespreciable con respecto a las dimensiones de los túneles.

La solución obtenida debe considerar el caso general en el cual el ángulo A es variable. Sea C el ángulo entre la escaleray el muro cuando está en la posición crítica. Para hacer una exposición general de este problema, sean las variables C, A,B, W1, W2.

0 14 Euclides de Alejandría, en «Gacetilla Matemática» (http://www.arrakis.es/~mcj/euclides.htm). La página de David E. Joyce, «Mathematics and

Computer Science», Clark University, presenta en Inglés «Los Elementos» de Euclides (http://aleph0.clarku.edu/~djoyce/home.html). También en«Gacetilla Matemática» se ilustra los aportes de Herón de Alejandría (http://www.arrakis.es/~mcj/heron.htm) y Arquimedes.

15 Gerald, Curtis F. & Whetley, Patrick O.: «Applied Numerical Analysis», fourth edition, Addison-Wesley, 1990, ISBN 0-201-11583-2, Cap. 1, pp. 1-85.

(3.14)

(3.15)

(3.16)

(3.17)

FFIIGGUURRAA 33..11..33 Esquema de la función cúbica, ecuación 3.17,para el problema de la figura 3.1.2.

Page 9: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 9Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

FFUUNNCCIIÓÓNN EENN FFOORRMMAA IIMMPPLLÍÍCCIITTAA

Aunque pueden surgir en cualquie otra área, los problemas de hallar las raíces de una ecuación normalmente surgen enlas áreas del diseño en ingeniería16. En la tabla 3.1.1 se resumen algunos de los principios básicos utilizados comúnmenteen el diseño ingenieril.

Como ya se ha visto en secciones anteriores, las ecuaciones matemáticas que surgen, como expresión de los modelosderivados de la aplicación de los principios mostrados en la tabla 3.1.1, se emplean para obtener valores de la variabledependiente como una función de la variable independiente, de funciones forzomotrices, y de los parámetros. En cadamodelo que se estipule, la variable dependiente refleja el estado o desempeño del sistema modelado, en tanto que losparámetros representan las propiedades o composición del sistema bajo análisis.

Sin embargo, es necesario enfatizar que toda ecuación -por muy refinada que sea- sólo es una representación aproximadade un fenómeno, de un sistema, o de una situación problemática bajo estudio. Esto constituye la esencia del enfoqueecuacional (paradigma) entronizado en la ciencia de occidente por el aporte griego (véase, por ejemplo los aportes deEuclides y Herón de Alejandría13). Adicionalmente, es preciso aclarar que el enfoque ecuacional sólo suministra una visiónestática, aunque muy útil, en el análisis de un problema.

TTAABBLLAA 33..11..11 Algunos principos fundamentales utilizados en el diseño en áreas de ingeniería.Principio básico Variable dependiente Variable independiente Parámetros

Balance calorífico Temperatura Tiempo y posiciónPropiedades térmicas del material,constantes propias, geometría delsistema en consideración

Balance de masa Concentración o cantidad demasa Tiempo y posición

Resistencia del material, propiedadesestructurales, constantes propias,geometría del sistema.

Balance de fuerza Magnitud y dirección de fuerzas Tiempo y posición

Comportamiento químico del material,coeficientes de la transferencia demasa, constantes propias, geometríadel sistema.

Balance de energíaCambios en los estados de laenergía potencial y cinética delsistema

Tiempo y posiciónPropiedades térmicas del material,constantes propias, geometría delsistema.

Leyes newtonianas delmovimiento

Aceleración, velocidad,distancia (ubicación) Tiempo y posición

Masa del material, constantes propias,geometría del sistema, parámetrosdisipativos como la fricción o laresistencia.

Leyes de Kirchhof Corrientes y voltajes en Tiempo Propiedades eléctricas del sistema tales

0 16 Chapra, Steven C. & Canale, Raymond P.: «Numerical Methods for Engineers, With Software and Programming applications", fourth edition, McGraw-

Hill, 2002, pp. 105 – 111.

FFIIGGUURRAA 33..11..44 Esquema de dos tùneles que secruzan en una mina.

Page 10: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 10Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

circuitos eléctricos como resistencia, capacitancia,inductancia; constantes propias;geometría del sistema.

Un ejemplo del enfoque ecuacional es la ecuación, obtenida aplicando la segunda ley de Newton, para calcular lavelocidad de un cuerpo que cae, considerando la resistencia del aire:

donde v es la velocidad, como variable dependiente; t es el tiempo como variable independiente; la constantegravitacional es g (como función forzomotriz); y los parámetros son el coeficiente de resistencia del aire,c, y la masa, m.

Si los parámetros son conocidos se puede utilizar la ecuación 3.18 para obtener la velocidad de caída del cuerpo enfunción del tiempo, lo cual puede obtenerse en forma directa puesto que la variable v está expresada en forma explícitacomo una función del tiempo, t.

Supóngase, ahora, que lo que interesa determinar (el problema bajo análisis) es el valor del coeficiente de la resistenciadel aire, c, para un cuerpo de masa m, que cae a una cierta velocidad v, en un cierto tiempo t. No es posible, de laecuación 3.18, organizar en un sólo lado el parámetro c para que sea expresado explícitamente en función de las otrasvariables y parámetros.

Se está, entonces, frente a un problema típico del diseño en ingeniería que implica especificar las propiedades ocomportamiento de un sistema (modelado por sus parámetros) para determinar que el desempeño del sistema es de ciertamanera (representada por sus variables). Es usual decir que tales tipo de problemas requieren la determinación deparámetros implícitos. La solución de este tipo de problemas se obtiene aplicando métodos numéricos para hallar lasraíces de funciones. En el caso de la caída de un cuerpo, la ecuación 3.18 se puede reexpresar así:

en donde se dice que el parámetro c está en forma implícita. Aquí, el valor, o valores de c, que hacen a f(c) = 0,constituyen la raíz o las raíces de la función. Dichos valores, también resolverán el problema de diseño especificado.

En la tabla 3.1.2 se resumen otros ejemplos de funciones ímplicitas, que pueden reescribirse como del tipo f(x) = 0, y alas cuales podríase aplicar los métodos descritos en las otras secciones de este capítulo.

TTAABBLLAA 33..11..22 Otros ejemplos de funciones implícitas.Función implícita Descripción Área donde surge

La rotación de un cuerpo sujeto a un mecanismoamortiguador. Siendo D el desplazamiento, x elángulo de rotación que produce dichodesplazamiento17.

Diseño mecánico

Ecuación de estado de los gases. Ecuación deBeattie-Bridgeman. P es la presión; V es el volumenmolar; T es la temperatura; beta, gamma y delta sonparámetros dependientes de la temperatura ycaracterísticos del gas; R es la constante universal delos gases, en unidades compatibles18.

IngenieríaQuímica.

0 17 Beer, Ferdinand P. & Johnston Jr., E. Russel: «Vector Mechanics for Engineers: Statics & Dynamics», McGraw-Hill, 1962.18 Carnahan, Brice, et al: «Applied Numerical Methods», John Wiley and Sons, 1969, pp. 173-178.

(3.18)

(3.19)

(3.20)

(3.21)

Page 11: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 11Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Ecuación para el crecimiento de un cristal individual apartir del vapor, cuando el vapor del yodo y el heliocirculan sobre el germanio17. Es una ecuaciónpolinómica en Z, donde Z tiene relaciones con lapresión, la temperatura y el volumen.

IngenieríaQuímica.

Ecuación de van der Waals, para los gases ideales yno-ideales19. Donde v= V/n es el volumen molar, y a,b son constantes empíricas que dependen de un gasen particular.

IngenieríaQuímica /

Bioingeniería.

Ecuación de continuidad para el flujo de agua en uncanal abierto20. Donde Q es el flujo, H la altura delcanal; n, s, B son parámetros característicos delcanal.

Ingeniería Civil /IngenieríaAmbiental.

Ecuación que relaciona la variación de una cargaeléctrica con el tiempo, en un capacitor21. Donde q esla carga, t es el tiempo, L es la inductancia, R e slaresistencia eléctrica, C es la capacitancia, q0 es lacarga en el tiempo t = 0.

Ingenieríaeléctrica.

TTIIPPOOSS YY EEXXIISSTTEENNCCIIAA DDEE LLAASS RRAAÍÍCCEESS;; CCOONNVVEERRGGEENNCCIIAA

En general, las raíces de una ecuación pueden ser reales o complejas. Sin embargo, esto depende dle tipo de función ydel área de interés donde se modela el sistema. También, es posible encontrar funciones con una única raíz, ó conmúltiples raíces. Excepto en el caso lineal, el proceso de hallar las raíces de una función siempre se basa en un métodoiterativo, en el cual se empieza con un valor inicial, que es un valor aproximado de la solución, y el algoritmo mejora -encada ciclo- el valor de la solución inicial hasta que un cierto criterio de convergencia se satisfaga. De ahí, que se haganecesario un análisis previo de la función, para lograr tener una clara idea de su comportamiento, y en especial de sussingularidades. Es tradicional diferenciar dos áreas básicas de problemas en las cuales se aplican los métodos para hallarraíces de funciones:

• La determinación de las raíces reales de funciones algebraicas y trascendentales. Las técnicas aquí se basan en elconocimiento de un valor inicial aproximado de la raíz.

• Determinar todas las raíces reales y complejas de polinomios. Los métodos diseñados para esta parte hallansistemáticamente todas las raíces, en lugar de determinar una única raíz, en un cierto intervalo.

Cuando sea posible, es muy conveniente tener una representación gráfica de cómo la función se comporta en un ciertointervalo. Con la capacidad de los computadores personales actuales esto casi siempre es fácil de lograr. Por ejemplo, lafigura 3.1.5(a) ilustra el caso en el cual hay una sola raíz en el intervalo [a,b], es decir un valor de x para el cual f(x)= 0.

0 19 Chapra, Steven C. & Canale, Raymond P.: «Numerical Methods for Engineers, With Software and Programming applications", fourth edition, McGraw-

Hill, 2002, pp. 187 – 189.20 Ibìd., pp. 190-191.21 Ibìd., pp. 194 – 196.

(3.22)

(3.23)

(3.24)

(3.25)

(a)(b)

( c )

FFIIGGUURRAA 33..11..55 Gràficas esquemàticas de funciones f(x).

Page 12: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 12Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

La figura 3.1.5(b) corresponde al caso en el cual se presentan varias raíces dentro del intervalo. La figura 3.1.5(c) es parael caso de las raíces complejas, es decir no hay raíces en el campo de los reales.

En ocasiones, las funciones presentan comportamientos atípicos, singularidades, o discontinuidades dentro de unintervalo. Por ejemplo, la figura 3.1.6 ilustra algunos de estos casos

Ello implica que hallar las raíces de una función es un proceso de mucho cuidado en el cual es preciso analizarpreviamente el comportamiento general de la función. Algunas consideraciones adicionales son las siguientes:

• Siempre que la función lo permita, trazar una gráfica de ella. Las técnicas computacionales ayudan al respecto.

• Aplicar el Teorema de Bolzano23 el cual establece que si una función, f(x), en un intervalo [a,b] cumple que f(a)*f(b)< 0, es decir cambia de signo en el intervalo, entonces tiene al menos una raíz dentro de dicho intervalo.

• Al aplicar un método para hallar la raíz de f(x), en el intervalo [a,b], comprobar que el algoritmo no tome valores fueradel intervalo. Tal es el caso de los métodos de Newton y el de la secante que eventualmente pueden calcular valoresfuera del intervalo establecido24.

0 22 Press, William H. et al: «Numerical Recipes in Fortran 77: The Art of Scientific Computation», Volume 1, Cambridge University Press, 1992. (libro

online en:http://www.library.cornell.edu/nr/nr_index.cgi#thebooks). // Press, William H. et al: «Numerical Recipes in Fortran 90: The Art of ScientificComputation», Volume 2, Cambridge University Press, 1992. (libro online en:http://www.library.cornell.edu/nr/nr_index.cgi#thebooks).

23 University of Austria: «The Bernard Bolzano Pages Home» , July 12, 2000 (http://www.sbg.ac.at/fph/bolzano/bolzano.htm)24 McCracken, D.D. & Dorn, W.S.: »Métodos Numéricos y Programación Fortran», Limusa-Wiley, México, 1968.

FFIIGGUURRAA 33..11..66 Comportamiento anómalo de ciertasfunciones. (a) - f(x) es cuasi-infinito para c en lascercanías de x. (b) - Esta función sólo cambia de signo enel intervalo pi ± 10-667. (c) - Múltiples raíces en elintervalo, sin cambio de signo, o se presentan raícescomplejas. (d) - Otro caso de raíces múltiples para f(x).(e) - Hay una singularidad, no existe raíz22. [2], [3]

Page 13: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 13Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

• Las raíces múltiples, o las raíces muy cercanas representan un gran escollo para casi todos los métodos,especialmente si la multiplicidad es en número par. En este caso, no es fácil ni de rápida obtención el cambio designo de la función, por lo cual es posible que el algoritmo implementado desborde los límites del intervaloseleccionado.

• El algoritmo de Brent es muy eficiente para obtener un intervalo de una función no-lineal en una incógnita, cuando noes fácil obtener su derivada. Igualmente bueno es el método de Ridders/, además de ser más compacto25.

• Cuando es fácil obtener la derivada de la función, el método de Newton es eficiente si se combina con controlesespecíficos para impedir que el algoritmo tome valores fuera del intervalo26.

• Obtener las raíces de un polinomio siempre es bastante problemático, ya que muchos polinomios presentansingularidades («condiciones nulas»). Sin embargo, un buen comienzo es el método de Laguerre27.

CCÁÁLLCCUULLOO DDEE RRAAÍÍCCEESS DDEE FFUUNNCCIIOONNEESS NNOO--LLIINNEEAALLEESS

Calcular las raíces de funciones no-lineales se reduce al problema fundamental de obtener las raíces de una ecuación dela forma genérica:

f(x) = 0

Es decir, que el problema consiste en determinar los valores de x, o los ceros de f(x), para los que se cumple f(x) = 0.Normalmente, no es posible obtener una forma explícita en x por lo cual es preciso emplear una forma implícita, como laexplicada en secciones anteriores. Esto implica - a su vez- que es preciso emplear métodos aproximados. Por otro lado, ladeterminación de las raíces de una ecuación f(x) = 0, correspondiente a una función no-líneal, es uno de los problemasmás antiguos y más estudiados en algunas áreas de las Matemáticas Aplicadas, de los Métodos Numéricos, y del AnálisisNumérico, y se han realizado un gran número de esfuerzos en para lograr métodos de solución que permitan obtener losceros de f(x) = 0.

Su importancia radica en que si podemos determinar las raíces de una ecuación, también podemos determinar máximos ymínimos, valores propios de matrices, resolver sistemas de ecuaciones lineales y diferenciales, etc. Todo lo cual tienemuchísimas aplicaciones en muy diversas áreas técnicas y de ingeniería, especialmente con el desarrollo de loscomputadores y de las redes de computadores, en especial de la Internet, que han permitido abordar problemas que anteseran inabordables con técnicas manuales. La determinación de las soluciones de la ecuación28 puede llegar a ser unproblema muy difícil, en especial cuando intervienen varios tipos de funciones (exponenciales, trigonoméricas,polinómicas, logarítmicas, etc.).

Si f(x) es una función polinómica de grado 1 ó 2, conocemos expresiones simples que nos permitirán determinar susraíces. Para polinomios de grado 3 ó 4 es necesario emplear métodos complejos y laboriosos. Sin embargo, si f(x) es degrado mayor de cuatro o bien no es polinómica, no hay ninguna fórmula conocida que permita determinar los ceros de laecuación, es decir sus raíces (con excepción de casos muy singulares). Existen una serie de reglas que pueden ayudar adeterminar las raíces de una ecuación:

• El Teorema de Bolzano, que establece que si una función continua, f(x), toma en los extremos del intervalo [a,b]valores de signo opuesto, entonces la función admite, al menos, una raíz en dicho intervalo.

0 25 Numerical and Applied Analysis and Applications (http://www4.ncsu.edu/eos/users/s/slc/www/RESEARCH/NAAA.html). En algunos reportes o artículoshay disponible un archivo en formato PDF, que se puede descargar libremente. // University of Leeds /Universidad de Valencia: «Métodos numéricos»,(March 2nd, 1998) http://www.uv.es/~diaz/mn/node17.html. Originalmente por Nikos Drakos ([email protected]), CBLU, revisado y actualizado por:Marcus Hennecke, Ross Moore, Herb Swan; con aportes significativos de: Jens Lippmann, Marek Rouchal, Martin Wilck y otros. // The Math ForumInternet Mathematics Library, 1994-2005. The Math Forum is a research and educational enterprise of Drexel University, http://mathforum.org/26 Numerical-methods.com http://www.scientific-computing.co.uk/numerme/nummeth.htm27 Recktenwald, Gerald: «Numerical Methods with MATLAB: Implementations and Applications», 2000, Prentice Hall, ISBN: 0201308606. // John H.

Mathews and Kurtis D. Fink: «NUMERICAL METHODS: Using Matlab, Fourth Edition, 2004,http://mathews.ecs.fullerton.edu/books/2004numerical/2004numerical.htm ISBN 0-13-065248-2, Prentice-Hall Pub. Inc. http://www.prenhall.com, UpperSaddle River, NJ.

28 Carnahan, Brice, et al: «Applied Numerical Methods», John Wiley and Sons, 1969, pp. 173-17

Page 14: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 14Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

• En el caso en que f(x) sea una función algebraica (polinómica) de grado n y coeficientes reales, podemos afirmarque tendrá n raíces reales o complejas.

• La propiedad más importante que verifican las raíces racionales de una ecuación algebraica establece que si p/qes una raíz racional de la ecuación de coeficientes enteros:

¡Error!Marcador no definido.

entonces el denominador q divide al coeficientes an y el numerador p divide al término independiente a0.

Ejemplo: Pretendemos calcular las raíces racionales de la ecuación: 3x3 + 3x2 - x - 1 = 0. Primero es necesarioefectuar un cambio de variable x = y/3:

y después multiplicamos por 32: y3 + 3y2 -3y -9 = 0 , con lo que los candidatos a raíz del polinomio son:

que es además la única raíz racional de la ecuación. Lógicamente, este método es muy poco potente, por lo que sólo nospuede servir a modo de orientación.

• La mayoría de los métodos utilizados para el cálculo de las raíces de una ecuación son iterativos y se basan enmodelos de aproximaciones sucesivas, que siempre suministran un valor muy aproximado de las raíces. Estosmétodos trabajan del siguiente modo: a partir de una primera aproximación al valor de la raíz, determinamos unaaproximación mejor aplicando una determinada regla de cálculo y así sucesivamente hasta que se determine elvalor de la raíz con el grado de aproximación deseado.

SSOOLLUUCCIIOONNEESS PPOORR MMÉÉTTOODDOOSS NNUUMMÉÉRRIICCOOSS YY AANNÁÁLLIISSIISS NNUUMMÉÉRRIICCOO EENN IINNGGEENNIIEERRÍÍAA YY CCIIEENNCCIIAA

El incremento en las últimas dos décadas de la tecnología computacional, tanto en hardwarecomo en software, ha propiciado -tanto en las ciencias como en las ingenierías- la aplicación deMétodos Numéricos para simular fenómenos físicos y resolver problemas que antes eran dedíficil solución práctica. Los Métodos Numéricos se refieren -generalmente- a losprocedimientos, o algoritmos, empleados para hallar la solución computacional de un problema,expresado matemáticamente mediante una función, o un sistema de funciones, que no sepuede resolver explícitamente29. Los Métodos Numéricos se dividen normalmente en dosgrandes categorías30:

0 29 Lappalainen , Harri en Finlandia, proporciona un curso on-line sobre Métodos Numéricos. Igualmente, una amplia bibliografía

(http://www.cis.hut.fi/harri/dityo/node26.html ,1996. // «The Mathematical Atlas: 65 - Numerical Analysis» by Dave Rusin, Dept of Mathematics,Northern Illinois University, DeKalb IL, 60115, USA (http://www.math-atlas.org/welcome.html),2000-2005.

30 Net resources for numerical methods (http://stommel.tamu.edu/~baum/numerical.html). Incluye: Tutoriales y otros documentos; reportes técnicos; sitiosweb con software disponible; "paquetes" de software, disponibles tanto de dominio público (gratis) como del tipo GPL. // Numerical methods(http://emlib.jpl.nasa.gov/EMLIB/num_meth.html). Sitio bajo el liderazgo de NASA. La documentación proporcionada allí es de dominio público. // TheNumerical Analysis research in the Applied Mathematics Department at Tel Aviv University (http://www.math.tau.ac.il/am/research.html ,2005.

Sustituyendo en la ecuación, obtenemos que la única raíz real es y = -3, es decir,

Page 15: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 15Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Métodos numéricos elementales tales como hallar las raíces de funciones no-lineales, la integración numérica defunciones, la solución de ecuaciones diferenciales ordinarias, o la solución de sistemas lineales de ecuacionessimultáneas.

Métodos Numéricos intensivos tales como el Método de Elementos Finitos que tiene amplias y numerosas aplicacionesen casi cualquier área de las ingenierías. Los Métodos Numéricos intensivos son necesario en la solución de problemasprácticos de alta complejidad y normalmente requieren de la aplicación sistemática de métodos elementales,frecuentemente miles o millones de veces hasta lograr una solución satisfactoria de un problema planteado31.

En el desarrollo de los Métodos Numéricos, utilizados para solución de problemas técnicos o deingeniería, es preciso efectuar simplificaciones y abstracciones con el fín de obtener una soluciónpráctica, que generalmente es muy aproximada a la solución exacta u óptima. Por ejemplo, ciertostipos de funciones pueden ser aproximadas mediante polinomios, y este hecho aunado a lasaproximaciones numéricas que internamente hacen los computadores dan como resultado que lassoluciones obtenidas mediante la aplicación de Métodos Numéricos sean aproximadas, o -en elmejor de los caos- tienden a la solución exacta en cada paso iterativo.

Los Métodos Numéricos se emplean -generalmente- por medio de un enfoque algorítmico orientado a la implementaciónmediante un Lenguaje de programación de Computadores (véase, por ejemplo: http://www.scientific-computing.co.uk/proglang.htm). El estudio del comportamiento matemático de los Métodos Numéricos se denominaAnálisis Numérico (véase, por ejemplo: http://www.numerical-analysis.com/). Esta es un área de las matemáticas que secentra en el modelamiento de los errores que se generan al procesar los Métodos Numéricos y en el subsecuente rediseñodel método aplicado. Usualmente se concatena con el estudio de la complejidad y eficacia de los algoritmos involucrados.

También puede decirse que el Análisis Numérico trata de las actividades que implica el analizar ydesarrollar métodos computacionales expresados como algoritmos y programas para calcularsoluciones numéricas de problemas formulados matemáticamente.

El empleo efectivo del Análisis Numérico implica un profundo conocimiento del dominio del problemaaunado a un amplio conocimiento y experiencia en la teoría de algoritmos, dominio de un lenguaje de programación y depaquetes de software respectivos.

El conocimiento teórico implica el dominio del problema a resolver y de los Métodos Numéricos requeridos, incluyendo ladeducción de los algoritmos pertinentes, el análisis de los errores, y el análisis de la complejidad y eficiencia de losalgoritmos implicados. Puesto que muchos problemas prácticos son demasiado singulares y complejos, y no pueden serresueltos por la simple aplicación de un software estándar (algoritmos expresados como programas y el entorno deprogramación respectivo), con frecuencia se requiere desarrollar nuevos métodos o adaptar los métodos existentes parauna situación dada. Esto también requiere una sólida fundamentación teórica y experiencia en la disciplina del AnálisisNumérico.

Las aplicaciones avanzadas del Análisis Numérico y de los Métodos Numéricos incluyen, por ejemplo, el cálculo de lasecuaciones hiperbólicas en derivadas parciales, solución computacional para las ecuaciones de Navier-Stokes enaerodinámica, construcción de métodos generales para tratar las condiciones de frontera en los procesos de absorción porósmosis. Otras áreas de aplicación incluyen:.

• Aplicación de elementos finitos para la solución de problemas elípticos.• Aproximación e integración multidimensionales• Simulación matemática de herramientas, dispositivos y vehículos.• En muchas áreas de aplicaciones, especialmente en Física, los fenómenos pueden describirse empleando

Ecuaciones Diferenciales Parciales (EDP). El desarrollo de la teoría de dichas ecuaciones a menudo utiliza lacomprensión y experiencias obtenidas en aplicaciones específicas conjuntamente con los métodos de solución de lasecuaciones particulares que surgen en tales aplicaciones. La investigación en EDP incluye tanto los desarrollosteóricos matemáticos como los Métodos Numéricos requeridos y el análisis algorítmico pertinente. Problemas típicosque se resuelven con estas técnicas incluyen:

0 31 Mathtools.net: Link Exchange for The Technical Computing Comunity, 2001-2005 The MathWorks Inc. (http://www.mathtools.net) // «Applied

Mathematics:Numerical Methods:Root-Finding», http://mathworld.wolfram.com/, 1999-2005 Wolfram Research, Inc.

Page 16: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/30/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 16Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

• Sistemas de leyes de conservación.• Evolución de singularidades en sistemas hiperbólicos• Métodos de energía para ecuaciones de difusión.• Teoría de Dinámica de fluídos, en cuyas áreas se resuelven problemas típicos como:• La dinámica de un fluído ideal incompresible.• Soluciones débiles y comportamiento asintótico de fluídos bidimensionales.• Flujo generalizado en fluídos.

MMÉÉTTOODDOOSS DDEE SSOOLLUUCCIIÒÒNN

Si sólo se presenta una variable independiente en 3.13 entonces se emplean dos categorías de métodos de solución:

(a) - de intervalo cerrado como el método de bisección y el método «Regula Falsi» o de la «Falsa posición»;

(b) - de intervalo abierto32, que son los demás métodos.

Cuando se presenta más de una variable independiente, entonces habrá de resolverse un sistema de ecuaciones linealesó no-lineales (vèase el capìtulo 8). Por ahora, se tratarán raíces de funciones, para una ecuación f(x) = 0 (3.13), dondesólo interviene una única variable independiente, y la función es no-lineal. La ecuación 3.13 tiene siempre en formaimplícita a la variable independiente. Este el tema de la siguiente sección. En la otra sección se tratará los temas: tipos deraíces; la existencia de las raíces; y las condiciones de convergencia.

Particularmente, dado que este e sun curso introductorio al tema del Anàlisis Numèrico y de los Mètodos Numèricos severàn los siguientes Mètodos:

• El Método de Bolzano, llamado generalmente el Mètofdo de Bisección, que es de intervalo cerrado.• El Mètodo de Regula Falsi, o de la Falsa Posición, que también es de intervalo cerrado.• El Mètodo de Newton-Raphson, generalmente llamado Mètodo de Newton, que es de intervalo abierto.• El Método de la Secante, como una variante del Método de Newton.• Y se mencionaràn otros Métodos como: Punto Fijo, Steffensen, Graffe, Muller, Bernoulli, Factorizaciòn Iterativa de

polinomios, Método de Ward, Algoritmo QD de RutisHauser, Método de Bairstow para factores cuadràticos, Métodosacelerativos.

El enfoque es bçasicamente operacional y aplicativo. Para cada método se explica su algoritmo, y se aplica aun ejemploespecífico.

0 32 The Free Dictionary , Copyright © 2006 Farlex, Inc. http://encyclopedia.thefreedictionary.com/Root-finding+algorithm

Page 17: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/31/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 17Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

3.2 Método de Bolzano (bisección)

El Mètodo de Bolzano1, conocido popularmente como Método de Bisecciòn, es unode los procedimientos más simples para hallar la raìz de una funciòn f(x) = 0 en unintervalo dado, como en la figura 3.2.1. Precisamente, el Teorema de Bolzano2

suministra la base lógico-matemática que permite hallar dicha raíz. En tèrminossencillos, dicho Teorema establece que si una función f(x) es continua en el intervalo[a,b] y se cumple que f(a)*(b) < 0, entonces f(x) tiene una raìz en dicho intervalo.Mediante métodos gráficos o mediante la tabulación de valores de f(x), es posibledeterminar el intervalo, que es aquel en el cual la funciòn cambia de signo al serevaluada en el punto a y luego en el punto b.

El procedimiento, en sì, es bastante directo. Una vez determinado el intervalo que encierra la raìz a obtener, se calcula untercer valor c que es la mitad del intervalo, es decir que c = ½(a + b), bisectando el intervalo en dos subintervalos: [a,c]y [c,b]; de ahì el nombre conque este método es conocido. Luego se verifica si este nuevo valor c es la raíiz, o en cuál delos intervalos está, ahora, la raìz (véase la figura 3.2.2).

Si la raìz se encuentra en el subintervalo [a,c],entonces se cumplirà que f(a)*f(c) < 0; si, por elcontrario, al raìz se encuentra en el subintervalo[c,b] se cumplirà que f(c)*f(c) < 0. En la figura3.2.2 es cierto esto ùltimo.

El proceso de bisectar el intervalo y de verificaren cuál subintervalo està la raìz se continúahasta que se encuentre que f(c) = 0, o que sellegue a que |f( c )| se tan pequeño como seestipule, según una tolerancia numérica, ε,preestablecida.

Como este es un método de intervalocerrado, que tiene un estricto control de las operaciones dentro del intervalo [a,b] , es posible, mediante el Teorema delValor Medio de Bolzano3, determinar el número mínimo de iteraciones necesarias para lograr el nivel de precisión, ε.Considèrese que an y bn son –respectivamente- los extremos del intervalo correspondiente a la enésima iteraciónefectuada (con a1 = a y b1 = b), y considérese que rn es la enésima aproximación al valor exacto de la solución, por lo0 1 R. E. White, Nonlinear Problems and Intermediate Values; the Bisection Method

Undergraduate Computational Engineering and Science, The Department of Energy (DOE), Krell Institute, Copyright ©1994. // Tam, Ming T.: «TheBisection Method, Notes and Animation», Chemical Engineering Dept., Newcastle University upon Tyne, UK, 1999. // Houben, Stephan: «TheBisection Method», Dept. of Math. & Comp. Sci., Eindhoven University of Technology, The Netherlands, 2000,http://www.win.tue.nl/~stephanh/dictaat/solvers/node1.html.

2 Mathews, John H. And Finks, Kurtis: «Numericals Methods using Mathematica», 2004. // Arfken, G.: «Mathematical Methods for Physicists», 3rd ed.Orlando, FL: Academic Press, pp. 964-965, 1985. // Press, W. H.; Flannery, B. P.; Teukolsky, S. A.; and Vetterling, W. T. «Bracketing andBisection», §9.1 in Numerical Recipes in FORTRAN: The Art of Scientific Computing, 2nd ed. Cambridge, England: Cambridge University Press, pp.343-347, 1992.

3 Weisstein, Eric W.: «Bisection» From MathWorld--A Wolfram Web Resource. http://mathworld.wolfram.com/Bisection.html, last modified March 1, 2004,© 1999-2006 Wolfram Research, Inc.

FFIIGGUURRAA 33..22..11 f(x) tiene una raìz en el intervalo [1.0, 1.5].

a

b

f(x)

FFIIGGUURRAA 33..22..22 Diagrama esquemático de lossubintervalos involucrados en el Mètodo deBolzano.

Page 18: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/31/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 18Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

cual rn = ½( an + bn). Con sencillas manipulaciones aritmético-algebráicas, siguiendo la serie de bisecciones de losintervalos, puede demostrarse que el subintervalo enésimo, bn - an , cumple la siguiente fórmula:

Con el fìn de que se cumpla en el enésimo subintervalo la condiciòn del error, |rn - r|, es decir, que dicho error sea < ε,se cumplen las siguientes relaciones (a partir de 3.2.1):

Si se toma logaritmo natural a ambos lados de 3.2.2, entonces se llega a la siguiente inecuación:

De 3.2.3 se obtiene el valor mínimo para el número de iteraciones, n:

Para el caso de la figura 3.2.1, con a = 1.0, b = 1.5, ε = 0.00001, da que n > 16.6; es decir, que el algoritmo efectuará -por lo menos- unas 17 iteraciones para obtener la raíz con el valor estipulado de precisión numérica.

UUNN AALLGGOORRIITTMMOO PPAARRAA EELL MMÉÉTTOODDOO DDEE BBOOLLZZAANNOO

El problema con hallar la raíz de una función se puede estipular como: dada una función ff:: DD ⊂⊂ RR RR Se trata dehallar un valor : {{xx00 ∈∈ DD//ff((xx00)) == 00}}.. Es decir, encontrar las soluciones de la ecuación ff((xx)) == 00.. Este procedimiento serámás o menos complicado dependiendo de la expresión algebraica de la función ff((xx)). Como se ilustra en la figura 3.2.3, losparámetros básicos a considerar incluyen: (i) - los extremos iniciales del intervalo, a, b; (ii) – el punto medio del intervalo,c; (ii) – la evaluaciòn de la funciòn en estos tres puntos, f(a), f(b), f(c).

Los pasos básicos del algoritmo, en Lenguaje NaturalEstructurado (LNA)4, son los siguientes:

1. Conocer la función ff((xx)) a la cual se le quiere conocer suraíz.

2. Establecer el intervalo [[aa,, bb]] a partir del cual se va ainiciar el proceso y un εε >> 00 (margen de error, o tolerancia

numérica).

3. Calcular el punto medio del intervalo: cc == ((aa++bb))//22

3.1 Si ||ff((cc))|| << εε entonces cc es la raíz. Finalizar.

3.2 Si ff((aa))**ff((cc)) << 00 entonces bb == cc.. EEss ddeecciirr,, eell nnuueevvoo eexxttrreemmoo ssuuppeerriioorr ddeell iinntteerrvvaalloo eess bb..

3.3 Si ff((cc))**ff((bb))<<00 entonces aa == cc.. EEss ddeecciirr,, eell nnuueevvoo eexxttrreemmoo iinnffeerriioorr ddeell iinntteerrvvaalloo eess bb..Repetir el proceso desde el paso 3.

0 4 Esta es una de las técnicas básicas de representación de algoritmos. Véase el capítulo 2 de «Algoritmos y Programación con Visual Basic», en

http://xue.unalmed.edu.co/~walvarem.

(3.2.1)

(3.2.2)

(3.2.3)

(3.2.4)

FFIIGGUURRAA 33..22..33 Diagrama esquemático de los parámetrosbásicos involucrados en el Mètodo de Bolzano.

Page 19: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/31/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 19Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Como ejemplo de aplicación, considérese la siguiente función:

Cuyo esquema gráfico se presenta en la figura 3.2.4:

De esta figura, se pued eobservar que la función, definida por3.2.5, tiene una raíz en el intervalo [[--00..55,, 00..55]] y otra raíz en elintervalo [[11..00,, 22..00]]. Aplicando la relación 3.2.4, para el primerintervalo, se tiene que el valor mínimo de n, con unatolerancia εε == 00..0000000000000011 es 26.57; es decir, que elalgoritmo realizará por lo menos 27 iteraciones antes deencontrar la raíz, con la tolerancia numérica estipulada.; igualvalor se calcula para el segundo intervalo, con el mismo nivelde precisiòn numérica.

Para implementar el algoritmo descrito, en Visual Basic, enprimer lugar se elabora un procedimiento tipo Function,

ilustrado en la figura 3.2.5. El algoritmo en Visual Basic aparece en la figura 3.2.6.

Las variables se definen como de tipo Double, esdecir reales de precisiòn extendida.

Para controlar el número de iteraciones seemplea una estructura de iteraciòn indefinida así:

Do......Loop While (Abs(F(C) >= epsilon)

Y se emplea la estructura de selecciòn lògica deltipo If ... ElseIf ... End If.

En la figura 3.2.7 se presenta una interfazdiseñada en Visual Basic, con los resultados parael intervalo [[11..00,, 22..00]] de la función definida por laecuación 3.2.5..

604.0)9.0(

101.0)3.0(

1)( 22 −+−

++−

=xx

xf (3.2.5)

FFIIGGUURRAA 33..22..44 Diagrama esquemático de la función f(x)de la ecuación 3.2.5.

Public Function F(X As Double) As Double F = 1 / ((X - 0.3) ^ 2 + 0.01) + 1 / ((X - 0.9) ^ 2 + 0.04) - 6End Function

FFIIGGUURRAA 33..22..55 Procedimiento tipoFunction para la función f(x) de laecuación 3.2.5.

Dim A As Double, B As Double, N As LongDim epsilon As Double, X As Double, C As DoubleA = Val(Text1.Text): B = Val(Text2.Text)epsilon = Val(Text3.Text): N = 0Do C = (A + B) / 2 If Abs(F(C)) < epsilon Then Exit Do ElseIf F(A) * F(C) < 0 Then B = C Else A = C End If N = N + 1Loop While (Abs(F(C)) >= epsilon)Text4.Text = C: Text5.Text = N

FFIIGGUURRAA 33..22..66 Algoritmo en Visual Basic para hallaruna raíz de la función f(x) de la ecuación 3.2.5.

Page 20: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 12/31/06Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

__________________________________________________________________________________walvarem@unalmed.edu.co Página 3 - 20Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

El nùmero de iteraciones, n, es consistente con el valor mínimocalculado por medio de la fórmula 3.2.4. Es claro que al cambiar elvalor de la tolerancia numérica, εε, se tendrán más o menositeraciones, y un valor más o menos preciso de la raíz. La figura3.2.8 presenta un algoritmo en MatLab.

Este Método de Bolzano, como todos los métodos numéricos parahallar raíces de una función f(x), sólo da valores aproximados;precisamente, la funcionalidad del nivel de precisión numérica, εε,es establecer cuando se ha llegado a un valor suficientementeaproximado –desde el punto de vista práctico- para una raízdeterminada de f(x), que resuelve un problema concreto de Cienciao de Ingeniería.

VVEENNTTAAJJAASS YY DDEESSVVEENNTTAAJJAASS DDEELL MMÉÉTTOODDOO DDEE BBOOLLZZAANNOO

El Método de Bolzano para hallar una raíz de función f(x) en un intervalo especificado presenta ciertas ventajas , perotambién adolece de algunos inconvenientes. Dentro de sus principales ventajas están:

• Requerimientos mínimos de la función f(x), pues sólo es necesario que sea continua en el intervalo especificado.• Se basa en un rigoroso principio matemático: el Teorema del Valor Medio de Bolzano.• Es robusto y globalmente convergente. Siempre converge cuando se da un intervalo apropiado, pudiéndose

establecer de antemano el número mínimo de iteraciones.• Se puede establecer el límite de error: |xn -x*|< (b-a)/2n-1, siendo xn el valor aproximado de la raíz y x* su valor

exacto.• Es fácil de implementar.

Dentro de sus principales desventajas puede mencionarse:

• Para funciones complejas, que surgen en la pràctica al tratar de resolver problemas de Ingeniería, la determinacióndel intervalo inicial puede ser un proceso no trivial. Igualmente, en estos casos no es obvio el criterio de finalizacióndel proceso iterativo, en cuanto a la precisión numérica; habrá que proceder por ensayo y error.

• Su velocidad de convergencia es lenta.• No puede hallar raíces complejas.• No se puede utilizar para hallar más de una raíz en un intervalo dado.• Es difícil generalizarlo para dimensiones superiores.

FFIIGGUURRAA 33..22..77 Interfaz en Visual Basic para hallar una raíz dela función f(x) de la ecuación 3.2.5, en el intervalo [[11..00,, 22..00]].

FFIIGGUURRAA 33..22..88 Algoritmo implementado en Matlab parahallar una raíz de una función f(x) = 0.

Page 21: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 21 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

3.3 Método de Newton-Raphson (Newton)

Homenaje del Estado Alemán, en su timbrel postal, al matemàtico Sir Isaac Newton, que tantainfluencia ha tenido en el desarrollo de la Ciencia y la Ingeniería en Occidente. Fuente: John H.Mathew, 2004, http://mathews.ecs.fullerton.edu/n2003/Newton'sMethodMod.html .___________________________________________________________

El Método de Newton_Raphson1, conocido más comúnmente comoMétodo de Newton, es un Método de intervalo abierto, y sólo requiere unvalor inicial, cercano a la raíz, para obtener un valor más aproximado a la

raíz de una funciòn f(x) = 0 (3.3.1) . Este método es atribuído a Sir Isaac Newton (1643-1727) y a Joseph Raphson (1648-1715)2.

Es de gran importancia resolver una ecuación de la forma f(x)=0 (3.3.1), en muchas áreas de Ciencia e Ingeniería, comoen Matemáticas, Física, Química, Eléctrica, etc., y también en el cálculo de algunas funciones o constantes matemáticascomo las raíces cuadradas y otros tipos de raíces.

Alrededor de 1669, Isaac Newton proporcionó un nuevo algoritmo para resolver una ecuación polinómica3 y lo ilustró conel ejemplo y3 - 2y – 5 = 0 (3.3.2). Newton planteó que para hallar una raíz aproximada de esta ecuación, primero sedebería tener un valor inicial de ensayo, tal como y ≈ 2. En su escrito, Newton escribió y = 2 + p (3.3.3) y después desustituir 3.3.3 en 3.3.2, la ecuación inicialmente planteada se convierte en

p3 + 6p2 + 10p – 1 = 0. (3.3.4)

Como el valor de p se supone muy pequeño, se puede despreciar la suma p3 + 6p2 comparada con 10p – 1 (3.3.4) y,por lo tanto, de 3.3.4 se puede obtener un valor aproximado de p, es decir que p ≈ 0.1, con lo cual una mejoraproximación de la raíz es y ≈ 2.1. Es posible repetir el proceso y escribir p = 0.1 + q (3.3.5). Al sustituir 3.3.5 en 3.3.4,la ecuación se convierte en

q3 + 6.3q2 + 11.23q + 0.061 = 0 (3.3.6),

pudiéndose tener un valor aproximado de q, q ≈ -0.061/11.23 = -0.0054. Siendo la nueva aproximación de la raíz de 3.3.2y ≈ 2.0946. Y el proceso se repite hasta que se obtenga un suficiente número de cifras significativas para el valor de laraíz.

En este método, Newton no utilizó explícitamente el concepto de derivada y sólo aplicó ecuaciones polinómicas.

Años más tarde, en 1690, Joseph Raphson propuso un método4 que evita las substituciones en el enfoque de Newton.Raphson ilustró su algoritmo con la ecuación x3 – bx + c = 0 (3.3.7), y empezó con una aproximación de esta ecuación,x ≈ g, obteniéndose una mejor aproximación con la fórmula siguiente:

Osérvese que el denominador en 3.3.8 es el opuesto de la derivada del numerador.

0 1 Murison, Marc A.: «A Symbolic Newton-Raphson Method of Finding Roots», Astronomical Applications Department

U.S. Naval Observatory , http://arnold.usno.navy.mil/murison/, December 1996. // Pascal Sebah and Xavier Gourdon , «Newton’s method and highorder iterations», numbers.computation.free.fr/Constants/constants.html, October 3, 2001. // Recktenwald , Gerald: «Numerical Methods withMATLAB: Implementations and Applications», © 2000, Prentice HallISBN: 0201308606.

2 Tjalling J. Ypma: «Historical Development of the Newton-Raphson Method», SIAM Review, Vol. 37, No. 4 (Dec., 1995), pp. 531-5513 Newton, Isaac: «Methodus fluxionum et serierum infinitarum», London, England, 1664-1671.

4 Raphson, Joseph: «Analysis Aequationum universalis», London, England, 1690.

2

3

3gbbggcgx

−−+

+= (3.3.8)

Page 22: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 22 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

El proceso descrito con las ecuaciones 3.3.2 a 3.3.6 y la ecuación 3.3.8 constituyen los orígenes del Método Newton-Raphson (llamado de Newton) empleado actualmente para hallar una aproximación a una raíz de una función no-lineal,f(x) = 0.

Desde entonces, el Método Newton-Raphson se ha estudiado, se ha aplicado y se ha generalizado por muchos otrosmatemáticos tales como Simpson (1710-1761), Mourraille (1720-1808), Cauchy (1789-1857), Kantorovich (1912-1986). Lacuestión crucial de escoger el valor inicial fue tratada primeramente por Mourraille in 1768; y la dificultad de escoger unvalor inicial correcto es una de las principales desventajas del algoritmo. Desde el siglo 19, el Método Newton-Raphsonse ha convertido en base de otros métodos, ha sido aplicado a muy diversos problemas, y se ha generalizado paraabordar problemas de muchas variables y muchas dimensiones matemáticas; incluso, el algoritmo Newton-Raphson se haempleado para implementar operaciones de máquina dentro de los chips que controlan el funcionamiento de lascomputadoras.. La lista presentada al final de esta sección da una idea de la gran influencia que el Método Newton-Raphson tiene en Ciencia y en Ingenierìa, tanto en la parte teórica como en las aplicaciones.

PPAARRÁÁMMEETTRROOSS BBÁÁSSIICCOOSS DDEELL MMÉÉTTOODDOO NNEEWWTTOONN--RRAAPPHHSSOONN

La ecuación 3.3.9 es la relación básica delMétodo Newton-Raphson5, como ilustra lafigura 3.3.2

La anterior función corresponde a laintersección de la recta tangente de ff((xx)) enXXnn--11 con el eje de las XX.. Dicha

intersección, llamada XXnn, corresponde a una aproximación de la raíz para la función ff((xx)), cuando ff((XXnn)) == 00 ó ff((XXnn)) ≤≤eeppssiilloonn..

EELL CCOONNCCEEPPTTOO DDEE RRAAÍÍZZ. Sea f: D → R, D ⊆ R, unafunción dada6. Un número XXnn ∈ D se dice unaraíz (en D) de la ecuación f(x)= 0 , o un cero (enD) de la función f , si f(XXnn) = 0.

Al intentar encontrar una raíz XXnn de una ecuación f(x)= 0 , se generará una sucesión {x}i , i , = 1,2,... tal que

0 5 Gray, Paul: «Lecture Notes For Numerical Analysis», Emory University, Mathematics and Computer Science, 1998 – 2006,http://www.mathcs.emory.edu/ccs/ccs315/.6 Asmar Ch., Ivan F.: «Métodos Numéricos», Universidad Nacional de Colombia – Sede Medellìn, 2000.

FFIIGGUURRAA 33..33..11 Elementos básicos parahallar una raíz de la función f(x) = 0 pormedio del Método de Newton-Raphson.

1,)´()(

1

11 ≥−=

−− n

XfXfXX

n

nnn

(3.3.9)

XXnnXXnn--11

f(XXnn--11))

f(XXnn))

FFIIGGUURRAA 33..33..22 Esquema gráfico de la relaciónentre los puntos XXnn y XXnn--11 , según la ecuación3.3.2, que es la fórmula algorítmica generalpara hallar una raíz de la función f(x) = 0 pormedio del Método de Newton-Raphson.

ni

xixlim =∞→

)( (3.3.10)

Page 23: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 23 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Cualquier método numérico permitirá, entonces, calcular los valores de cada término de la sucesión {x}i i = 1,2,...; así queno se espera, en general, calcular directamente 3.3.10 sino que mediante un criterio razonablemente lógico, según elproblema que se esté intentando resolver con el método numérico, se podrá escoger un término específico de la sucesión{x}i i = 1,2, ... como valor aproximado de la raíz que se pretende hallar, XXnn.

El algoritmo del Método Newton-Raphson involucra un creterio para detener el proceso iterativo y un criterio paradeterminar cuando es posible una división por cero.

UUNN AALLGGOORRIITTMMOO PPAARRAA EELL MMÉÉTTOODDOO DDEE NNEEWWTTOONN--RRAAPPHHSSOONN

Los pasos básicos del Método Newton-Raphson, para hallar una raíz de f(x) = 0, son los siguientes:

1. Conocer la función ff((xx)) a la cual se le quiere obtener su raíz. También su derivada ff’’((xx)).

2. Establecer un punto de inicio XX00 a partir del cual se va a iniciar el proceso.

3. Si ff’’((XX00)) == 00 entonces habrá división por cero, finalizar; de lo contrario, continuar con paso 4..

4. Si ff((XX00)) == 00 entonces la raíz es XX00, finalizar, e ir al paso 5; de lo contrario:

• Calcule XX11 mediante la ecuación:

•• Hacer XX00 igual a XX11..

5. Repetir el paso 3 hasta que |ff((XX00))|| ≤≤ eeppssiilloonn..

6. Mostrar XX00

La figura 3.3.3 ilustra el proceso de los sucesivos pasos que sigue el algoritmo del Mëtodo de Newton-Raphson para lafunción f(x) = 25x2 – 10 x +1, tomándose como valor inical xo = 1.0.

Porf(xo) se traza una tangente a f(x); dichatangente corta al eje x en x1 definidopor la ecuación 3.3.11; x1 se convierteen el nuevo xo y por f(x1) se traza denuevo una tangente a f(x); y, así,sucesivamente.

En este caso, el algoritmo converge en20 iteraciones a un valor bastanteaproximado al valor real (2.0).

FFIIGGUURRAA 33..33..33 Traza delalgoritmo para hallar una raízde la función f(x) = 25x2 – 10x +1 = 0 por medio del Métodode Newton-Raphson.

( )( )0

001 Xf

XfXX′

−= (3.3.11)

Page 24: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 24 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

UUNN EEJJEEMMPPLLOO DDEE AAPPLLIICCAACCIIÓÓNN PPAARRAA EELL MMÉÉTTOODDOO NNEEWWTTOONN--RRAAPPHHSSOONN

Sea la función definida por 3.3.12. Su derivada está dada por 3.3.13. Una gráfica esquemática de f(x) se muestra en lafigura 3.3.4.

Esta función tiene dos raíces: una en el intervalo [–0.5, 0.5] y otra en el intervalo [1.0, 1.5]. En lenguaje Visual Basic, lafunción 3.3.12 y su derivada 3.3.13 son las arriba mostradas. La figura 3.3.5 es un algoritmo elaborado en Visual Basic, yla figura 3.3.6 es una interfaz que muestra los resultados respectivos.

Las variables XO, X1, epsilon se definen como de tipo Double, es decirreal extendido. Con la variable N, de tipo entero, se cuenta el número deiteraciones que conlleva al algoritmo converger al valor aproximado de laraíz, conforme a la tolerancia numérica estipulada con epsilon. Losvalores de las variables XO y epsilon se leen de sendas cajatexto comose ilustra en la interfaz de la figura 3.3.5.

Un ejemplo del algortimo en MatLab es ilustrado en la figura3.3.7. Y en la figura 3.3.8 se presenta un ejemplo en C.

En la sección 3.2 se obtuvo una raíz para la misma funcióndefinida por la ecuación 3.3.12; el algoritmo realizó 29iteraciones; para el Método de Newton-Raphson, el algoritmorealiza sólo 5 iteraciones. Y esta es una característica del

604.0)9.0(

101.0)3.0(

1)( 22 −+−

++−

=xx

xf (3.3.12)

( ) ( )2222 04.0)9.0()9.0(2

01.0)3.0()3.0(2)(

+−

−−

+−

−−=′

xx

xxxf (3.3.13)

FFIIGGUURRAA 33..33..44 Gráfica esquemática de la función f(x)definida por medio de la fórmula 3.3.4.

Private Function f(X As Double) As Double f = 1 / ((X - 0.3) ^ 2 + 0.01) + 1 / _

((X - 0.9) ^ 2 + 0.04) - 6End Function

Private Function DF(X As Double) As Double DF = -2 * (X - 0.3) / ((X - 0.3) ^ 2 + 0.01) ^ 2 - _ 2 * (X - 0.9) / ((X - 0.9) ^ 2 + 0.04) ^ 2End Function

Dim X0 As Double, X1 As DoubleDim epsilon As Double, N As Integer

X0 = Val(Text1.Text) epsilon = Val(Text2.Text) N = 0 Do If (f(X0) = 0) Then Exit Do X1 = X0 – F(X0)/DF(X0) X0 = X1 N = N + 1 Loop While(Abs(F(X0)) > epsilon) Text3.Text = “Raíz = “ & X0

FFIIGGUURRAA 33..33..55 Algoritmo elaborado en Visual Basic para hallar una raízde la función f(x) definida por medio de la fórmula 3.3.4.

FFIIGGUURRAA 33..33..66 Interfaz en Visual Basic correspondiente alalgoritmo de la figura 3.3.5.

Page 25: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 25 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Método Newton-Raphson: si el algoritmo, implementado para un función específica, converge, lo hace muy rápidamente.

Como datos de entrada para este algoritmo se tienen: lafunción f(x); su derivada f’(x); el valor inicial deaproximación, xo; el máximo número de iteraciones,MAXIT; tolerancia numérica para la división por cero, ε1 ; yla tolerancia numérica para la aproximación de la raíz, ε2,que termina el algoritmo.

A continuación, figura 3.3.9, se presenta un programa en FORTRAN para la función x2 + 2x - 3.

FFIIGGUURRAA 33..33..77 Algoritmo en MatLab correspondiente a la figura 3.3.5 (John H. Mathews, 2004).

FFIIGGUURRAA 33..33..88 Algoritmo en el lenguaje C correspondiente a lafigura 3.3.5 (Paul A. Gray, 1998).

FFIIGGUURRAA 33..33..99ProgramaFORTRAN.

C DF(X)=DERIVADA;X VALOR INICIAL;E TOLERANCIA;N # MÁXIMO ITERACIONES F(X) = X**2+2.*X-3. DF(X) = 2.*X+2 READ (5,10) X, E, N DO 1 I = 1,N D=DF(X) IF(D.EQ.0) GO TO 2 X1 = X-F(X)/D IF (ABS(X-X1).LT.E) GO TO 3 1 X = X1 WRITE (6,20) N GO TO 4 3 WRITE(6,40) X1, I 10 FORMAT( ) 20 FORMAT (//2X, 'NO HAY SOLUCIÓN DESPUÉS DE ', I5, ' ITERACIONES') 30 FORMAT (//2X, 'PARA X = ', F8.4, ' DF(X)=0') 40 FORMAT (//2X, 'SE LLEGÓ A LA SOLUCIÓN, X = ', F8.4, ' DESPUES DE' 1,I5, ' ITERACIONES') 4 STOP END

Page 26: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 26 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

VVEENNTTAAJJAASS YY DDEESSVVEENNTTAAJJAASS DDEELL MMÉÉTTOODDOO NNEEWWTTOONN--RRAAPPHHSSOONN

El Método de Newton-Raphson para hallar una raíz de función f(x) = 0, presenta ciertas ventajas , pero también adolecede algunos inconvenientes. La tabla 3.3.1 presenta una comparación entre las ventajas y las desventajas del Método deNewton-Raphson.

TTAABBLLAA 33..33..11 Ventajas y desventajas del Método Newton-Raphson.Ventajas Desventajas

• La derivación del método puede obtenerse por mediode Series de Taylor y técnicas gráficas.

• Determinar un punto de inicio, xo, adecuado puede seruna labor difícil, especialmente en la práctica dondesurgen funciones muy complicadas.

• Cuando el punto de inicio, xo, se escogecorrectamente, entonces el Método de Newton-Raphson converge muy rápidamente.

• No se puede garantizar la convergencia cuando elpunto de inicio, xo, no está cerca de la raíz

• Algunas veces, para funciones específicas, el Métodode Newton-Raphson converge con muy pocasiteraciones.

• La convergencia no siempre se puede garantizar. Y nohay convergencia cuando la raíz es un punto deinflexión, o está cercana a él; también, cuando la raízes un máximo o un mínimo, o está cernaca a uno deellos.

• Es posible tener una estimación del error bajosupuestos razonables.

• La convergencia puede ser muy lenta; y –enocasiones- hay oscilaciones alrededor de un punto.

• Relativamente fácil de implementar, si la derivada sepuede calcular.

• No siempre es fácil calcular la derivada; y en cadaiteración hay que calcularla.

• Es un método muy eficiente para hallar raíces depolinomios.

• Bajo ciertas circunstancias y con ciertas funcionesespecíficas no resulta obvio escoger la condición quefinaliza el algoritmo.

• Este método pued utilizarse para hallar raícescomplejas de una función.

• Requiere un valor inicial de tipo complejo para hallaruna raíz compleja, lo cual no siempre fácil de obtener.

• Este método se ha extendido para el tratamientomultidimensional.

• Es tarea ardua construir las derivadas (o matricesJacobianas) en el enfoque multidimensional.

CCOONNVVEERRGGEENNCCIIAA DDEELL MMÉÉTTOODDOO NNEEWWTTOONN--RRAAPPHHSSOONN

En la mayoría de los casos, encontrados y documentados en la práctica ingenieril, el Método Newton Raphson convergerápidamente, es decir con muchas menos iteraciones que otros métodos para hallar raíces de funciones, f(x) = 0, y entales casos no requiere de un valor inicial particularmente bueno, o muy cercano a la raíz exacta. Sin embargo, existenecuaciones del tipo f(x) = 0 con las cuales el Método Newton-Raphson falla, o tiene un comportamiento extraño, oconverge muy lentamente7. Un ejemplo es la ecuación quíntica siguiente:

Cuando se escoge un valor inicial x0 = 1.0 se llega a la solución rápidamente, con 7 iteraciones, como se ilustra en lafigura 3.3.10; pero si se escoge como valor inicial diferente el algoritmo se relentiza, o se comporta extrañamente lléndosea obtener una raíz diferente a la que se pretende. Este comportamiento de la función 3.3.14 quizás se explica al anlizar sugráfica que aparece en la figura 3.3.11.

Obsérvese que la función presenta tres raíces reales en el intervalo [-3, 4 ], y entre –1 y 1 la funcón tiene una zona de“pandeo”, en la cual muy posiblemente estén las otras dos raíces, pues la función tiene 5 raíces; dichas raíces soncomplejas (imaginarias) y la versión que se está utilizando del Método Newton-Raphson no calcula raíces complejas. Lastres raíces reales son –2.26432223767659, 1.98110017271273, y 3.39219813764743 . Para valores de X menores que –

0 7 Tatum, J.B.: « Physics topics, Celestial Mechanics, Chapter 1: Numerical Methods», 2000 - 2005,

(3.3.14)5x5 - 10x4 - 31x3 + 4x2 + 111x + 205 = 0

Page 27: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 27 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

2.26432223767659 la función definida por 3.3.14 decrece indefinidamente; para valores mayores de 3.39219813764743,la función crece indefinidamente.

El eje horizontal tiene una escala normal, pero el eje vertical tiene una escalacomprimida para facilitar su visualización; no obstante, se puede apreciar la formageneral de la función.

En la tabla 3.3.2 se listan algunos valores para X0 con las raíces halladas, valoresde X1, y el número de iteraciones que el algoritmo emplea para llegar al nivel deprecisión 0.000001. Se observa que hay una especie de “bamboleo” u oscilaciónen el intervalo [-3, 4 ], pero el algoritmo se comporta bien calculando las raícesreales de la función en dicho intervalo.

TTAABBLLAA 33..33..22 Ejemplo de valores X0 empleados para hallar raíces de 3.3.14 por el Médoto Newton-RaphsonNo. Iteraciones, N Valor inicial X0 Raíz hallada, X1

11 -0.995 3,392198137647437 -4.0 -2,2643222376766336 -2344.0 -2,2643222376765915 0.5 3,392198137647434 1.5 1,981100172712734 2.5 1,9811001727127316 -0.1 -2,2643222376765915 0.1 -2,26432223767666 4.0 3,3921981376474336 2344.0 3,3921981376474315 0.0 -2,2643222376765911 -1.0 3,39219813764743

FFIIGGUURRAA 33..33..1100 Resultados del proyecto Visual Basic, con el Método Newton Raphson, para lafunción definida por 3.3.14.

FFIIGGUURRAA 33..33..1111 Gráfica esquemática de la función definida por 3.3.14.

Page 28: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 28 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Otro ejemplo de función que presenta dificultades al aplicar el Método Newton-Raphson es la función f(x) = x - tan x,una ecuación que surge en la teoría óptica de la difracción. Se tiene que f(x) = x – tan(x) = 0 (3.3.15), y la primeraderivada está dada por f '(x) = 1 – sec2(x) = -tan2(x) (3.3.16). Para la función 3.3.15, la fórmula genérica en elMétodo Newton-Raphson , al utilizar 3.3.16, es así:

La solución es X1 = 4.493409, pero para obtenerla el valor inicial X0 debe estar entre 4.3 y 4.7. Por ejemplo, con un valorinicial X0 = 4.45, el algoritmo da la raíz en 4 iteraciones. Pero con X0 = 1.25, el algoritmo da como raíz el valor de X1 =5,15682388981189E-03 en 15 iteraciones, que se sabe no es el valor correcto. Y con un X0 = 3.245, después de 22iteraciones, falla, pues tanto X1 como f(X1) adquieren valores muy grandes.

La ecuación f(x) = 1- 4x + 6x2 - 4x3 + x4 = 0 (3.3.18) también presenta serias dificultades con el Método Newton-Raphson, pues aunque sus cuatro raíces son todas iguales a 1, con un valor inicial X0 = 1.0, f(1) = 0 y f’(1) = 0; a medidaque el valor de X1 se acerca a 1.0, el algoritmo falla con un mensaje de división porcero. La ecuación 3.3.18 deberáresolverse por otro método o por el Método Newton-Raphson Modificado.

EELL CCOONNCCEEPPTTOO DDEE OORRDDEENN DDEE CCOONNVVEERRGGEENNCCIIAA. Sean x0, x1, x2, . . . xn ≡ ⎨xi⎬ i = 1,2,..,n una secuencia que converge, es decirse aproxima o tiende, a r ; y sea en = xn – r ⇒ r = xn – en (3.3.19). Si existe un número m y una constante C ≠ 0(distinta de cero), tal que sumple el siguiente límite8:

entonces m es llamado orden de convergencia de la secuencia, y C el error asintótico constante. Para m = 1,2,3, laconvergencia se dice lineal, cuadrática y cúbica, respectivamente.

AANNÁÁLLIISSIISS DDEE CCOONNVVEERRGGEENNCCIIAA DDEELL MMÉÉTTOODDOO NNEEWWTTOONN--RRAAPPHHSSOONN. Sean x0, x1, x2, xi,. . , xn, xn+1 las aproximacionesen las sucesivas iteraciones del Método Newton-Raphson. Sea r el verdadero valor de la raíz. Llámese al error en la n-ésima iteración como en. Entonces, se cumple que: en = xn – r (3.3.21); por lo tanto, también se puede escribir que:

Por otro lado, con la expansión de f(xn - en) en serie de Taylor se obtiene que: f(xn - en) = f(xn) - f'(xn)en + (f"(c)/2) en2 (3.323); y empleando 3.3.19 y 3.3.21 da que: f(r) = f(xn) - en f'(xn) + (f"(c)/2)en2, pero si r es la raíz, entonces: 0 = f(xn) - en f'(xn) + (f"(c)/2)en2 ⇒ enf'(xn) - f(xn) = (f"(c)/2)en2 (3.3.23)

De las ecuaciones 3.322 y 3.3.23 se puede escribir que:

en+1 = (f"(c)/2)en2/f'(xn) = (1/2)(f"(c)/ f'(xn))en2 ⇒ en+1 = C en2, siendo C = (1/2)(f"(c)/f'(xn))

Lo cual implica que: en+1| <= |C| |en|2 ⇒ |xn+1 - r| ≤ |C| |xn - r|2

La relación 3.3.24 implica que el Método Newton-Raphson tiene convergencia cuadrática. Es decir, que si se empiezacon una aproximación que tiene 3 cifras significativas, se obtiene -en una sola iteración- una nueva aproximación con 6cifras significativas. Esto contrasta con el Método Bisección, el cual que requiere –al menos- 3 iteraciones para agregaruna cifra significativa màs a la aproximación de la raíz.

0 8 Donley, H. Edwuard: «Lectures on Numerical Methods, Newton Method», Indiana University of Pennsylvania, 2001,

http://www.ma.iup.edu/projects/CalcDEMma/newton. // Smith, Mark D.: «Newton-Raphson Technique», 1998, CBLU, University of Leeds,http://web.mit.edu/10.001/Web/Course_Notes/NLAE. // Weisstein, Eric W.: «Newton's Method» From MathWorld--A Wolfram Web Resource, 1999 -2006. http://mathworld.wolfram.com/NewtonsMethod.html.

)()(

2 xtanxtanxxx −

+= (3.3.17)

Ce

em

n

n

nlim =+

∞→

1 (3.3.20)

( )( ) rxfxfx

n

nn −

′−en+1 = xn+1 - r =

( )( )n

nn xf

xfrx′

−−=( )( )n

nn xf

xfe′

−=( ) ( )( )

( )n

nnn

xfxfxfe

′−′

= (3.3.22)

(3.3.24)

Page 29: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 29 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

OOTTRRAASS AAPPLLIICCAACCIIOONNEESS DDEELL MMÉÉTTOODDOO DDEE NNEEWWTTOONN--RRAAPPHHSSOONN

• En la tabla 3.3.2 se presenta los resultados de aplicar el algoritmo del Método Newton-Raphson apara hallar una raízde la función f(x) = x6 – x – 1 = 0; el valor inicial, xo, es xo = 1; el nivel de precisión es ε ≤ 10-8.

• Aplicando el Método Newton-Raphson a las raíces de cualquier polinomio de grado dos o mayor , da un MapaRacional de C, campo de los números complejos, y el Conjunto Julia9 de dicho mapa es un Fractal (véase lafigura 3.3.7)10 cuando hayan tres o más distintas raíces. Iterando el método para las raíces de la ecuación Zn – 1 = 0, con el punto inicial zo, da la siguiente ecuación11:

Puesto que la ecuación 3.3.6 (Mandelbrot 1983, Gleick 1988, Peitgen and Saupe 1988, Press et al. 1992, Dickau 1997) esun polinomio de orden n, hay n raíces a las cuales el algoritmo puede converger. Coloreando «la base de atracción»,esdecir el conjunto de puntos iniciales zo que converge a la misma raíz, para cada raíz se obtiene un color diferente,obteniéndose este fractal mostrado en la figura 3.3.7.

0 9 Tomova, Anna : «The application of Julia set to Newton-secants method», Applications of mathematics in engineering and economics (Sozopol, 1999),

94--95, Heron Press, Sofia, 2000, Math. Sci. Net.10 Cartwright,J.H.E.: «Newton maps: fractals from Newton's method for the circle map», Computers and Graphics, August 1999, vol. 23, no. 4, pp. 607-

612(6), Ingenta.11 Eric W. Weisstein: «Newton's Method», From MathWorld--A Wolfram Web Resource, 199-2005. http://mathworld.wolfram.com/NewtonsMethod.html

(3.3.14)

FFIIGGUURRAA 33..33..77 Fractales formados con el Métodode Newton-Raphson.

TTAABBLLAA 33..33..22 Raíz de f(x) = x6 – x – 1 = 0 con el Método Newton-Raphson (Paul Gray, 1998).

Page 30: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 30 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Los fractales también surgen de mapas no-polinómicos. La figura 3.3.8 muestra el número de iteraciones necesarias querequiere la convergencia del mëtodo de Newton-Raphson para la función Z2 – 2z (3.3.15), figura 3.3.8(a), (D. Cross, pers.comm., Jan. 10, 2005) y Z3 – 3z (3.3.16), figura 3.3.8 (b). La figura 3.3.9 presenta otro ejemplo de fractales.

La figura 3.3.9 es otro ejemplo de la generación de fractales12.

• La siguiente lista presenta una selección de aplicaciones y desarrollos teóricos basados en el Método Newton-Raphson13. Realmente, sólo dan idea del inmenso efecto y de las investigaciones que se prosiguen con base alMétodo Newton-Raphson.

• Recursos de la Internet:

1. Roots and Newton's AlgorithmUndergraduate Computational Engineering and Science, The Department of Energy (DOE), Krell Institute

0 12 Weisstein, Eric: «World of Mathematics», a Wolfram web resources, 2003, mathworld.wolfram.com. // Donley, H. Edward: «Fractals and Newton

Method», Mathematical Department, Indiana University of Pennsylvania, USA, http://www.ma.iup.edu/projects/CalcDEMma/newton/, 2001 – 2006.13 The Free Dictionary by Farlex, Copyright © 2006 Farlex, Inc., http://encyclopedia.thefreedictionary.com/Root-finding+algorithm. // Mathews, John H.

And Fink, Kurtis D.: «Numerical Methods, Numerical Analysis Project», Department of Mathematics, California State University Fullerton, , 2004 - 2006.

(a) (b)

FFIIGGUURRAA 33..33..88 Fractales formados (a) con la ecuación 3.3.15; (b) con la ecuación 3.3.16.

FFIIGGUURRAA 33..33..99 Otro ejemplo de Fractales.

Page 31: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 31 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

2. Método de Newton-Raphson para la búsqueda de raícesJamie Campos, Escuela de Ingeniería, Facultad de Ciencias Físicas y Matemáticas, Universidad de Chile

3. Método de NewtonCarlos Bertulani, Instituto de Fisica, Universidade Federal do Rio de Janeiro, Brasil

4. Newton's MethodJ. C. Diaz, Univerisity of Tulsa, Tulsa, Oklahoma

5. Newton's MethodJohn Burkardt, Pittsburgh Supercomputing Center, Carnegie Mellon University, Pittsburgh, PA

6. Newton's Iteration Method for Solution of Nonlinear EquationsU.S.Geological Survey Water-Resources Investigations Report 96-4240

7. A Symbolic Newton-Raphson Method of Finding RootsMarc A. Murison, Astronomical Applications Department, U.S. Naval Observatory

8. Locating Roots of Functions Using the Newton-Raphson MethodSaul I. Drobnies, San Diego State University, San Diego, CA

9. Newton's MethodH. Edward Donley, Indiana University of Pennsylvania, Indiana, PA

10. Visual Calculus, Newton's MethodLawrence S. Husch, University of Tennessee, Knoxville, TN

11. Finding the Minimum Using Newton’s MethodFood and Resource Economics, University of Florida, Gainesville, FL

12. Newton's Method for solving equationsHarel Barzilai, University of Minnesota, Minneapolis, MN

13. Newton-Raphson TechniqueMark D Smith, Math. Dept., Massachusetts Institute of Technology, Cambridge, MA

14. Converging Rate of Newton and Secant methodJin Wenlong, Math. Dept., University of California Davis, CA

15. The Newton FractalSaul I. Drobnies, San Diego State University, San Diego, CA

16. Newton Basins for a cubicDavid E. Joyce, Clark University, Worcester, Massachusetts

17. Newton's methodWilliam A.Cooper, National Center for Atmospheric Research, Boulder, CO

18. Newton-Raphson MethodStephen Holst, Dept. of Civil Engineering, University of Colorado, Boulder, CO

19. Solution of Systems of Equations, The Newton-Raphson methodWilliam A.Cooper, National Center for Atmospheric Research, Boulder, CO

20. Newton's MethodStephan Houben, Dept. of Math. & Comp. Sci., Eindhoven University of Technology, The Netherlands

21. Newton Raphson Method (N-R Method)Juan Restrepo, Math. Dept., University of Arizona, Tucson, AZ

22. Solving the cubic equation by the Newton-Raphson methodDept. of Chemistry and Biochemistry, University of South Carolina, Columbia, SC

23. Newton-RaphsonStuart Dalziel, University of Cambridge, Cambridge, England

24. The Newton-Raphson iterative methodR. J. Hosking, Mahidol University, Mahidol University, Bangkok, Thailand

25. Newton's MethodDavid Austin, Department of Mathematics, University of British Columbia, Vancouver, B.C., Canada

26. Newton-Raphson Method using derivativesInformatics and Telematics Institute, Thermi-Thessaloniki, Greece

27. Newton-Raphson method for nonlinear systems of equationsInformatics and Telematics Institute, Thermi-Thessaloniki, Greece

Page 32: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 32 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

• Otros Recursos biliográficos:

1. Some variant of Newton's method with third-order convergenceFrontini M.; Sormani E.Applied Mathematics and Computation, 10 August 2003, vol. 140, no. 2, pp. 419-426(8), Ingenta.

2. Dynamics of Newton's method for solving some equationsJeong M.; Ok Kim G.; Kim S.Computers and Graphics, April 2002, vol. 26, no. 2, pp. 271-279(9), Ingenta.

3. Kepler equation and accelerated Newton methodPalacios M.Journal of Computational and Applied Mathematics, 15 January 2002, vol. 138, no. 2, pp. 335-346(12), Ingenta.

4. An acceleration of Newton's method: Super-Halley methodGutierrez J.M.; Hernandez M.A.Applied Mathematics and Computation, 25 January 2001, vol. 117, no. 2, pp. 223-239(17), Ingenta.

5. Variable dimension Newton-Raphson methodNg, S. W.; Lee, Y. S.IEEE Trans. Circuits Systems I Fund. Theory Appl. 47 (2000), no. 6, 809--817, Math. Sci. Net.

6. The theory of Newton's methodGalantai A.Journal of Computational and Applied Mathematics, 1 December 2000, vol. 124, no. 1, pp. 25-44(20), Ingenta.

7. From Square Roots to n-th Roots: Newton's Method in DisguiseW. M. PriestleyCollege Math Journal: Volume 30, Number 5, (1999), Pages: 387-388.

8. Computing Square Roots Fast: Illustrating the Cubic Order of ConvergenceJohn Mathews; Russell HowellInternational Journal of Mathematics Education in Science and Technology, 1999, Vol. 30, No. 2, pp. 289-293.

9. Variations on a Theme of NewtonRobert M. CorlessMathematics Magazine: Volume 29, Number 1, (1998), Pages: 34-41.

10. The Newton and Halley Methods for Complex RootsLily Yau and Adi Ben-IsraelAmerican Mathematical Monthly, Vol. 105, No. 9, (November, 1998), pp. 806-818, Jstor.

11. A Continuous Version of Newton's MethodSteve HetzlerCollege Math Journal: Volume 28, Number 5, (1997), Pages: 348-35.

12. An improvement of convergence in Newton's methodLopez S.Computer Methods in Applied Mechanics and Engineering, 30 June 1997, vol. 145, no. 3, pp. 323-327(5),Ingenta.

13. Accelerated Convergence in Newton's Method (in Classroom Notes)William F. Ford, James A. PennlineSIAM Review, Vol. 38, No. 4. (Dec., 1996), pp. 658-659, Jstor.

14. Newton's Method for Resolving Affected EquationsChris ChristensonCollege Math Journal: Volume 27, Number 5, (1996), Pages: 330-340.

15. An example of the secant method of iterative approximation in a fifteenth-century Sanskrit textPlofker, KimHistoria Math. 23 (1996), no. 3, 246--256, Math. Sci. Net.

16. The Dynamics of Newton's Methos for Cubic PolynomialsJames A. WalshCollege Math Journal: Volume 26, Number 1, (1995), Pages: 22-27.

17. On the Geometry of Halley's MethodT. R. Scavo, J. B. ThooAmerican Mathematical Monthly, Vol. 102, No. 5. (May, 1995), pp. 417-426, Jstor.

18. Historical Development of the Newton-Raphson MethodTjalling J. YpmaSIAM Review, Vol. 37, No. 4. (Dec., 1995), pp. 531-551, Jstor.

Page 33: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 33 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

19. Average-Case Optimality of a Hybrid Secant-Bisection MethodErich Novak, Klaus Ritter, Henryk WozniakowskiMathematics of Computation, Vol. 64, No. 212. (Oct., 1995), pp. 1517-1539, Jstor

20. A generalized Newton-Raphson method using curvatureLee, In-Won; Jung, Gil-HoComm. Numer. Methods Engrg. 11 (1995), no. 9, 757--763, Math. Sci. Net.

21. Newton Raphson method, scaling at fractal boundaries and MathematicaBisoi, A. K.Math. Comput. Modelling 21 (1995), no. 10, 91--102, Math. Sci. Net.

22. Historical Development of the Newton-Raphson MethodTjalling J. YpmaSIAM Review, Vol. 37, No. 4. (Dec., 1995), pp. 531-551, Jstor.

23. Approximate Zeros of Quadratically Convergent AlgorithmsPengyuan ChenMathematics of Computation, Vol. 63, No. 207. (Jul., 1994), pp. 247-270, Jstor.

24. Accelerated Convergence in Newton's Method (in Classroom Notes)Jurgen GerlachSIAM Review, Vol. 36, No. 2. (Jun., 1994), pp. 272-276, Jstor.

25. Pathological Functions for Newton's MethodGeorge C. Donovan, Arnold R. Miller, Timothy J. MorelandAmerican Mathematical Monthly, Vol. 100, No. 1. (Jan., 1993), pp. 53-58, Jstor.

26. The Secant Method and the Golden Mean (in Notes)Melvin J. Maron, Robert J. LopezAmerican Mathematical Monthly, Vol. 100, No. 7. (Aug. - Sep., 1993), pp. 676-678, Jstor.

27. Using the Secant Method to Approximate the Roots of an EquationPeter Lochiel GliddenSchool Science and Mathematics, Vol. 93, No. 1, (1993), pp. 5-8.

28. On the Superlinear Convergence of the Secant MethodMarco Vianello, Renato ZanovelloAmerican Mathematical Monthly, Vol. 99, No. 8. (Oct., 1992), pp. 758-761, Jstor

29. The Modified Newton Method in the Solution of Stiff Ordinary Differential EquationsRoger AlexanderMathematics of Computation, Vol. 57, No. 196. (Oct., 1991), pp. 673-701, Jstor.

30. A Gauss-Newton Method for Nonlinear RegressionM. N. Ediger, Food and Drug AdministrationThe Mathematica Journal, Vol. 1, No. 2, (Fall 1990), pp 42-44.

31. On the R-Order of Newton-Like Methods for Enclosing Solutions of Nonlinear EquationsAndreas Frommer, Gunter MayerSIAM Journal on Numerical Analysis, Vol. 27, No. 1. (Feb., 1990), pp. 105-116, Jstor.

32. A parabolic extension of Newton's methodSheldon P. Gordon and Ellis R. Von EschenInt. J. Math. Educ. Sci. Technol.,Vol. 21, No. 4, (1990), pp. 519-525.

33. An Improved Newton's MethodJohn MathewsThe AMATYC Review, Vol. 10, No. 2, (Spring, 1989), pp. 9-14.

34. On Halley-Like Algorithms for Simultaneous Approximation of Polynomial Complex ZerosMiodrag S. PetkovicSIAM Journal on Numerical Analysis, Vol. 26, No. 3. (Jun., 1989), pp. 740-763, Jstor.

35. A Pointwise Quasi-Newton Method for Integral EquationsC. T. Kelley; J. I. NorthrupSIAM Journal on Numerical Analysis, Vol. 25, No. 5. (Oct., 1988), pp. 1138-1155, Jstor.

36. Newton's nth Root Method Without DerivativesDavid A. SmithCollege Math Journal: Volume 18, Number 5, (1987), Pages: 403-406.

37. Complex Roots of Polynomials by Newton-Raphson MethodR. D. MurphyJournal of Computers in Mathematics and Science Teaching, (1987), pp. 44-45.

Page 34: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 34 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

38. A Nonmonotone Line Search Technique for Newton's MethodL. Grippo, F. Lampariello, S. LucidiSIAM Journal on Numerical Analysis, Vol. 23, No. 4. (Aug., 1986), pp. 707-716, Jstor.

39. Newton's Method and the Jenkins-Traub AlgorithmR. N. PedersonProceedings of the American Mathematical Society, Vol. 97, No. 4. (Aug., 1986), pp. 687-690, Jstor.

40. Attracting Orbits in Newton's MethodMike HurleyTransactions of the American Mathematical Society, Vol. 297, No. 1. (Sep., 1986), pp.143-158, Jstor.

41. Complex Roots: The Bairstow-Hitchcock MethodClark KimberlingThe Mathematics Teacher, Vol. 79, No. 4, (April, 1986), pp. 278-282.

42. Pitfalls in the Use of Computers for the Newton-Raphson MethodD. Mackie and T. ScottThe Mathematical Gazette, Vol. 69, no. 450, (Dec., 1985), pp. 252-257.

43. Newton-Raphson in reverseDavies, M.Math. Student 47 (1979), no. 2-4, 149--150 (1985), Math. Sci. Net.

44. On Halley's Iteration Method (in Notes)Walter GanderAmerican Mathematical Monthly, Vol. 92, No. 2. (Feb., 1985), pp. 131-134, Jstor.

45. An Approximate Newton Method for Coupled Nonlinear SystemsTony F. ChanSIAM Journal on Numerical Analysis, Vol. 22, No. 5. (Oct., 1985), pp. 904-913, Jstor.

46. A generalization of Newton RaphsonMacLeod, Allan J.Internat. J. Math. Ed. Sci. Tech. 15 (1984), no. 1, 117--120, Math. Sci. Net.

47. Newton's Method and Symbolic DynamicsSherman WongProceedings of the American Mathematical Society, Vol. 91, No. 2. (Jun., 1984), pp. 245-253, Jstor.

48. On the Convergence of some Interval-Arithmetic Modifications of Newton's MethodG. AlefeldSIAM Journal on Numerical Analysis, Vol. 21, No. 2. (Apr., 1984), pp. 363-372, Jstor.

49. Newton's Method, Circle Maps, and Chaotic MotionDonald G. Saari, John B. UrenkoAmerican Mathematical Monthly, Vol. 91, No. 1. (Jan., 1984), pp. 3-17, Jstor.

50. Aitken Sequences and Fibonacci NumbersG. M. PhillipsAmerican Mathematical Monthly, Vol. 91, No. 6. (Jun. - Jul., 1984), pp. 354-357, Jstor.

51. A Nonconverging Newton SequencePeter PetekMathematics Magazine: Volume 14, Number 1, (1983), Pages: 43-45.

52. A New Acceleration Method for Newton's Method at Singular PointsC. T. Kelley, R. SureshSIAM Journal on Numerical Analysis, Vol. 20, No. 5. (Oct., 1983), pp. 1001-1009, Jstor.

53. Convergence Rates for Newton's Method at Singular PointsD. W. Decker, H. B. Keller, C. T. KelleySIAM Journal on Numerical Analysis, Vol. 20, No. 2. (Apr., 1983), pp. 296-314, Jstor.

54. Analysis of Newton's Method at Irregular SingularitiesA. Griewank, M. R. OsborneSIAM Journal on Numerical Analysis, Vol. 20, No. 4. (Aug., 1983), pp. 747-773, Jstor.

55. Local Convergence of Difference Newton-Like MethodsT. J. YpmaMathematics of Computation, Vol. 41, No. 164. (Oct., 1983), pp. 527-536, Jstor.

56. Finding a Multiple Zero by Transformations and Newton-Like MethodsT. J. YpmaSIAM Review, Vol. 25, No. 3. (Jul., 1983), pp. 365-378, Jstor.

Page 35: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 35 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

57. Global Convergence of a Modified Newton Iteration for Algebraic EquationsKazuo MurotaSIAM Journal on Numerical Analysis, Vol. 19, No. 4. (Aug., 1982), pp. 793-799, Jstor.

58. Newton-Raphson ExtendedNeville W. RichardsThe Mathematical Gazette, Vol. 65, no. 434, (Dec., 1981), pp. 294-295.

59. On the Convergence of Halley's Method (in Classroom Notes)G. AlefeldAmerican Mathematical Monthly, Vol. 88, No. 7. (Aug. - Sep., 1981), pp. 530-536, Jstor.

60. Optimal Partitioning of Newton's Method for Calculating RootsGunter Meinardus, G. D. TaylorMathematics of Computation, Vol. 35, No. 152. (Oct., 1980), pp. 1221-1230, Jstor.

61. Be Careful When You Dodge Round NewtonF. M. ArscottThe Mathematical Gazette, Vol. 63, no. 425, (Oct., 1979), pp. 169-172.

62. Inverse Iteration, Ill-Conditioned Equations and Newton's MethodG. Peters, J. H. WilkinsonSIAM Review, Vol. 21, No. 3. (Jul., 1979), pp. 339-360, Jstor.

63. Affine Invariant Convergence Theorems for Newton's Method and Extensions to Related MethodsP. Deuflhard, G. HeindlSIAM Journal on Numerical Analysis, Vol. 16, No. 1. (Feb., 1979), pp. 1-10, Jstor.

64. On Newton's Method for Singular ProblemsG. W. ReddienSIAM Journal on Numerical Analysis, Vol. 15, No. 5. (Oct., 1978), pp. 993-996, Jstor.

65. Ideas and examples for presenting the Newton-Raphson methodHart, V. G.; Howard, L. N.Austral. Math. Soc. Gaz. 5 (1978), no. 3, 73--89, Math. Sci. Net.

66. Sufficient conditions for elementary Newton-Raphson convergenceSpeck, G. P.New Zealand Math. Mag. 14 (1977), no. 1, 34--36, Math. Sci. Net.

67. On Halley's Variation of Newton's Method (in Classroom Notes)George H. Brown, Jr.American Mathematical Monthly, Vol. 84, No. 9. (Nov., 1977), pp. 726-728, Jstor.

68. A Stable Variant of the Secant Method for Solving Nonlinear EquationsW. B. Gragg, G. W. StewartSIAM Journal on Numerical Analysis, Vol. 13, No. 6. (Dec., 1976), pp. 889-903, Jstor.

69. A Note on the Convergence of Newton's MethodL. B. RallSIAM Journal on Numerical Analysis, Vol. 11, No. 1. (Mar., 1974), pp. 34-36, Jstor.

70. Cycling in the Newton-Raphson algorithmAscher, MarciaInternat. J. Math. Ed. Sci. Tech. 5 (1974), no. 2, 229--235, Math. Sci. Net.

71. The Use of the Secant Method in Econometric ModelsJ. Phillip Cooper, Stanley FischerThe Journal of Business, Vol. 46, No. 2. (Apr., 1973), pp. 274-277, Jstor.

72. The Kantorovich Theorem for Newton's Method (in Classroom Notes)R. A. TapiaAmerican Mathematical Monthly, Vol. 78, No. 4. (Apr., 1971), pp. 389-392, Jstor.

73. Global Convergence of Newton-Gauss-Seidel MethodsJorge J. MoreSIAM Journal on Numerical Analysis, Vol. 8, No. 2. (Jun., 1971), pp. 325-336, Jstor.

74. The Simultaneous Newton Improvement of a Complete Set of Approximate Factors of a PolynomialA. A. GrauSIAM Journal on Numerical Analysis, Vol. 8, No. 2. (Jun., 1971), pp. 425-438, Jstor.

75. Generalized Logarithmic Error and Newton's Method for the mth RootDavid L. PhillipsMathematics of Computation, Vol. 24, No. 110. (Apr., 1970), pp. 383-389, Jstor.

Page 36: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 36 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

76. On Aitken' s d^2 Method (in Mathematical Notes)Simeon ReichAmerican Mathematical Monthly, Vol. 77, No. 3. (Mar., 1970), pp. 283-284, Jstor.

77. Geometrical Aspects of Newton's MethodWalter JenningsMathematics Magazine, Vol. 42, No. 5. (Nov., 1969), pp. 262-266, Jstor.

78. Optimal Starting Approximations for Newton's MethodP. H. Sterbenz, C. T. FikeMathematics of Computation, Vol. 23, No. 106. (Apr., 1969), pp. 313-318, Jstor.

79. A Quadratically Convergent Newton-Like Method Based Upon Gaussian EliminationKenneth M. BrownSIAM Journal on Numerical Analysis, Vol. 6, No. 4. (Dec., 1969), pp. 560-569, Jstor.

80. On the Kantorovich Hypothesis for Newton's MethodJ. E. Dennis, Jr.SIAM Journal on Numerical Analysis, Vol. 6, No. 3. (Sep., 1969), pp. 493-507, Jstor.

81. A Modified Newton-Raphson Iteration (in Classroom Notes)Walter JenningsAmerican Mathematical Monthly, Vol. 75, No. 6. (Jun. - Jul., 1968), pp. 652-654, Jstor.

82. On Steffensen's MethodL. W. Johnson, D. R. ScholzSIAM Journal on Numerical Analysis, Vol. 5, No. 2. (Jun., 1968), pp. 296-302, Jstor.

83. Optimal Starting Values for the Newton-Raphson Calculation of Inverses of Certain FunctionsD. G. Moursund, G. D. TaylorSIAM Journal on Numerical Analysis, Vol. 5, No. 1. (Mar., 1968), pp. 138-150, Jstor.

84. On Newton-Raphson Iteration (in Classroom Notes)J. F. TraubAmerican Mathematical Monthly, Vol. 74, No. 8. (Oct., 1967), pp. 996-998, Jstor.

85. Monotone Iterations for Nonlinear Equations with Application to Gauss-Seidel MethodsJames M. Ortega, Werner C. RheinboldtSIAM Journal on Numerical Analysis, Vol. 4, No. 2. (Jun., 1967), pp. 171-190, Jstor.

86. Newton's Method for Convex Operators in Partially Ordered SpacesJames S. VandergraftSIAM Journal on Numerical Analysis, Vol. 4, No. 3. (Sep., 1967), pp. 406-432, Jstor.

87. On Newton's Method and Nonlinear Simultaneous DisplacementsJ. E. Dennis, Jr.SIAM Journal on Numerical Analysis, Vol. 4, No. 1. (Mar., 1967), pp. 103-108, Jstor.

88. A Stationary Newton Method for Nonlinear Functional EquationsJ. E. Dennis, Jr.SIAM Journal on Numerical Analysis, Vol. 4, No. 2. (Jun., 1967), pp. 222-232, Jstor.

89. Note on Newton's MethodL. M. WeinerMathematics Magazine, Vol. 39, No. 3. (May, 1966), pp. 143-145, Jstor.

90. On a Discrete Version of the Newton-Raphson MethodLeon WeggeSIAM Journal on Numerical Analysis, Vol. 3, No. 1. (Mar., 1966), pp. 134-142, Jstor.

91. Nonlinear Difference Equations and Gauss-Seidel Type Iterative MethodsJames M. Ortega, Maxine L. RockoffSIAM Journal on Numerical Analysis, Vol. 3, No. 3. (Sep., 1966), pp. 497-513, Jstor.

92. On Discretization and Differentiation of Operators with Application to Newton's MethodJames M. Ortega, Werner C. RheinboldtSIAM Journal on Numerical Analysis, Vol. 3, No. 1. (Mar., 1966), pp. 143-156, Jstor.

93. Convergence of the Newton-Raphson method for arbitrary polynomialsLancaster, P.Math. Gaz. 48, (1964), 291--295, Math. Sci. Net.

94. On the Utility of Newton's Method for Computing Complex Roots of Equations (in Technical Notes and ShortPapers)I. M. LongmanMathematics of Computation, Vol. 14, No. 70. (Apr., 1960), pp. 187-189, Jstor.

Page 37: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 37 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

95. Taylor's Theorem and Newton's Method (in Classroom Notes)F. D. ParkerAmerican Mathematical Monthly, Vol. 66, No. 1. (Jan., 1959), p. 51, Jstor.

96. A modified Newton-Raphson process for approximation of multiple roots of polynomialsMilnes, Harold WillisIndust. Math. 9, (1958), no. 2, 17--26, Math. Sci. Net.

97. Newton's Method and Multiple RootsThomas E. MottAmerican Mathematical Monthly, Vol. 64, No. 9. (Nov., 1957), pp. 635-638, Jstor.

98. Newton's Method for Trigonometry Students (in Classroom Notes)J. P. BallantineAmerican Mathematical Monthly, Vol. 63, No. 10. (Dec., 1956), p. 722, Jstor.

99. Newton's Method in Banach SpacesRobert G. BartleProceedings of the American Mathematical Society, Vol. 6, No. 5. (Oct., 1955), pp. 827-831, Jstor.

100. Another Variation of Newton's Method (in Classroom Notes)J. K. StewartAmerican Mathematical Monthly, Vol. 58, No. 5. (May, 1951), pp. 331-334, Jstor.

101. A Type of Variation on Newton's MethodH. J. HamiltonAmerican Mathematical Monthly, Vol. 57, No. 8. (Oct., 1950), pp. 517-522, Jstor.

102. Notes on the Graeffe Method of Root Squaring (in Mathematical Notes)G. C. BestAmerican Mathematical Monthly, Vol. 56, No. 2. (Feb., 1949), pp. 91-94, Jstor.

103. A Modification of Newton's Method (in Classroom Notes)H. S. WallAmerican Mathematical Monthly, Vol. 55, No. 2. (Feb., 1948), pp. 90-94, Jstor.

104. On the Newton-Raphson method of approximationRichmond, H. W.Edinburgh Math. Notes 1944 (1944). no. 34, 5--8, Math. Sci. Net.

105. New Criteria for Accuracy in Approximating Real Roots by the Newton-Raphson MethodMyron G. PawleyNational Mathematics Magazine, Vol. 15, No. 3. (Dec., 1940), pp. 111-120, Jstor.

106. On the Graeffe Method of Solution of EquationsL. L. CronvichAmerican Mathematical Monthly, Vol. 46, No. 4. (Apr., 1939), pp. 185-190. Jstor.

107. Haley's Methods for Solving EquationsHarry BatemanAmerican Mathematical Monthly, Vol. 45, No. 1. (Jan., 1938), pp. 11-17, Jstor.

108. On the Convergence of Newton's Method of Approximation (in Questions, Discussions, and Notes)G. T. CoateAmerican Mathematical Monthly, Vol. 44, No. 7. (Aug. - Sep., 1937), pp. 464-466, Jstor.

109. Graeffe's Method and Complex Roots (in Questions, Discussions, and Notes)B. A. HausmannAmerican Mathematical Monthly, Vol. 43, No. 4. (Apr., 1936), pp. 225-229. Jstor.

110. On Graeffe's Method for the Numerical Solution of Algebraic EquationsC. A. HutchinsonAmerican Mathematical Monthly, Vol. 42, No. 3. (Mar., 1935), pp. 149-161, Jstor.

111. On Newton's Method of ApproximationHenry B. FineProceedings of the National Academy of Sciences of the United States of America, Vol. 2, No. 9. (Sep. 15, 1916),pp. 546-552, Jstor.

112. Newton's Method in General AnalysisAlbert A. BennettProceedings of the National Academy of Sciences of the United States of America, Vol. 2, No. 10. (Oct. 15,1916), pp. 592-598, Jstor.

113. Historical Note on the Newton-Raphson Method of ApproximationFlorian CajoriAmerican Mathematical Monthly, Vol. 18, No. 2. (Feb., 1911), pp. 29-32, Jstor.

Page 38: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 38 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

114. On Newton's Method of Approximation (in Notes)F. FranklinAmerican Journal of Mathematics, Vol. 4, No. 1/4. (1881), pp. 275-276, Jstor.

115. On Sir Isaac Newton's Method of Finding the Limits of the Roots of Equations. [Abstract]Herbert Panmure RibtonAbstracts of the Papers Communicated to the Royal Society of London, Vol. 5. (1843 - 1850), p. 630, Jstor.

• Desarrollos Teóricos y Aplicaciones:

1. On a theorem of L.V. Kantorovich concerning Newton's methodArgyros I.K.Journal of Computational and Applied Mathematics, 15 June 2003, vol. 155, no. 2, pp. 223-230(8), Ingenta.

2. Predictor-Corrector Smoothing Newton Method, Based on a New Smoothing Function, for Solving the NonlinearComplementarity Problem with a P0 FunctionHuang Z.H.; Han J.; Chen Z.Journal of Optimization Theory and Applications, April 2003, vol. 117, no. 1, pp. 39-68(30), Ingenta.

3. The Inexact Newton-Like Method for Inverse Eigenvalue ProblemChan R.H.; Chung H.L.; Xu S.-F.Bit Numerical Mathematics, March 2003, vol. 43, no. 1, pp. 7-20(14), Ingenta.

4. Structured Secant Method Based on a New Quasi-Newton Equation for Nonlinear Least Squares ProblemsZhang J.Z.; Xue Y.; Zhang K.Bit Numerical Mathematics, March 2003, vol. 43, no. 1, pp. 217-229(13), Ingenta.

5. A penalty/Newton/conjugate gradient method for the solution of obstacle problemsGlowinski R.; Kuznetsov Y.A.; Pan T.-W.Comptes Rendus Mathematique, 1 March 2003, vol. 336, no. 5, pp. 435-440(6), Ingenta.

6. Global Linear and Quadratic One-step Smoothing Newton Method for P0-LCPZhang L.; Zhang X.Journal of Global Optimization, April 2003, vol. 25, no. 4, pp. 363-376(14), Ingenta.

7. Some variant of Newton's method with third-order convergenceFrontini M.; Sormani E.Applied Mathematics and Computation, 10 August 2003, vol. 140, no. 2, pp. 419-426(8), Ingenta.

8. The Newton-arithmetic mean method for the solution of systems of nonlinear equationsGalligani E.Applied Mathematics and Computation, 10 January 2003, vol. 134, no. 1, pp. 9-34(26), Ingenta.

9. Simultaneous Point Estimates for Newton's MethodBatra P.Bit Numerical Mathematics, 2002, vol. 42, no. 3, pp. 467-476(10), Ingenta.

10. Modified Newton method for reactive dispatchingda Costa G.R.M.International Journal of Electrical Power and Energy Systems, December 2002, vol. 24, no. 10, pp. 815-819(5),Ingenta.

11. Solving a Boundary Value Problem by a Newton-Like MethodEzquerro J.A.; Herna´ndez M.A.; Salanova M.A.International Journal of Computer Mathematics, 1 January 2002, vol. 79, no. 10, pp. 1113-1120(8), Ingenta.

12. Iteratively regularized Gauss-Newton method for atmospheric remote sensingDoicu A.; Schreier F.; Hess M.Computer Physics Communications, 15 October 2002, vol. 148, no. 2, pp. 214-226(13), Ingenta.

13. The Geometry of the Newton Method on Non-Compact Lie GroupsMahony R.; Manton J.H.Journal of Global Optimization, August 2002, vol. 23, no. 3-4, pp. 309-327(19), Ingenta.

14. On the solution of three-dimensional inverse obstacle acoustic scattering problems by a regularized NewtonmethodFarhat C.; Tezaur R.; Djellouli R.Inverse Problems, 2002, vol. 18, no. 5, pp. 1229-1246(18), Ingenta.

15. On the Gauss--Newton method for l1 orthogonal distance regressionWatson G.A.IMA Journal of Numerical Analysis, July 2002, vol. 22, no. 3, pp. 345-357(13), Ingenta.

Page 39: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 39 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

16. Dynamics of Newton's method for solving some equationsJeong M.; Ok Kim G.; Kim S.Computers and Graphics, April 2002, vol. 26, no. 2, pp. 271-279(9), Ingenta.

17. A Globally Convergent Smoothing Newton Method for Nonsmooth Equations and Its Application toComplementarity ProblemsTaji K.; Miyamoto M.Computational Optimization and Applications, April 2002, vol. 22, no. 1, pp. 81-101(21), Ingenta.

18. Smoothing Functions and Smoothing Newton Method for Complementarity and Variational Inequality ProblemsQi L.; Sun D.Journal of Optimization Theory and Applications, April 2002, vol. 113, no. 1, pp. 121-147(27), Ingenta.

19. Modelling the three-way catalytic converter with mechanistic kinetics using the Newton-Krylov method on aparallel computerMukadi L.S.; Hayes R.E.Computers and Chemical Engineering, 15 March 2002, vol. 26, no. 3, pp. 439-455(17), Ingenta.

20. Bifurcation analysis of incompressible flow in a driven cavity by the Newton-Picard methodTiesinga G.; Wubs F.W.; Veldman A.E.P.Journal of Computational and Applied Mathematics, 1 March 2002, vol. 140, no. 1, pp. 751-772(22), Ingenta.

21. Kepler equation and accelerated Newton methodPalacios M.Journal of Computational and Applied Mathematics, 15 January 2002, vol. 138, no. 2, pp. 335-346(12), Ingenta.

22. A direct Newton method for calculus of variationsLevin1 Y.; Nediak M.; Ben-Israel A.Journal of Computational and Applied Mathematics, 15 February 2002, vol. 139, no. 2, pp. 197-213(17), Ingenta.

23. Newton-Raphson Method and Stability of Nonlinear Information Image-Recovery TechniquesBajkova A.T.Radiophysics and Quantum Electronics, October 2001, vol. 43, no. 10, pp. 805-816(12), Ingenta.

24. A Newton method for systems of m equations in n variablesLevin Y.; Ben-Israel A.Nonlinear Analysis, August 2001, vol. 47, no. 3, pp. 1961-1971(11), Ingenta.

25. An acceleration of Newton's method: Super-Halley methodGutierrez J.M.; Hernandez M.A.Applied Mathematics and Computation, 25 January 2001, vol. 117, no. 2, pp. 223-239(17), Ingenta.

26. Modified Newton and secant methods for solving an order O(¡Error!Marcador no definido.) finite-differenceproblemLin, Zhenghua; Yu, Xiaolin; Sheng, ZhongpingAnn. Differential Equations 16 (2000), no. 2, 134--144, Math. Sci. Net.

27. Variable dimension Newton-Raphson methodNg, S. W.; Lee, Y. S.IEEE Trans. Circuits Systems I Fund. Theory Appl. 47 (2000), no. 6, 809--817, Math. Sci. Net.

28. Newton's Method in Shape Optimisation: A Three-Dimensional CaseNovruzi A.; Roche J.R.Bit Numerical Mathematics, 2000, vol. 40, no. 1, pp. 102-120(19), Ingenta.

29. Theoretical Efficiency of an Inexact Newton MethodDeng N.Y.; Wang Z.Z.Journal of Optimization Theory and Applications, April 2000, vol. 105, no. 1, pp. 97-112(16), Ingenta.

30. A Variant of Newton's Method with Accelerated Third-Order ConvergenceWeerakoon S.; Fernando T.G.I.Applied Mathematics Letters, November 2000, vol. 13, no. 8, pp. 87-93(7), Ingenta.

31. Newton's Method for Zero Points of a Matrix Function and its Applications to Queueing ModelsNishimura S.; Harashima A.Journal of the Operations Research Society of Japan, September 2000, vol. 43, no. 3, pp. 396-416(21), Ingenta.

32. The theory of Newton's methodGalantai A.Journal of Computational and Applied Mathematics, 1 December 2000, vol. 124, no. 1, pp. 25-44(20), Ingenta.

33. Improved Newton method for optimal power flow problemda Costa G.R.M.; Costa C.E.U.International Journal of Electrical Power and Energy Systems, 1 October 2000, vol. 22, no. 7, pp. 459-462(4),Ingenta.

Page 40: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 40 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

34. Construction of the Jordan decomposition by means of Newton's methodSchmidt D.Linear Algebra and its Applications, 15 July 2000, vol. 314, no. 1, pp. 75-89(15), Ingenta.

35. A new continuation Newton-like method and its deformationWu X.-Y.Applied Mathematics and Computation, 1 June 2000, vol. 112, no. 1, pp. 75-78(4), Ingenta.

36. Newton's method and generation of a determinantal family of iteration functionsKalantari B.; Gerlach J.Journal of Computational and Applied Mathematics, 1 April 2000, vol. 116, no. 1, pp. 195-200(6), Ingenta.

37. From Square Roots to n-th Roots: Newton's Method in DisguiseW. M. PriestleyCollege Math Journal: Volume 30, Number 5, (1999), Pages: 387-388.

38. Computing Square Roots Fast: Illustrating the Cubic Order of ConvergenceJohn Mathews; Russell HowellInternational Journal of Mathematics Education in Science and Technology, 1999, Vol. 30, No. 2, pp. 289-293.

39. The application of Julia set to Newton-secants methodTomova, AnnaApplications of mathematics in engineering and economics (Sozopol, 1999), 94--95, Heron Press, Sofia, 2000,Math. Sci. Net.

40. Newton maps: fractals from Newton's method for the circle mapCartwright J.H.E.Computers and Graphics, August 1999, vol. 23, no. 4, pp. 607-612(6), Ingenta.

41. A Newton method for three-dimensional fretting problemsStromberg N.International Journal of Solids and Structures, 1 May 1999, vol. 36, no. 14, pp. 2075-2090(16), Ingenta.

42. A practical choice of parameters in improved SOR-Newton method with orderingsIshiwata E.Journal of Computational and Applied Mathematics, 26 February 1999, vol. 102, no. 2, pp. 315-331(17), Ingenta.

43. Numerical solutions for orthogonal wavelet filters by Newton methodChang L.-W.; Shen Y.-E.Signal Processing: Image Communication, August 1999, vol. 14, no. 10, pp. 879-887(9), Ingenta.

44. Application of Galerkin Finite-Element Method with Newton Iterations in Computing Steady-State Solutions ofUnipolar Charge Currents in Corona DevicesFeng J.Q.Journal of Computational Physics, May 1999, vol. 151, no. 2, pp. 969-989(21), Ingenta.

45. Strong consistency of robust nonlinear regression estimates using Newton-Raphson algorithms. (Chinese)Yuan, Jun ZhuJ. Baoji College Arts Sci. Nat. Sci. 19 (1999), no. 4, 50--53, Math. Sci. Net.

46. Variations on a Theme of NewtonRobert M. CorlessMathematics Magazine: Volume 29, Number 1, (1998), Pages: 34-41.

47. The Newton and Halley Methods for Complex RootsLily Yau and Adi Ben-IsraelAmerican Mathematical Monthly, Vol. 105, No. 9, (November, 1998), pp. 806-818, Jstor.

48. A global Newton method for the zeros of cylinder functionsSegura J.Numerical Algorithms, 1998, vol. 18, no. 3/4, pp. 259-276(18), Ingenta.

49. A parallel quasi-Newton method for Gaussian data fittingCaprioli P.; Holmes M.H.Parallel Computing, October 1998, vol. 24, no. 11, pp. 1635-1651(17), Ingenta.

50. A statistically-based Newton method for pose refinementPece A.; Worrall A.Image and Vision Computing, June 1998, vol. 16, no. 8, pp. 541-544(4), Ingenta.

51. nth Root extraction: Double iteration process and Newton's methodDubeau F.Journal of Computational and Applied Mathematics, 4 May 1998, vol. 91, no. 2, pp. 191-198(8), Ingenta.

52. A generalization of the Newton-Raphson method. (Japanese)Fukushima, Katsuhiko; Kitagawa, SeinosukeSugaku 50 (1998), no. 2, 211--214, Math. Sci. Net.

Page 41: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 41 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

53. A Continuous Version of Newton's MethodSteve HetzlerCollege Math Journal: Volume 28, Number 5, (1997), Pages: 348-35.

54. An Inexact Newton Method for Systems Arising from the Finite Element MethodCapon P.J.; Jimack P.K.Applied Mathematics Letters, May 1997, vol. 10, no. 3, pp. 9-12(4), Ingenta.

55. An improvement of convergence in Newton's methodLopez S.Computer Methods in Applied Mechanics and Engineering, 30 June 1997, vol. 145, no. 3, pp. 323-327(5),Ingenta.

56. Accelerated Convergence in Newton's Method (in Classroom Notes)William F. Ford, James A. PennlineSIAM Review, Vol. 38, No. 4. (Dec., 1996), pp. 658-659, Jstor.

57. Newton's Method for Resolving Affected EquationsChris ChristensonCollege Math Journal: Volume 27, Number 5, (1996), Pages: 330-340.

58. An example of the secant method of iterative approximation in a fifteenth-century Sanskrit textPlofker, KimHistoria Math. 23 (1996), no. 3, 246--256, Math. Sci. Net.

59. A Newton method for solving the inverse scattering problem for a sound-hard obstacleMnch L.Inverse Problems, 1996, vol. 12, no. 3, pp. 309-323(15), Ingenta.

60. A Stepsize Control for the Botsaris-Newton MethodSturm T.F.Journal of Mathematical Analysis and Applications, April 1996, vol. 199, no. 1, pp. 59-74(16), Ingenta.

61. The Dynamics of Newton's Methos for Cubic PolynomialsJames A. WalshCollege Math Journal: Volume 26, Number 1, (1995), Pages: 22-27.

62. On the Geometry of Halley's MethodT. R. Scavo, J. B. ThooAmerican Mathematical Monthly, Vol. 102, No. 5. (May, 1995), pp. 417-426, Jstor.

63. Historical Development of the Newton-Raphson MethodTjalling J. YpmaSIAM Review, Vol. 37, No. 4. (Dec., 1995), pp. 531-551, Jstor.

64. Average-Case Optimality of a Hybrid Secant-Bisection MethodErich Novak, Klaus Ritter, Henryk WozniakowskiMathematics of Computation, Vol. 64, No. 212. (Oct., 1995), pp. 1517-1539, Jstor

65. A generalized Newton-Raphson method using curvatureLee, In-Won; Jung, Gil-HoComm. Numer. Methods Engrg. 11 (1995), no. 9, 757--763, Math. Sci. Net.

66. Newton Raphson method, scaling at fractal boundaries and MathematicaBisoi, A. K.Math. Comput. Modelling 21 (1995), no. 10, 91--102, Math. Sci. Net.

67. Remarks on the convergence of the Newton-Raphson methodBerinde, VasileRev. Anal. Numér. Théor. Approx. 24 (1995), no. 1-2, 15--21, Math. Sci. Net.

68. Historical Development of the Newton-Raphson MethodTjalling J. YpmaSIAM Review, Vol. 37, No. 4. (Dec., 1995), pp. 531-551, Jstor.

69. Approximate Zeros of Quadratically Convergent AlgorithmsPengyuan ChenMathematics of Computation, Vol. 63, No. 207. (Jul., 1994), pp. 247-270, Jstor.

70. Accelerated Convergence in Newton's Method (in Classroom Notes)Jurgen GerlachSIAM Review, Vol. 36, No. 2. (Jun., 1994), pp. 272-276, Jstor.

71. Combining binary search and Newton's method to compute real roots for a class of real functions.Ye, YinyuJ. Complexity 10 (1994), no. 3, 271--280, MathSciNet.

Page 42: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 42 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

72. Pathological Functions for Newton's MethodGeorge C. Donovan, Arnold R. Miller, Timothy J. MorelandAmerican Mathematical Monthly, Vol. 100, No. 1. (Jan., 1993), pp. 53-58, Jstor.

73. The Secant Method and the Golden Mean (in Notes)Melvin J. Maron, Robert J. LopezAmerican Mathematical Monthly, Vol. 100, No. 7. (Aug. - Sep., 1993), pp. 676-678, Jstor.

74. Using the Secant Method to Approximate the Roots of an EquationPeter Lochiel GliddenSchool Science and Mathematics, Vol. 93, No. 1, (1993), pp. 5-8.

75. On the Superlinear Convergence of the Secant MethodMarco Vianello, Renato ZanovelloAmerican Mathematical Monthly, Vol. 99, No. 8. (Oct., 1992), pp. 758-761, Jstor

76. Newton-Raphson's method and convexityHernández Verón, Miguel A.Zb. Rad. Prirod.-Mat. Fak. Ser. Mat. 22 (1992), no. 1, 159--166, Math. Sci. Net.

77. A combined method for polynomial roots using modified Newton-Raphson with minimum searchingLynge, Walter C.J. Comput. Appl. Math. 42 (1992), no. 3, 339--355, Math. Sci. Net.

78. The Modified Newton Method in the Solution of Stiff Ordinary Differential EquationsRoger AlexanderMathematics of Computation, Vol. 57, No. 196. (Oct., 1991), pp. 673-701, Jstor.

79. Convergence of the Newton-Raphson algorithm in elastic-plastic incremental analysisCaddemi, S.; Martin, J. B.Internat. J. Numer. Methods Engrg. 31 (1991), no. 1, 177--191, Math. Sci. Net.

80. On the Newton-Raphson iterative method for the computation of the square rootBadea, C at alin; Buze teanu, Serban N.An. Univ. Bucurec sti Mat. Inform. 39/40 (1990/1991), no. 3, 3--13, Math. Sci. Net.

81. A Gauss-Newton Method for Nonlinear RegressionM. N. Ediger, Food and Drug AdministrationThe Mathematica Journal, Vol. 1, No. 2, (Fall 1990), pp 42-44.

82. On the R-Order of Newton-Like Methods for Enclosing Solutions of Nonlinear EquationsAndreas Frommer, Gunter MayerSIAM Journal on Numerical Analysis, Vol. 27, No. 1. (Feb., 1990), pp. 105-116, Jstor.

83. A parabolic extension of Newton's methodSheldon P. Gordon and Ellis R. Von EschenInt. J. Math. Educ. Sci. Technol.,Vol. 21, No. 4, (1990), pp. 519-525.

84. Convergence of the Newton-Raphson method for boundary value problems of ordinary differential equationsGuenther, Ronald B.; Lee, John W.Computational solution of nonlinear systems of equations (Fort Collins, CO, 1988), 257--264, Lectures in Appl.Math., 26, Amer. Math. Soc., Providence, RI, (1990), Math. Sci. Net.

85. Newton-Raphson behaving chaoticallyRobin, A. C.Bull. Inst. Math. Appl. 26 (1990), no. 3, 34--35, Math. Sci. Net.

86. An Improved Newton's MethodJohn MathewsThe AMATYC Review, Vol. 10, No. 2, (Spring, 1989), pp. 9-14.

87. On Halley-Like Algorithms for Simultaneous Approximation of Polynomial Complex ZerosMiodrag S. PetkovicSIAM Journal on Numerical Analysis, Vol. 26, No. 3. (Jun., 1989), pp. 740-763, Jstor.

88. An Approximate Newton Method for the Solution of the Basic Semiconductor Device EquationsC. Ringhofer; C. SchmeiserSIAM Journal on Numerical Analysis, Vol. 26, No. 3. (Jun., 1989), pp. 507-516, Jstor.

89. An asynchronous Newton-Raphson methodLootsma, Freerk A.Supercomputing (Trondheim, 1989), 367--376, NATO Adv. Sci. Inst. Ser. F Comput. Systems Sci., 62, Springer,Berlin, 1989, Math. Sci. Net.

90. Gauss-Newton versus Newton-Raphson algorithm for the recursive generalized least-squares identificationWeinfeld, Roman; Unton, Fryderyk Z.Control Cybernet. 18 (1989), no. 2, 171--178, Math. Sci. Net.

Page 43: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 43 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

91. The Projected Newton Method has Order 1 + 2^1/2 for the Symmetric Eigenvalue ProblemR. A. Tapia; David L. WhitleySIAM Journal on Numerical Analysis, Vol. 25, No. 6. (Dec., 1988), pp. 1376-1382, Jstor.

92. A Pointwise Quasi-Newton Method for Integral EquationsC. T. Kelley; J. I. NorthrupSIAM Journal on Numerical Analysis, Vol. 25, No. 5. (Oct., 1988), pp. 1138-1155, Jstor.

93. Newton's nth Root Method Without DerivativesDavid A. SmithCollege Math Journal: Volume 18, Number 5, (1987), Pages: 403-406.

94. Complex Roots of Polynomials by Newton-Raphson MethodR. D. MurphyJournal of Computers in Mathematics and Science Teaching, (1987), pp. 44-45.

95. A Quasi-Newton Method for Elliptic Boundary Value ProblemsC. T. Kelley; E. W. SachsSIAM Journal on Numerical Analysis, Vol. 24, No. 3. (Jun., 1987), pp. 516-531, Jstor.

96. A Nonmonotone Line Search Technique for Newton's MethodL. Grippo, F. Lampariello, S. LucidiSIAM Journal on Numerical Analysis, Vol. 23, No. 4. (Aug., 1986), pp. 707-716, Jstor.

97. Newton's Method and the Jenkins-Traub AlgorithmR. N. PedersonProceedings of the American Mathematical Society, Vol. 97, No. 4. (Aug., 1986), pp. 687-690, Jstor.

98. Attracting Orbits in Newton's MethodMike HurleyTransactions of the American Mathematical Society, Vol. 297, No. 1. (Sep., 1986), pp.143-158, Jstor.

99. Newton's Method for the Matrix Square RootNicholas J. HighamMathematics of Computation, Vol. 46, No. 174. (Apr., 1986), pp. 537-549, Jstor.

100. Complex Roots: The Bairstow-Hitchcock MethodClark KimberlingThe Mathematics Teacher, Vol. 79, No. 4, (April, 1986), pp. 278-282.

101. Pitfalls in the Use of Computers for the Newton-Raphson MethodD. Mackie and T. ScottThe Mathematical Gazette, Vol. 69, no. 450, (Dec., 1985), pp. 252-257.

102. Newton-Raphson in reverseDavies, M.Math. Student 47 (1979), no. 2-4, 149--150 (1985), Math. Sci. Net.

103. On Halley's Iteration Method (in Notes)Walter GanderAmerican Mathematical Monthly, Vol. 92, No. 2. (Feb., 1985), pp. 131-134, Jstor.

104. Orthogonal Projections on Convex Sets for Newton-Like MethodsStanislaw M. GrzegorskiSIAM Journal on Numerical Analysis, Vol. 22, No. 6. (Dec., 1985), pp. 1208-1219, Jstor.

105. An Approximate Newton Method for Coupled Nonlinear SystemsTony F. ChanSIAM Journal on Numerical Analysis, Vol. 22, No. 5. (Oct., 1985), pp. 904-913, Jstor.

106. Global analysis of continuous analogues of the Levenberg-Marquardt and Newton-Raphson methods for solvingnonlinear equationsTanabe, KunioAnn. Inst. Statist. Math. 37 (1985), no. 1, 189--203, Math. Sci. Net.

107. Convergence of Newton Method in Nonlinear Network AnalysisAltman T.; Boulos P.F.Mathematical and Computer Modelling, February 1995, vol. 21, no. 4, pp. 35-41(7), Ingenta.

108. Newton Raphson Method, Scaling at Fractal Boundaries and MathematicaBisoi A.K.Mathematical and Computer Modelling, May 1995, vol. 21, no. 10, pp. 91-102(12, Ingenta.

109. A generalization of Newton RaphsonMacLeod, Allan J.Internat. J. Math. Ed. Sci. Tech. 15 (1984), no. 1, 117--120, Math. Sci. Net.

Page 44: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 44 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

110. Newton's Method and Symbolic DynamicsSherman WongProceedings of the American Mathematical Society, Vol. 91, No. 2. (Jun., 1984), pp. 245-253, Jstor.

111. On the Convergence of some Interval-Arithmetic Modifications of Newton's MethodG. AlefeldSIAM Journal on Numerical Analysis, Vol. 21, No. 2. (Apr., 1984), pp. 363-372, Jstor.

112. Newton's Method, Circle Maps, and Chaotic MotionDonald G. Saari, John B. UrenkoAmerican Mathematical Monthly, Vol. 91, No. 1. (Jan., 1984), pp. 3-17, Jstor.

113. Aitken Sequences and Fibonacci NumbersG. M. PhillipsAmerican Mathematical Monthly, Vol. 91, No. 6. (Jun. - Jul., 1984), pp. 354-357, Jstor.

114. Newton-Type Minimization Via the Lanczos MethodStephen G. NashSIAM Journal on Numerical Analysis, Vol. 21, No. 4. (Aug., 1984), pp. 770-788, Jstor.

115. On the Local Convergence of a Quasi-Newton Method for the Nonlinear Programming ProblemThomas F. Coleman; Andrew R. ConnSIAM Journal on Numerical Analysis, Vol. 21, No. 4. (Aug., 1984), pp. 755-769, Jstor.

116. A Nonconverging Newton SequencePeter PetekMathematics Magazine: Volume 14, Number 1, (1983), Pages: 43-45.

117. A New Acceleration Method for Newton's Method at Singular PointsC. T. Kelley, R. SureshSIAM Journal on Numerical Analysis, Vol. 20, No. 5. (Oct., 1983), pp. 1001-1009, Jstor.

118. Convergence Rates for Newton's Method at Singular PointsD. W. Decker, H. B. Keller, C. T. KelleySIAM Journal on Numerical Analysis, Vol. 20, No. 2. (Apr., 1983), pp. 296-314, Jstor.

119. Analysis of Newton's Method at Irregular SingularitiesA. Griewank, M. R. OsborneSIAM Journal on Numerical Analysis, Vol. 20, No. 4. (Aug., 1983), pp. 747-773, Jstor.

120. Local Convergence of Difference Newton-Like MethodsT. J. YpmaMathematics of Computation, Vol. 41, No. 164. (Oct., 1983), pp. 527-536, Jstor.

121. Finding a Multiple Zero by Transformations and Newton-Like MethodsT. J. YpmaSIAM Review, Vol. 25, No. 3. (Jul., 1983), pp. 365-378, Jstor.

122. A Quasi-Newton Method Employing Direct Secant Updates of Matrix FactorizationsGeorge W. Johnson; Nieves H. AustriaSIAM Journal on Numerical Analysis, Vol. 20, No. 2. (Apr., 1983), pp. 315-325, Jstor.

123. Newton's Method with a Model Trust Region ModificationD. C. SorensenSIAM Journal on Numerical Analysis, Vol. 19, No. 2. (Apr., 1982), pp. 409-426, Jstor.

124. Global Convergence of a Modified Newton Iteration for Algebraic EquationsKazuo MurotaSIAM Journal on Numerical Analysis, Vol. 19, No. 4. (Aug., 1982), pp. 793-799, Jstor.

125. Convergence Acceleration for Newton's Method at Singular PointsD. W. Decker, C. T. KelleySIAM Journal on Numerical Analysis, Vol. 19, No. 1. (Feb., 1982), pp. 219-229, Jstor.

126. Une approche combinatoire pour l'itération de Newton\mhy Raphson. (French)[A combinatorial approach for Newton-Raphson iteration]Décoste, H.; Labelle, G.; Leroux, P.Adv. in Appl. Math. 3 (1982), no. 4, 407--416, Math. Sci. Net.

127. Newton-Raphson ExtendedNeville W. RichardsThe Mathematical Gazette, Vol. 65, no. 434, (Dec., 1981), pp. 294-295.

128. On the Convergence of Halley's Method (in Classroom Notes)G. AlefeldAmerican Mathematical Monthly, Vol. 88, No. 7. (Aug. - Sep., 1981), pp. 530-536, Jstor.

Page 45: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 45 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

129. On Computation of Eigenvalues for Differential Equations by Newton's MethodZeev NehariTransactions of the American Mathematical Society, Vol. 263, No. 2. (Feb., 1981), pp. 397-409, Jstor.

130. Newton's Method for Singular Problems when the Dimension of the Null Space is > 1Andreas Griewank, M. R. OsborneSIAM Journal on Numerical Analysis, Vol. 18, No. 1. (Feb., 1981), pp. 145-149, Jstor.

131. A Globally Convergent Ball Newton MethodKarl L. NickelSIAM Journal on Numerical Analysis, Vol. 18, No. 6. (Dec., 1981), pp. 988-1003, Jstor.

132. A generalization of the Newton Raphson method. (Catalan)Gasull, ArmengolPubl. Sec.Mat. Univ. Autònoma Barcelona No. 23 (1981), 133--138, Math. Sci. Net.

133. Optimal Partitioning of Newton's Method for Calculating RootsGunter Meinardus, G. D. TaylorMathematics of Computation, Vol. 35, No. 152. (Oct., 1980), pp. 1221-1230, Jstor.

134. Newton's Method at Singular Points. IID. W. Decker, C. T. KelleySIAM Journal on Numerical Analysis, Vol. 17, No. 3. (Jun., 1980), pp. 465-471, Jstor.

135. Newton's Method at Singular Points. ID. W. Decker, C. T. KelleySIAM Journal on Numerical Analysis, Vol. 17, No. 1. (Feb., 1980), pp. 66-70, Jstor.

136. Parameter Selection for Newton-Like Methods Applicable to Nonlinear Partial Differential EquationsR. E. Bank, D. J. RoseSIAM Journal on Numerical Analysis, Vol. 17, No. 6. (Dec., 1980), pp. 806-822, Jstor.

137. Be Careful When You Dodge Round NewtonF. M. ArscottThe Mathematical Gazette, Vol. 63, no. 425, (Oct., 1979), pp. 169-172.

138. Inverse Iteration, Ill-Conditioned Equations and Newton's MethodG. Peters, J. H. WilkinsonSIAM Review, Vol. 21, No. 3. (Jul., 1979), pp. 339-360, Jstor.

139. A Modified Newton's Method for Unconstrained MinimizationShmuel Kaniel, Achiya DaxSIAM Journal on Numerical Analysis, Vol. 16, No. 2. (Apr., 1979), pp. 324-331, Jstor.

140. Affine Invariant Convergence Theorems for Newton's Method and Extensions to Related MethodsP. Deuflhard, G. HeindlSIAM Journal on Numerical Analysis, Vol. 16, No. 1. (Feb., 1979), pp. 1-10, Jstor.

141. A faster modified Newton-Raphson iterationCrisfield, M. A.Comput. Methods Appl. Mech. Engrg. 20 (1979), no. 3, 267--278, Math. Sci. Net.

142. Continuous Newton-Raphson method for solving an underdetermined system of nonlinear equationsTanabe, KunioNonlinear Anal. 3 (1979), no. 4, 495--503, Math. Sci. Net.

143. On Newton's Method for Singular ProblemsG. W. ReddienSIAM Journal on Numerical Analysis, Vol. 15, No. 5. (Oct., 1978), pp. 993-996, Jstor.

144. Ideas and examples for presenting the Newton-Raphson methodHart, V. G.; Howard, L. N.Austral. Math. Soc. Gaz. 5 (1978), no. 3, 73--89, Math. Sci. Net.

145. On the Convergence of a Quasi-Newton Method for Sparse Nonlinear SystemsBinh LamMathematics of Computation, Vol. 32, No. 142. (Apr., 1978), pp. 447-451, Jstor.

146. Revision of a Derivative-Free Quasi-Newton MethodJohn GreenstadtMathematics of Computation, Vol. 32, No. 141. (Jan., 1978), pp. 201-221, Jstor.

147. Sufficient conditions for elementary Newton-Raphson convergenceSpeck, G. P.New Zealand Math. Mag. 14 (1977), no. 1, 34--36, Math. Sci. Net.

Page 46: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 46 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

148. On Halley's Variation of Newton's Method (in Classroom Notes)George H. Brown, Jr.American Mathematical Monthly, Vol. 84, No. 9. (Nov., 1977), pp. 726-728, Jstor.

149. A Stable Variant of the Secant Method for Solving Nonlinear EquationsW. B. Gragg, G. W. StewartSIAM Journal on Numerical Analysis, Vol. 13, No. 6. (Dec., 1976), pp. 889-903, Jstor.

150. A Note on the Convergence of Newton's MethodL. B. RallSIAM Journal on Numerical Analysis, Vol. 11, No. 1. (Mar., 1974), pp. 34-36, Jstor.

151. Newton's Method for Optimization Problems with Equality ConstraintsR. A. TapiaSIAM Journal on Numerical Analysis, Vol. 11, No. 5. (Oct., 1974), pp. 874-886, Jstor.

152. Newton's Method for Problems with Equality ConstraintsR. A. TapiaSIAM Journal on Numerical Analysis, Vol. 11, No. 1. (Mar., 1974), pp. 174-196, Jstor.

153. A Globally Converging Secant Method with Applications to Boundary Value ProblemsE. PolakSIAM Journal on Numerical Analysis, Vol. 11, No. 3. (Jun., 1974), pp. 529-537, Jstor.

154. Cycling in the Newton-Raphson algorithmAscher, MarciaInternat. J. Math. Ed. Sci. Tech. 5 (1974), no. 2, 229--235, Math. Sci. Net.

155. Cayford, J. K.; Fimple, W. R.; Unger, D. G.; White, S. P.A finite-difference Newton-Raphson solution of the two-center electronic Schrödinger equation.J. Computational Phys. 16 (1974), 259--270, Math. Sci. Net.

156. The Use of the Secant Method in Econometric ModelsJ. Phillip Cooper, Stanley FischerThe Journal of Business, Vol. 46, No. 2. (Apr., 1973), pp. 274-277, Jstor.

157. A Quasi-Newton Method with No DerivativesJohn GreenstadtMathematics of Computation, Vol. 26, No. 117. (Jan., 1972), pp. 145-166, Jstor.

158. A note on some properties of the Newton-Raphson's methodCheng, M. C.Nanta Math. 5 (1972), no. 3, 10--17, Math. Sci. Net.

159. A note on Newton-Raphson's method. (Japanese)Sakashita, Hideo; Sasaya, FumioBull. Kyoto Univ. Ed. Ser. B No. 42 (1973), 1--2, Math. Sci. Net.

160. The Kantorovich Theorem for Newton's Method (in Classroom Notes)R. A. TapiaAmerican Mathematical Monthly, Vol. 78, No. 4. (Apr., 1971), pp. 389-392, Jstor.

161. Global Convergence of Newton-Gauss-Seidel MethodsJorge J. MoreSIAM Journal on Numerical Analysis, Vol. 8, No. 2. (Jun., 1971), pp. 325-336, Jstor.

162. The Simultaneous Newton Improvement of a Complete Set of Approximate Factors of a PolynomialA. A. GrauSIAM Journal on Numerical Analysis, Vol. 8, No. 2. (Jun., 1971), pp. 425-438, Jstor.

163. Parameter Selection for Modified Newton Methods for Function MinimizationD. F. ShannoSIAM Journal on Numerical Analysis, Vol. 7, No. 3. (Sep., 1970), pp. 366-372, Jstor.

164. Generalized Logarithmic Error and Newton's Method for the mth RootDavid L. PhillipsMathematics of Computation, Vol. 24, No. 110. (Apr., 1970), pp. 383-389, Jstor.

165. On Aitken' s d^2 Method (in Mathematical Notes)Simeon ReichAmerican Mathematical Monthly, Vol. 77, No. 3. (Mar., 1970), pp. 283-284, Jstor.

166. Application of a Modified Newton's Iteration Method to Construct Solutions of Eigenvalue Problems of NonlinearPartial Differential OperatorsY. M. Chen; P. L. ChristiansenSIAM Journal on Applied Mathematics, Vol. 18, No. 2. (Mar., 1970), pp. 335-345, Jstor.

Page 47: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 47 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

167. Modification of a Quasi-Newton Method for Nonlinear Equations with a Sparse JacobianL. K. SchubertMathematics of Computation, Vol. 24, No. 109. (Jan., 1970), pp. 27-30, Jstor.

168. Modified Newton-Raphson methods for preliminary orbit determinationPitkin, Edward T.; Carpenter, Gilbert C.Celestial Mech. 1, (1969/1970), 72--90, Math. Sci. Net.

169. A modification of the Newton-Raphson algorithm in the application to the identification of dynamic objects.(Polish)Latarnik, MichalZeszyty Nauk. Politech. Slpolhk ask. Automat. No. 16 (1970), 35--49, Math. Sci. Net.

170. Geometrical Aspects of Newton's MethodWalter JenningsMathematics Magazine, Vol. 42, No. 5. (Nov., 1969), pp. 262-266, Jstor.

171. Optimal Starting Approximations for Newton's MethodP. H. Sterbenz, C. T. FikeMathematics of Computation, Vol. 23, No. 106. (Apr., 1969), pp. 313-318, Jstor.

172. A Quadratically Convergent Newton-Like Method Based Upon Gaussian EliminationKenneth M. BrownSIAM Journal on Numerical Analysis, Vol. 6, No. 4. (Dec., 1969), pp. 560-569, Jstor.

173. Jacobi and Gauss-Seidel Methods for Nonlinear Network ProblemsT. A. PorschingSIAM Journal on Numerical Analysis, Vol. 6, No. 3. (Sep., 1969), pp. 437-449, Jstor.

174. On the Kantorovich Hypothesis for Newton's MethodJ. E. Dennis, Jr.SIAM Journal on Numerical Analysis, Vol. 6, No. 3. (Sep., 1969), pp. 493-507, Jstor.

175. The Weak Newton Method and Boundary Value ProblemsRichard A. TapiaSIAM Journal on Numerical Analysis, Vol. 6, No. 4. (Dec., 1969), pp. 539-550, Jstor.

176. A Modified Newton-Raphson Iteration (in Classroom Notes)Walter JenningsAmerican Mathematical Monthly, Vol. 75, No. 6. (Jun. - Jul., 1968), pp. 652-654, Jstor.

177. On Steffensen's MethodL. W. Johnson, D. R. ScholzSIAM Journal on Numerical Analysis, Vol. 5, No. 2. (Jun., 1968), pp. 296-302, Jstor.

178. Optimal Starting Values for the Newton-Raphson Calculation of Inverses of Certain FunctionsD. G. Moursund, G. D. TaylorSIAM Journal on Numerical Analysis, Vol. 5, No. 1. (Mar., 1968), pp. 138-150, Jstor.

179. On Newton-Raphson Iteration (in Classroom Notes)J. F. TraubAmerican Mathematical Monthly, Vol. 74, No. 8. (Oct., 1967), pp. 996-998, Jstor.

180. Monotone Iterations for Nonlinear Equations with Application to Gauss-Seidel MethodsJames M. Ortega, Werner C. RheinboldtSIAM Journal on Numerical Analysis, Vol. 4, No. 2. (Jun., 1967), pp. 171-190, Jstor.

181. Newton's Method for Convex Operators in Partially Ordered SpacesJames S. VandergraftSIAM Journal on Numerical Analysis, Vol. 4, No. 3. (Sep., 1967), pp. 406-432, Jstor.

182. On Newton's Method and Nonlinear Simultaneous DisplacementsJ. E. Dennis, Jr.SIAM Journal on Numerical Analysis, Vol. 4, No. 1. (Mar., 1967), pp. 103-108, Jstor.

183. A Stationary Newton Method for Nonlinear Functional EquationsJ. E. Dennis, Jr.SIAM Journal on Numerical Analysis, Vol. 4, No. 2. (Jun., 1967), pp. 222-232, Jstor.

184. Note on Newton's MethodL. M. WeinerMathematics Magazine, Vol. 39, No. 3. (May, 1966), pp. 143-145, Jstor.

185. On a Discrete Version of the Newton-Raphson MethodLeon WeggeSIAM Journal on Numerical Analysis, Vol. 3, No. 1. (Mar., 1966), pp. 134-142, Jstor.

Page 48: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 48 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

186. Nonlinear Difference Equations and Gauss-Seidel Type Iterative MethodsJames M. Ortega, Maxine L. RockoffSIAM Journal on Numerical Analysis, Vol. 3, No. 3. (Sep., 1966), pp. 497-513, Jstor.

187. On Discretization and Differentiation of Operators with Application to Newton's MethodJames M. Ortega, Werner C. RheinboldtSIAM Journal on Numerical Analysis, Vol. 3, No. 1. (Mar., 1966), pp. 143-156, Jstor.

188. Error analysis for the Newton-Raphson methodLancaster, P.Numer. Math. 9, (1966), 55--68, Math. Sci. Net.

189. A Newton-Raphson method for the solution of systems of equationsBen-Israel, AdiJ. Math. Anal. Appl. 15, (1966), 243--252, Math. Sci. Net.

190. A modified Newton-Raphson method for the solution of systems of equationsBen-Israel, AdiIsrael J. Math. 3, (1965), 94--98, Math. Sci. Net.

191. Convergence of the Newton-Raphson method for arbitrary polynomialsLancaster, P.Math. Gaz. 48, (1964), 291--295, Math. Sci. Net.

192. Some Applications of the Newton-Raphson Method to Non-Linear Matrix ProblemsP. LancasterProceedings of the Royal Society of London. Series A, Mathematical and Physical Sciences, Vol. 271, No. 1346.(Jan. 22, 1963), pp. 324-331, Jstor.

193. Erratum: Sufficient Conditions for the Convergence of Newton's Method in Complex Banach SpacesMarvin L. SteinProceedings of the American Mathematical Society, Vol. 13, No. 6. (Dec., 1962), p. 1000, Jstor.

194. Errata: Newton's Method for the Characteristic Value Problem Ax = lambda BxL. B. RallJournal of the Society for Industrial and Applied Mathematics, Vol. 10, No. 1. (Mar., 1962), p. 228, Jstor.

195. Newton's Method for the Characteristic Value Problem Ax = lambda BxL. B. RallJournal of the Society for Industrial and Applied Mathematics, Vol. 9, No. 2. (Jun., 1961), pp. 288-293, Jstor.

196. On the Utility of Newton's Method for Computing Complex Roots of Equations (in Technical Notes and ShortPapers)I. M. LongmanMathematics of Computation, Vol. 14, No. 70. (Apr., 1960), pp. 187-189, Jstor.

197. Taylor's Theorem and Newton's Method (in Classroom Notes)F. D. ParkerAmerican Mathematical Monthly, Vol. 66, No. 1. (Jan., 1959), p. 51, Jstor.

198. A modified Newton-Raphson process for approximation of multiple roots of polynomialsMilnes, Harold WillisIndust. Math. 9, (1958), no. 2, 17--26, Math. Sci. Net.

199. Newton's Method and Multiple RootsThomas E. MottAmerican Mathematical Monthly, Vol. 64, No. 9. (Nov., 1957), pp. 635-638, Jstor.

200. Newton's Method for Trigonometry Students (in Classroom Notes)J. P. BallantineAmerican Mathematical Monthly, Vol. 63, No. 10. (Dec., 1956), p. 722, Jstor.

201. Amélioration du procédé de division numérique utilisant l'itération de Newton-Raphson. (French)Storrer, F.Acad. Roy. Belg. Bull. Cl. Sci. (5) 42 (1956), 30--33, Math. Sci. Net.

202. Newton's Method in Banach SpacesRobert G. BartleProceedings of the American Mathematical Society, Vol. 6, No. 5. (Oct., 1955), pp. 827-831, Jstor.

203. Sufficient Conditions for the Convergence of Newton's Method in Complex Banach SpacesMarvin L. SteinProceedings of the American Mathematical Society, Vol. 3, No. 6. (Dec., 1952), pp. 858-863, Jstor.

204. Another Variation of Newton's Method (in Classroom Notes)J. K. StewartAmerican Mathematical Monthly, Vol. 58, No. 5. (May, 1951), pp. 331-334, Jstor.

Page 49: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/02/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 49 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

205. A Type of Variation on Newton's MethodH. J. HamiltonAmerican Mathematical Monthly, Vol. 57, No. 8. (Oct., 1950), pp. 517-522, Jstor.

206. Notes on the Graeffe Method of Root Squaring (in Mathematical Notes)G. C. BestAmerican Mathematical Monthly, Vol. 56, No. 2. (Feb., 1949), pp. 91-94, Jstor.

207. A Modification of Newton's Method (in Classroom Notes)H. S. WallAmerican Mathematical Monthly, Vol. 55, No. 2. (Feb., 1948), pp. 90-94, Jstor.

208. On the Newton-Raphson method of approximationRichmond, H. W.Edinburgh Math. Notes 1944 (1944). no. 34, 5--8, Math. Sci. Net.

209. New Criteria for Accuracy in Approximating Real Roots by the Newton-Raphson MethodMyron G. PawleyNational Mathematics Magazine, Vol. 15, No. 3. (Dec., 1940), pp. 111-120, Jstor.

210. On the Graeffe Method of Solution of EquationsL. L. CronvichAmerican Mathematical Monthly, Vol. 46, No. 4. (Apr., 1939), pp. 185-190. Jstor.

211. Haley's Methods for Solving EquationsHarry BatemanAmerican Mathematical Monthly, Vol. 45, No. 1. (Jan., 1938), pp. 11-17, Jstor.

212. On the Convergence of Newton's Method of Approximation (in Questions, Discussions, and Notes)G. T. CoateAmerican Mathematical Monthly, Vol. 44, No. 7. (Aug. - Sep., 1937), pp. 464-466, Jstor.

213. Graeffe's Method and Complex Roots (in Questions, Discussions, and Notes)B. A. HausmannAmerican Mathematical Monthly, Vol. 43, No. 4. (Apr., 1936), pp. 225-229. Jstor.

214. On Graeffe's Method for the Numerical Solution of Algebraic EquationsC. A. HutchinsonAmerican Mathematical Monthly, Vol. 42, No. 3. (Mar., 1935), pp. 149-161, Jstor.

215. On Newton's Method of ApproximationHenry B. FineProceedings of the National Academy of Sciences of the United States of America, Vol. 2, No. 9. (Sep. 15, 1916),pp. 546-552, Jstor.

216. Newton's Method in General AnalysisAlbert A. BennettProceedings of the National Academy of Sciences of the United States of America, Vol. 2, No. 10. (Oct. 15,1916), pp. 592-598, Jstor.

217. Historical Note on the Newton-Raphson Method of ApproximationFlorian CajoriAmerican Mathematical Monthly, Vol. 18, No. 2. (Feb., 1911), pp. 29-32, Jstor.

218. On Newton's Method of Approximation (in Notes)F. FranklinAmerican Journal of Mathematics, Vol. 4, No. 1/4. (1881), pp. 275-276, Jstor.

219. On Sir Isaac Newton's Method of Finding the Limits of the Roots of Equations. [Abstract]Herbert Panmure RibtonAbstracts of the Papers Communicated to the Royal Society of London, Vol. 5. (1843 - 1850), p. 630, Jstor.

Page 50: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 50 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

3.4 Método de La Secante

El Método de La Secante1, es –en realidad- una variante del Método Newton-Raphson. Como se vió en la sección 3.3, elMétodo Newton-Raphson tiene muchos aspectos positivos, pero una de sus principales falencias es que requiere laevaluación de dos funciones diferentes en cada iteración, f(x) y su derivada f’(x). Cuando la función f(x) esrelativamente simple, es fácil calcular ambas funciones iterativamente; pero cuando f(x) es una función complicada –comosucede en la práctica en muchas àreas técnicas y de ingenierías- el cálculo de la derivada no es fácil, y en el mejor de loscasos es un proceso tedioso. En estos casos, resulta muy útil tener a la mano un método que no requiera la evaluación dela derivada, f’(x). Uno de estos métodos es el Método Secante, o Método de La secante, que en lugar de la derivadautiliza una aproximación lineal en cada iteración. Este método es de intervalo abierto.

Este método empieza con dos valores iniciales xo, x1, como se ilustra en la figura 3.4.1.

En este método, la función f(x) es aproximada pormedio de una linea recta, la cual es unaextrapolación basada en dos puntos xo y x1 de lafunción f(x). Los dos puntos (x0,f(x0)) y(x1,f(x1)) definen una linea recta secante (de ahíel nombre del método) cuya ecuación es lasiguiente:

Al resolver en 3.4.1 para el valor de x cuando y = 0, se llega a la siguiente fórmula general del Método Secante:

En el ejemplo que se esquematiza en la figura 3.4.1, la fórmula 3.4.2 adquiere la siguiente forma:

Siendo la fracción definida por 3.4.4 una aproximación de la inversa de la derivada de la función f(x). X2 es una mejoraproximación de la raíz. Un algoritmo en Visual Basic se muestra en la figura 3.4.2. La función f(x) es la definida por 3.4.5.Los dos puntos, xo y x1 , pueden estar a un mismo lado de la raíz, como en las figuras 3.4.3, 3.4.4 y 3.4.5.

0 1 Dyer, Charles and Ip, Peter S.S.: «An Elementary Introduction to Scientific Computing», Division of Physical Sciences

University of Toronto at Scarborough, http://pathfinder.scar.utoronto.ca/~dyer/» 2000, 2002 – 2006. // Press, W. H.; Flannery, B. P.; Teukolsky, S. A.;and Vetterling, W. T. «Secant Method, False Position Method, and Ridders' Method», §9.2 in Numerical Recipes in FORTRAN: The Art of ScientificComputing, 2nd ed. Cambridge, England: Cambridge University Press, pp. 347-352, 1992. // Recktenwald , Gerald: «Numerical Methods withMATLAB: Implementations and Applications», © 2000, Prentice Hall ISBN: 0201308606.

(3.4.1)

para k = 1, 2, ... (3.4.2)

)()()(

01

01112 xfxf

xxxfxx−−

−= (3.4.3))()( 01

01

xfxfxx

−−

(3.4.4)

X0 = 1.7: X1 = 1.5: n = 0 EPSILON = 0.00001 Do X2 = X1 - f(X1) * ((X1 - X0) / (f(X1) - f(X0))) X0 = X1: X1 = X2 n = n + 1 Loop Until (Abs(f(X2)) <= EPSILON) Text1 = “RAÍZ, X2 = “ & X2 & VBCRLF & _ “No. ITERACIONES, N = & N

FFIIGGUURRAA 33..44..22 Un algoritmo, en Visual Basic, paraimplementar el Método Secante.

604.0)9.0(

101.0)3.0(

1)( 22 −+−

++−

=xx

xf

(3.4.5)

FFIIGGUURRAA 33..44..11 Esquema gráfico que muestra losparámetros básicos del Método Secante.

Page 51: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 51 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

En la figura 3.4.3 se ilustra una interfaz diseñada en Visual Basic para implementar el algoritmo de la figura 3.4.2. La figura3.4.4 es un ejemplo de resultados obtenidos.

Si en el programa de la figura 3.4.2 se toma X0 = 1.5 y X1 = 1.3, entonces el resultado es la raíz en 3 iteraciones.Aumentando la tolerancia numérica, por ejemplo Epsilon = 0.000000000001, el número de iteracione se aumenta; en estecaso, el número de iteraciones es 9 y la raíz es X2= 1,299549682584830. La figura 3.4.5 muestra una traza de la sucesiónde puntos X0, X1, X2 que el algoritmo de la figura 3.4.2 efectúa al calcular la raíz de la función definida por 3.4.5.Obsérvese, en la figura 3.4.4, que el valor de |f(X2)| es suficientemente pequeño comparado con la tolerancia numéricaestipulada con la variable Epsilon.

FFIIGGUURRAA 33..44..33 Una interfaz en Visual Basic para implementar el Método Secante.

FFIIGGUURRAA 33..44..44 Resultados del algoritmo de la figura 3.4.2 en la interfaz 3.4.3.

Page 52: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 52 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

El esquema de esta traza es consistentecon los resultados mostrados en lafigura 3.4.4. La 8 iteraciones seaglomeran alrededor del valor de la raíz.En este caso, los puntos, xo y x1, seescogen al lado derecho de la raíz.

Esta traza se ha logrado empleando lasinstrucciones gráficas de Visual Basic(véase la clase 6 en la pàgina webhttp://xue.unalmed.edu.co/~walvarem ).

La figura 3.4.6 muestra un algoritmo enPascal para implementar el Método deLa Secante. Este algoritmo llama a lafunción f() que debe estarimplementada como un procedimientoaparte.

Aquí, los puntos iniciales son a y b; y el tercer punto que secalcula es c.El criterio de finalización del proceso iterativo seestipula como |a-b| ≤ eps, siendo la variable eps altolerancia numérica especificada (bien sea a través de unaconstante, o por medio de su lectura).

En la figura 3.4.7 el código fuente, que implementa elalgoritmo del Método Secante, está en C++.

En este procedimiento se emplea la recursión,soportada por C++, para hacer el código máscompacto2. Aquí la tolerancia numérica semaneja con la variable precision.

Por su parte, la figura 3.4.8 presenta elalgoritmo del Método Secante en Matlab. Y lafigura 3.49 es un algoritmo en C.

0 2 Martin, Alex: «Modern Computing in Physical Science, Lecture 6: Finding Roots of Functions», Queen Mary University of London, January 2006,

http://hepwww.ph.qmul.ac.uk/mcps/.

FFIIGGUURRAA 33..44..55 Traza de ejecución delalgoritmo de la figura 3.4.2 en lainterfaz 3.4.3.

PROCEDURE Secante(ea, b, eps:Real;VAR xsol:Real);VAR c, fb:Real;BEGIN{ df(x) = valor de la primera derivada de f(x) }{ eps = accuracy of the root, e.g.: 0.000001 }

REPEAT fb=f(b); c:=a-(b-a)*fb/(fb-f(a)); a:=b; b:=c;UNTIL Abs(a-b)<= eps;xsol:=c

END; {Método Secante – Código fuente en Pascal }

FFIIGGUURRAA 33..44..66 Un algoritmo en Pascal que implementa elMétodo Secante.

int Secante(double x1, double x2,double precision,double&root){ if(x1==x2 || f(x2)==f(x1)){ root=0; return 0;}double x = x1 - f(x1)*(x2-x1)/(f(x2)-f(x1));if( fabs(f(x)) < precision){ root = x; return 1;} else { return Secante(x2,x,precision,root); }}

FFIIGGUURRAA 33..44..77 Un algoritmo en C++ queimplementa el Método Secante.

Page 53: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 53 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

function [X1,err,k,y]=secante(f,X0,X1,delta,epsilon,max1)

%Input - f es la función que se ingreso como un string 'f'% - X0 , X1 aproximaciones iniciales a la raíz de f% - X2 es una mejor aproximación de la raíz de f% - delta es la tolerancia para X1% - epsilon es la tolerancia para los valores y% - max1 es el máximo número de iteraciones%Output - X1 es el valor aproximado de la raíz% - err es el error absoluto estimado para X1% - relerr es el error relativo estimado para X1% - k es el índice del número de iteraciones% - y es la función f evaluada en X1, f(X1)for k=1:max1 X2 = X1-feval(f,X1)*(X1-X0)/(feval(f,X1)-feval(f,X0)); err = abs(X2-X1); relerr = 2*err/(abs(X2)+delta); X0 = X1; X1 = X2; y = feval(f,X1); if (err<delta)|(relerr<delta)|(abs(y) < epsilon),break,endend

FFIIGGUURRAA 33..44..88 Un algoritmo en MatLab queimplementa el Método Secante.

#include <stdio.h>#include <math.h>double f(double x){ return cos(x) - x*x*x;}double MetodoSecante(double xn_1, double xn, double e, int m){ int n; double d; for (n = 1; n <= m; n++) { d = (xn - xn_1) / (f(xn) - f(xn_1)) * f(xn); if (fabs(d) < e) return xn; xn_1 = xn; xn = xn - d; } return xn;}int main(void){ printf("%0.15f\n", SecantMethod(0, 1, 5E-11, 100)); return 0;}

FFIIGGUURRAA 33..44..99 Un algoritmo en el lenguaje C que implementa el Método Secante paraf(x) = Cos(x) – x3.

Page 54: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 54 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

CCOONNVVEERRGGEENNCCIIAA DDEELL MMÉÉTTOODDOO SSEECCAANNTTEE

En forma similar a la deducción que se hizo para el Método Newton-Raphson, se puede deducir la relación para laconvergencia del Método Secante3. La siguiente relación sintetiza el orden de convergencia del Método Secante:

donde C ≠ 0 es una constante y φ es la razón àurea defina por 3.4.7.

El valor de 3.4.7 es φ = 1.618 y representa el orden de convergencia para hallar una raíz real. En la práctica, paraecuaciones f(x) = 0 muy cumplicadas, para las cuales no hay métodos analíticos para obtener la derivada, f’(x), o cuyoproceso de obtención de la derivada es muy engorroso, el Método Secante es preferible al Método Newton-Raphson y elorden de convergencia no es tan diferente: 1.618 (superlineal) vs 2.0 (cuadrática).

Otra forma de expresar el orden de convergencia del Método Secante es sabiendo que el error de la n-ésima iteraciónestá dado por en+1 = xn+1 – r, donde r es la raíz exacta, lo cual da la relación 3.4.8.

.

VVEENNTTAAJJAASS YY DDEESSVVEENNTTAAJJAASS DDEELL MMÉÉTTOODDOO SSEECCAANNTTEE

En la tabla 3.4.1 se presentan las ventajas y desventajas del Método Secante.

TTAABBLLAA 33..44..11 Principales ventajas e inconvenientes del Método Secante.Ventajas Desventajas

• Este método sólo requiere la evlauación de f(x) encada iteración; no requiere calcular f’(x).

• Requiere dos valores iniciales cercanos a la raíz.

• La convergencia es rápida cuando los valores inicialesestán cercanos a la raíz; su orden de convergencia esφ = 1.618, la razón áurea.

• La convergencia no se puede grantizar cuando losvalores iniciales no están cercanos a la raíz.

• La estimación del error está disponible, bajo supuestosrazonables, según la función f(x) bajo estudio.

• El método puede tener una convergencia muy lenta opuede fallar.

• Mucho más fácil de implementar que el MétodoNewton-Raphson.

• Para funciones muy complicadas no es trivialdeterminar los dos valores iniciales.

• Dos iteraciones del Método Newton-Raphson soncompetitivas frente a una iteración del Método Newton-Raphson.

• En la pràctica de las áreas técnicas y de ingenierías elel criterio de finalizar el proceso iterativo suele sercrucial; en ocasiones no es trivial.

• Puede utilizarse para hallar raíces complejas. • Requiere de dos valores iniciales imaginarios, quepueden no ser fáciles de hallar.

• El Método Secante puede extenderse y aplicarse alcampo multidimensional (sistemas de ecuacioneslineales).

• Se precisa resolver grandes sistemas diferentes deecuaciones lineales en cada iteración

0 3 Craw, Ian: «Numerical Methods», 1999. // Naiman, AaronE.: «Numerical Methods», Jerusalem College of Technology, 2003 - 2006,

http://www.math.jct.ac.il.

(3.4.6) (3.4.7)

(3.4.8)

Page 55: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 55 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

3.5 Método Regula Falsi (Falsa Regla)

El Método Regula Falsi es un método de intervalo cerrado que sigue los lineamientos generales del Método Bisección,pero que emplea -como tercer punto- la intersección con el eje X de la línea que une los dos extremos del intervalo [a, b],en cada paso del proceso iterativo1. La figura 3.5.1 presenta los parámetros básicos a considerar en este método.

En el Método Regula Falsi, en lugar de emplearse el puntomedio del intervalo [a,b] en cada iteración, se utiliza comonuevo punto, o punto c, el intercepto con el eje-x de la rectaque une los puntos (a,f(a)) y (b,f(b)). Dicho intercepto,dentro del concepto de intervalo cerrado, es una especie defalsa posición, en latin Regula Falsi, de ahí el nombre delmétodo. Este método se conoce desde muy antiguo, puesya los matemáticos babilonios lo empleaban en sus cálculos

(véase el capítulo 1).

De la figura 3.5.1, hallar el punto c implica calcular la ecuación de la recta que pasa por los puntos (a,f(a)) y (b,f(b)), quese calcula de la siguiente manera:

Si en 3.5.1 se hace y = 0 y se resuelve para x = c, entonces el valor del nuevo punto, c, se calcula así:

Y al igual que en el Método Bisección se indaga en cuál subintervalo está, ahora, la raíz, y se aplica el mismo criterio determinación del proceso de iteraciones. Un algoritmo genérico para el Método Regula Falsi se muestra en la figura 3.5.2.

En Visual Basic, figura 3.5.3, para la función f(x) = x3 +4x2 – 10, en el intervalo [1.0, 2.0], cuya gráfica es lafigura 3.5.4, se tiene el siguiente algoritmo y la función f():

0 1 Eric W. Weisstein, Eric W.: «Method of False Position», From MathWorld--A Wolfram Web Resource, © 1999-2007 Wolfram Research, Inc.,

http://mathworld.wolfram.com/MethodofFalsePosition.html // Szyszkowicz, Mieczyslaw: «Computer Art from Numerical Methods», North-Holland,Computer Graphics Forum, Vol. 10, (1991), pp. 255-259,delivered by EuroGraphics Digital Libray, www.eg.org, diglib.eg.org. // Pitman, E. Bruce:«Numerical Methods», 1998.

FFIIGGUURRAA 33..55..11 Parámetros básicos en el MétodoRegula Falsi.

(3.5.1)

(3.5.2)

1. Seleccionar un intervalo [a,b] donde seencuentre un cero, una raíz, de f(x), y estableceruna tolerancia numérica Epsilon.

2. Calcular un nuevo punto, c, que es la interseccióncon el eje-x de la siguiente forma:

( ))()(

)()()(afbfabbfbc

cbbf

acaf

−−

−=⇒−

=−

3. Comprobar si hay cambio de signo en lossubintervalos: si f(a)*f(c) < 0 ⇒ b = c; si secumple que f(c)*f(b) < 0 ⇒ a = c.

4. Si |f(c) | < Epsilon ⇒ c es la raíz; de locontrario volver al paso 2.

FFIIGGUURRAA 33..55..22 Algoritmo genérico para implementar elMétodo Regula Falsi.

a = 1.0 : b = 2.0 : Epsilon = 0.0000001 : N = 0Do c = b – f(b)*(b - a)/(f(b) – f(a)) If(f(a)*f(c) < 0) Then b = c If(f(c)*f(b) < 0)Then a = c N = N +1Loop Until (abs(f(c)) < Epsilon)

Public Function f(x as Double)As Double f = x^3 + 4.0*x^2 – 10.0End Function

FFIIGGUURRAA 33..55..33 Algoritmo en Visual Basic paraimplementar el Método Regula Falsi.

Page 56: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 56 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Cuando se ejecuta el algoritmo del Método Regula Falsi, inclusive con diferentes funciones f(x), se observa que –aunquela aproximación es muy buena y la convergencia es rápida, las aproximaciones permanecen casi siempre a un solo ladode la raíz, de modo que un extremo del intervalo permanece invariable, como se ilustra en los resultados de la figura 3.5.4y en forma esquemática en la figuras 3.5.5 y 3.5.6. Este comportamiento del algoritmo es muy común en el Método RegulaFalsi. La figura 3.5.7 es un programa en Pascal; la figura 3.5.8 presenta un programa en MatLab, y la figura 3.5.9 presentaun rpograma en FORTRAN.

FFIIGGUURRAA 33..55..44 Gráfica de f(x) yresultados obtenidos con el programade la figura 3.5.3.

FFIIGGUURRAA 33..55..55 Gráfica de f(x) y lasaproximaciones a un solo lado de la raíz.

FFIIGGUURRAA 33..55..66 Esquemas gráficos de f(x) y las aproximaciones a un solo lado de la raíz, en el MétodoRegula Falsi.

Page 57: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 57 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

PROCEDURE RegulaFalsi(a,b,eps:Real; VAR xsol:Real);{ Condición requerida: f(a)*f(b) < 0 }{ eps = Tolerancia numérica, por ejemplo: 0.000001 }VAR c, fa, fb:Real;BEGIN REPEAT fa:=f(a); fb:=f(b); c:=b - (b-a)*fb/(fb-fa); IF fa*f(c)<0 THEN b:=c ELSE a:=c UNTIL b-a<eps; xsol:=cEND; {Método Regula Falsi - código en Pascal}

FFIIGGUURRAA 33..55..77 Algoritmo en PASCALpara implementar el Método RegulaFalsi.

FFIIGGUURRAA 33..55..88 Algoritmo en MATLAB para implementar el Método Regula Falsi.

Page 58: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/03/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 58 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

1234567890123456789012345678901234567890 SUBROUTINE & REGULA(F,A,B,Delta,Epsilon,Max,C,YC,D,K,Cond) PARAMETER(Big=1E5) INTEGER Cond,K,Max REAL A,B,C,D,Delta,DX,Epsilon,YC EXTERNAL F K=0 YA=F(A) YB=F(B) D=B-A K=0; Cond=0 IF (YA*YB.GE.0) THEN Cond=1 RETURN ENDIF WHILE ((Cond.EQ.0).AND.(K.LT.Max)) DXA=YA*(B-A)/(YB-YA) DXB=YB*(B-A)/(YB-YA) IF ABS(DXA).LT.ABS(DXB) THEN C=A-DXA D=ABS(DXA) ELSE C=B-DXB D=ABS(DXB) ENDIF YC=F(C) IF (D.LT.Delta) Cond=3 IF (ABS(YC).LT.Epsilon) THEN A=C B=C Cond=4 ELSEIF ((YB*YC).GT.0) THEN B=C YB=YC ELSE A=C YA=YC ENDIF K=K+1 WRITE(9,1000) K,A,C,B REPEAT IF (YC.EQ.0) Cond=2 IF (D.LT.Delta).AND.(Cond.NE.2) Cond=3 IF (Cond.EQ.3).AND.(ABS(YC).LT.Epsilon) Cond=5 IF (ABS(YA).GT.Big).AND.(ABS(YB).GT.Big) Cond=6 IF (Cond.EQ.0).AND.(ABS(YC).LT.Epsilon) Cond=4 PAUSE RETURN1000 FORMAT(I2,4X,F15.7,4X,F15.7,4X,F15.7)

FFIIGGUURRAA 33..55..99 Algoritmo en FORTRAN para implementar el Método Regula Falsi.

Page 59: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/06/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 59 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

3.6 Método del Punto Fijo

El Método del Punto Fijo1 es un método en el cual, dada la ecuación f(x) = 0, continua en [a, b], entonces la idea centraldel Método Punto Fijo es reorganizar algebráicamente f(x) = 0 en la forma x = g(x), donde g(x) denota una función de x.Luego, simplemente se toma un valor inicial, x0, y se aplica la fórmula de iteraciónxn = g(xn-1) para n = 1, 2, ...(3.6.1). El Método Punto Fijo se cataloga como un método de intervalo abierto..TTEEOORRÍÍAA BBÁÁSSIICCAA DDEELL PPUUNNTTOO FFIIJJOO.. En Matemáticas, un Punto Fijo (algunas veces llamado, en la literaturaespecializada, fixpoint, o PuntoFix) de una función, es un punto que es mapeado a sí mismo por la función2; es decir, queel punto es igual al valor de la función en dicho punto. Por ejemplo, si f(x) es la función dada por f(x) = x2 − 3x + 4,entonces el valor 2 es un Punto Fijo de f(x), ya que f(2) = 2.

En general, no hay una única forma de obtener x = g(x), a partir de f(x) = 0. Para esta función: f (x) = x2 - x - 2,entonces algunas de las diversas formas que pueden resultar de x = g(x) son las siguientes:

• x = g(x) = x2 - 2,• x = g(x) = sqrt(2 + x),• x = g(x) = 1 + 2/x.• x = g(x) = x - (x2 - x - 2).• x = g(x) = x - (x2 - x - 2)/(2x - 1).

Como ejemplo ilustrativo de cómo funciona el Método Punto Fijo para hallar una raíz de f(x) = 0, considérese la funcióndefinida así: f(x) = x2 - 2x - 3 = 0 (3.6.2). Una de las formas de obtener, en forma implícita, la función x = g(x) es lasiguiente: x = (2x + 3) 1/2 (3.6.3). Ahora, supòngase que se asume un valor inicial x0 = 4, y se realiza el proceso iterativocon la ecuación iterativa que resulta de utilizar 3.6.1 y 3.6.3, lo que da la ecuación siguiwente: xn = (2xn-1 + 3) 1/2 .Considerando las primeras cuatro iteraciones se llega a los siguientes valores :

x1 = (2* x0 + 3)1/2 = (2*4 + 3)1/2 =111/2 = 3.32x2 = (9.63325)1/2 = 3.1x3 = 3.01144x4 = (2*3.01144 + 3) 1/2 = 3.00381091, etc. ...

Es obvio que la secuencia x1, x2, x3, x4,..., converge a 3.0. En forma analítica, se puede comprobar que las dos raícesexactas de 3.6.2 son x = -1 y x = 3. La figura 3.6.1 muestra como progresa x hacia la raíz exacta.

0 1 Leader, Jeffrey J.: «Numerical Analysis and Scientific Computation», Addison-Wesley, 2004, ISBN 0201734990, Chapter 1: «Nonlinear Equations».//

«Tutorial: Fixed-point iteration method for solving nonlinear equations», University of Texas, http://www.cfdlab.ae.utexas.edu/~ase211. //Lappalainen, Harri: «Fixed point iteration of winning strengths», CBLU, University of Leeds, 1996, http://www.cis.hut.fi/harri/dityo. // Arévalo, Carmen:«Numerical Amalisys, An Introduction», Numerisk Analys, Matematikcentrum, Lunds Universitet, 2006, www.maths.lth.se/na/courses/FMN011.

2 TheFreeDictionary by Farlex, «Fixed point (mathematics) Theory», http://www.thefreedictionary.com. // Brown, Robert F. «Theory of Fixed-Point»,UCLA, Department of Mathematics, 2006

x x0

FFIIGGUURRAA 33..66..11 Diagrama esquemático de cómo el valor de xprogresa hacia la raíz exacta.

Page 60: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/06/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 60 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Supóngase, ahora, que en lugar de utilizar x = g(x), definida por 3.6.3, se utiliza x = g(x) = (x2 - 3) / 2 (3.6.4). Si seejecuta – ahora- todo el proceso iterativo con el mismo valor inicial usado anteriormente, x0 = 4 , siendo ahora la ecuacióniterativa xn = (x2n-1 - 3) / 2 (3.6.5), se tiene la siguiente secuencia de resultados:

x1 = (16 - 3) / 2 = 6.5x2 = 19.625x3 = 191.07, etc.

Obsérvese que en la secuencia de valores obtenidos x1, x2, x3,..., los xi son cada vez mayores, con lo cual el métododiverge. En la figura 3.6.2 se ilustra dicha divergencia.

Además, si se escoge como valor inicial x0 = 0, y se iteraempleando la ecuación 3.6.4, la secuencia de resultados es asíx1 = -1.5, x2 = -0.375, x3 = -1.4297, ... etc. El proceso iterativaconverge, ahora, al valor x = -1, que es el valor exacto de laotra raíz de la función 3.6.2.

En muchos campos, de las Ciencias y de las ingenierías, y en el Análisis Numérico3, equilibrio o estabilidad son conceptosfundamentales que pueden ser descritos en términos de Puntos Fijos. Tal es el caso en Economía, del concepto equilibrioNash4 de un juego, que es un Punto Fijo de la mejor correspondencia de respuesta en el juego (de la estrategia que damás rendimiento inmediato). En el diseño de compiladores, dentro de la Ingeniería de Software, cálculos de Punto Fijose emplean para efectuar el análisis holístico de programas (software) como un requerimiento para lograr la optimizacióndel código (de máquina). El vector de los valores del Rango de Página, de todas las páginas web (que son más de 8100millones, según Google5), es un Punto Fijo de una transformación lineal derivada de la propia estructura de enlcaes de lared mundial (World Wide Web). El Matemático Saul Kripke, especializado en Lógica, utiliza la técnica del Punto Fijo en suinfluente Teoría de la Verdad.

Normalmente, la Teoría del Punto Fijo se presenta basada en una serie de definiciones conceptuales, con cierto rigorlógico-matemático, en un conjunto de Teoremas, y con aplicaciones mediante ejemplos operativos. El Método Punto Fijo,al igual que el Método Newton-Raphson, ha trascendido el ámbito del Análisis Numérico y de los Métodos Numéricos, paraser desarrollado y aplicado en otras áreas técnicas y de ingenierías, así como de las Matemáticas puras y aplicadas.Incluso, se ha demostrado analíticamente que el Método de Newton-Raphson es un caso particular del Método PuntoFijo.

• DDEEFFIINNIICCIIÓÓNN ##11. Un punto fijo de una función g(x) es un número real X tal que X = g(X). Una iteración de punto fijo estádada por el siguiente conjunto de ecuaciones: Xn+1 = g(Xn), n =0,1,2,...

0 3 Trefethen, Lloyd N.: «Numerical Analysis», Lecture at Oxford University, May 2006.4 Milnor, John: «John Nash and a “A Beautiful Mind”», Notices of The AMS, November 1998, Volume 45., No. 10, pp. 1329 - 1332. // Nasar, Sylvia: «A

beautiful mind: A biography of John Forbes Nash Jr.», Simon & Schuster, 1998, 459 pages, ISBN 0684819066. Basada en este biografía se hizo unapelícula llamada «A Beautiful Mind». Harold W. Kuhn and Sylvia Nasar,«The Essential John Nash», Princeton University Press, 2001.

5 Google, 2007, http://www.google.com.

FFIIGGUURRAA 33..66..22 Diagrama esquemático de cómo el valor de xdiverge de la raíz exacta.

g(x) = (x2 - 3) / 2

Page 61: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/06/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 61 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

• DDEEFFIINNIICCIIÓÓNN ##22. Si g(x) es una función continua y {Xn}n=0,1,... es la secuencia generada por una iteración de PuntoFijo. Y si

entonces X es un punto fijo de g(x).

• DDEEFFIINNIICCIIÓÓNN ##33. Una función continua f(x) es contractiva si existe un L < 1 tal que se cumple:|f(x) − f(y)| ≤ L|x − y|, para todo x, y en el dominio de f(x).

• DDEEFFIINNIICCIIÓÓNN ##44. Si |f′(x)| < 1 para todo x ∈ [a, b], entonces f(x) es contractiva en [a, b], es decir su punto fijo en [a, b]es atractor.

• PPRRIIMMEERR TTEEOORREEMMAA DDEELL PPUUNNTTOO FFIIJJOO. Si g∈C[a, b] y si el rango del mapeo y = g(x) satisface a ≤ y ≤ b para todo x talque a < x < b, entonces (i) - g tiene un punto fijo en [a, b]. (ii) - Si, además, g’(x) está definida sobre (a, b) y que unaconstante positiva K < 1 existe tal que |g’(x)| ≤ K < 1 para todo x ∈(a, b), entonces la función g tiene un único puntofijo en (a, b). (iii) - g : C [a, b] → R tiene un único punto si: g : [a, b] → [a, b] (asegura existencia del punto fijo), yademás g is contractiva, el punto fijo es atractor (asegura unicidad).

• SSEEGGUUNNDDOO TTEEOORREEMMAA DDEELL PPUUNNTTOO FFIIJJOO. Asúmase que las funciones g(x) y g’(x) son continuas en un intervalobalanceado (a, b) = (X - δ, X + δ) que contiene el único punto fijo X, y que un valor inicial X0 se escoge en dichointervalo. (i) - Si |g’(x)| ≤ K < 1 para todo a ≤ x ≤ b, entonces la iteración Xn = g(Xn-1) converge a X. En este caso, Xes un Punto Fijo atractor. Véase las figuras 3.6.3 y 3.6.4. (ii) – Si |g’(x)| > 1 para todo a ≤ x ≤ b, entonces laiteración Xn = g(Xn-1) no converge a X.. En este caso, X es un Punto Fijo repulsor. Véase las figuras 3.6.5 y 3.6.6.

En este caso, la función es f(x) = x – e-x (3.6.2), y elproceso iterativo de punto fijo converge a 0.567143(véase tabla 3.6.1).

XXlim nn

=∞→

)( (3.6.2)

FFIIGGUURRAA 33..66..33 Diagrama esquemático de un Punto Fijoatractor. En este caso hay convergencia.

FFIIGGUURRAA 33..66..44 Proceso de las iteraciones de un Punto Fijoatractor.

TTAABBLLAA 33..66..11 Iteración de punto fijo para 3.6.2

Page 62: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/06/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 62 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

0~X

En este caso, es posible que para una función x = g(x) elPunto Fijo es repulsor (alejando de la raíz cada valor deX), haciendo que en el proceso iterativo no se presenteconvergencia.

Aquí, ambas funciones con lineales, pero la pendiente de ğ(x)es mayor que la de g(x). Esto hace que se presenteconvergencia con el valor inicial X0, pero que sepresente con divergencia.

Otro ejemplo de un Punto Fijo atractor se muestra en la figura 3.6.7.

FFIIGGUURRAA 33..66..77 La iteración de Punto Fijo Xn+1 = Sin(Xn)con un valor inicial X1 = 2. Aquí el punto fijo es atractor.

FFIIGGUURRAA 33..66..55 Proceso de las iteraciones de un PuntoFijo repulsor.

FFIIGGUURRAA 33..66..66 Ejemplo un Punto Fijo atractor y deotro Punto Fijo repulsor.

Page 63: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/06/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 63 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

AATTRRAACCTTOORREESS YY RREEPPUULLSSOORREESS EENN EELL MMÉÉTTOODDOO PPUUNNTTOO FFIIJJOO

Algunas explicaciones adicionales con relación a la convergencia del Método Punto Fijo6 , es decir con respecto a losatractores y repulsores, son las siguientes7, esquematizadas en las figuras 3.6.8 a 3.6.12:

Geométricamente, un Punto Fijo puede conceptualizarse como la intersección deuna función con la diagonal y=x. Cuando la función es no-lineal pueden existir muchospuntos fijos. En la figura 3.6.8, hay sólo un punto fijo, con la característica de que cadaiteración, en la ecuencia {Xn}n=0,1,..., se acerca al valor del Punto Fijo, haciendo quelas sucesivas aproximaciones converjan a la raíz. Este tipo de Punto Fijo se denominaatractor.

Un medio de representar iteraciones gráficamente es utilizar el Método GeométricoCartesiano, para visualizar los parámetros básicos d elas iteraciones y la formageneral de compoortamiento (véase figura3.68 y anteriores). Otro modo, que norequiere el entendimiento de la iteración geométrica, es el de las series de tiempo.Este consiste, simplemente, en un gráfico del valor de la función después de niteraciones, siendo n el eje horizontal y f(xn) el eje vertical. La figura 3.6.9 ilustra el

caso de la función f(x)=cos(x). Este gráfico es típico de las series de tiempo. Aquí, la función es no-lineal pero ilustra muybien un Punto Fijo atractor.

Este es otro ejemplo de la interpretación geométrica de un Punto Fijo, pero aquí lasitereciones sucesivas se alejan más y más del valor de la raíz; se dice, entonces, quese trata de un Punto Fijo repulsor. La diferencia de esta gráfica con la de la figura3.6.8 radica en la pendiente de la función, o –en general- del valor de su derivada; enel primer ejemplo (figura 3.6.8) la pendiente está entre -1 y 0, pero en esta gráfica lapendiente es menor que -1.

Obsérvese que en el primer caso, la espiral es hacie adentro, y en este caso la espirales hacia fuera. Así, se presenta siempre el caso típico de las iteraciones de una

función con pendiente (derivada), m, negativa.

En este ejemplo, aunque la pendiente (derivada) es positiva, la forma que tiene laserie de sucesivas aprocimaciones no es espiral.

Este también es un Punto Fijo atractor, denominado tipo escalera; a partir de unvalor iniicial, x0, las sucesivas aproximaciones convergen a la raíz (punto fijo). Lapendiente, m, está entre 0 y 1.

0 6 Berland, Håvard: «Numerical Analisys: FIXED POINTS: ATTRACTORS AND REPELLERS», Norwegian University of Science and Technology,

Department of Mathematics, 2004 – 2007, TRONDHEIM, NORWAY ,http://www.stud.ntnu.no/~berland/math/feigenbaum/fixed.html.7 Gray, Paul: «Fixed Point iteration», 1998, http://www.mathcs.emory.edu/ccs/ccs315. // Danziger, P.: «Fixed Point iteration», Ryerson University,

Canada,1998, http://www.scs.ryerson.ca/~danziger/labs. // Hood, Alan: «Numerical Analisys, Vonvergence of Fixed Point iteration», 2000- 2007,http://www-solar.mcs.st-and.ac.uk/~alan/MT2003/Numerical.

FFIIGGUURRAA 33..66..88 Interpretación geométrica de un Punto Fijo atractor.y = x

g = g(x)

FFIIGGUURRAA 33..66..99 Punto Fijo atractor correspondiente a la función f(x) = cos(x).

FFIIGGUURRAA 33..66..1100 Interpretación geométrica de un Punto Fijo repulsor .y = xx = g(x)

FFIIGGUURRAA 33..66..1111 Otro caso de un Punto Fijo atractor .y = x

x = g(x)

Page 64: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/06/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 64 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

)()()(*

**

*

xfxx

xfxf

xxlim =⎟⎟

⎞⎜⎜⎝

⎛−−

( ) 10 <=′=<dxdfxfm

En este ejemplo la pendiente también es positiva, pero el resultado es un PuntoFijo repulsor. la pendiente (derivada), m, es mayor que 1, y la forma es deescalera.

Sumarizando los caos presentados en las figuras 3.6.8 a 3.6.12 se tiene que, siendo m la pendiente o derivada, g’(x):

De una manera, más general: |m| < 1 ⇒ Punto Fijo atractor; 1 < |m| ⇒ Punto fijo repulsor; si m = 0 ⇒ significa quetodos los puntos son atractores o ninguno lo es.

El siguiente proceso es una prueba algebráica de cuando un Punto Fijo es atractor. Igualmente puede hacerse paraprobar un Punto Fijo repulsor:

• Sea un Punto Fijo x* y se demostrará que es un atractor si

• Sea un número k escogido entre m = f'(x*) y 1, es decir f’(x) < k < 1.

• De acuerdo con la definición de derivada se tiene que:

• Se escoge un intervalo simétrico (balanceado), (x* - δ, x* + δ), alrededor de x*, de modo que para x dentro delintervalo se cumple que:

• De la expresión anterior se tiene que: |f(x) - f(x*)| < k|x-x*|

• Empiécese, ahora, las iteraciones con el valor inicial x0, x0∈(x* - δ, x* + δ); y recordando que x* es un Punto Fijo yque por lo tanto f(x*) = x*, se tiene lo siguiente: |x1 - x*| = |f(x0) - f(x*)| < k|x0 - x*| de lo cual es claro que elpunto x1 está más cercano a x* que el punto x0. Por lo tanto, se conlcuye que x* es un punto atractor.

• Más iteraciones serían así: |x2 - x*| < 2k|x0 - x*| , ... , |xn - x*| < nk|x0 - x*|.

FFIIGGUURRAA 33..66..1122 Otro caso de un Punto Fijo repulsor .

y = x

x = g(x)

x0

( ) ⇒−<=′= 1dxdgxgm Punto Fijo repulsor, espiral hacia fuera, fig. 3.6.10.

( ) ⇒<=′=<− 01dxdgxgm Punto Fijo atractor, espiral hacia adentro, fig. 3.6.8.

( ) ⇒<=′=< 10dxdgxgm Punto Fijo atractor, escalera hacia adentro, fig. 3.6.11.

( ) ⇒>=′= 1dxdgxgm Punto Fijo repulsor, escalera hacia fuera, fig. 3.6.12.

( ) ( )k

xx

xfxf<

−<

*

*

0

Page 65: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/06/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 65 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

• Cuando 0 < k < 1 se tendrá el siguiente límite:

Esto significa, efectivamente, que xn = x* después de un número infinito de iteraciones.

La figura 3.6.13 sintetiza gráficamente los casos que se presentan en la iteración de punto fijo, {Xn}n=0,1,... (3.6.3). En ellado izquierdo se presentan los dos casos con pendiente positiva que ilustran la convergencia monotónica (llamadatambién de escalera) cuando 0 < g’(x) < 1, y la divergencia monotónica (o de escalera) cuando g’(x) > 1. En el ladoderecho de la figura 3.6.8 se presenta la convergencia oscilante (o de espiral) cuando –1 < g’(x) < 0; y la divergenciaoscilante (o de espiral) cuando g’(x) < -1.

La parte superior de la figura 3.6.13 presenta los dos casos de convergencia: la convergencia monotónica (o deescalera) implica un atractor fuerte, es decir, que el proceso iterativo de punto fijo –definido por 3.6.2 y 3.6.3- convergeráopidamente a la raíz; por su parte, la convergencia oscilante (o de espiral) implica un atractor débil, es decir, que lasecuencia de valores X0, X1, X2, ..., Xn, -definida por 3.6.2 y 3.6.3- converge muy lentamente a la raíz.

Los dos páneles inferiores, en la figura 3.6.13, representan la divergencia, o un Punto Fijo repulsor; el panel de laizquierda inferior implica un repulsor fuerte, es decir que la secuencia –definida por 3.6.2 y 3.6.3- se aleja rápidamente dela raíz; y el panel inferior derecho representa un repulsor débil, es decir que la secuencia –definida por 3.6.2 y 3.6.3- sealeja muy lentamente de la raíz.

FFIIGGUURRAA 33..66..1133 Síntesis de loscasos de la iteración depunto fijo.

( ) 0* =−∞→

xxlim nn

Page 66: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 66 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

( ) 0≠′ xg

CCOONNVVEERRGGEENNCCIIAA YY AANNÁÁLLIISSIISS DDEELL EERRRROORR EENN EELL MMÉÉTTOODDOO PPUUNNTTOO FFIIJJOO

La convergencia del Método Punto Fijo1 se puede analizar considerando que al aplicar el esquema iterativo xi = g(xi-1)para i = 1, 2, ..., n (3.6.4), se llega a que

donde r es el valor exacto de la raíz, xn es el valor de la n-ésima iteración, y εn es el error después de n iteraciones. Deahí, que la Iteración de Punto Fijo, definida por 3.6.4, puede escribirse - a partir de 3.6.5- como:

Si εn es suficientemente pequeño se puede expandir, utilizando Serie de Taylor, la función g(r - εn) en 3.66, alrededor della raíz exacta (Punto Fijo), r:

Sin embargo, recordando que la raíz, r, es un Punto Fijo que cumple la ecuación r = g(r), y tomando los términos másinfluyentes de 3.6.7 se obtiene

La ecuación 3.6.8 demuestra que la Iteración Punto Fijo es un esquema de primer orden (lineal) si se cumple

También se puede utilizar 3.6.8 para determinar si el proceso iterativo, definido por 3.6.4, converge o no. Asúmase que elerror inicial está dado por ε0 , entonces la aplicación de 3.6.8 da:

ε1 ≈ g’(r)ε0 ;ε2 ≈ g’(r)ε1 ≈ [g’(r)]2ε0 ;ε3 ≈ g’(r)ε2 ≈ [g’(r)]3ε0 ;ε4 ≈ g’(r)ε3 ≈ [g’(r)]4ε0 , ...

En general, se tendrá que:

εn ≈ [g’(r)]nε0 (3.6.9)

La ecuación 3.6.9 implica que:

• El error, |xn - r| , disminuye si |g’(r)| < 1 lo cual implica que el Método Punto Fijo converge.

• El error, |xn - r| , aumenta si |g’(r)| > 1 lo cual implica que el Método Punto Fijo diverge.

La ecuación 3.6.9 también implica que si el Método Punto Fijo converge, entonces

• El error, |xn - r| , decrece monotónicamente si 0 ≤ g’(r)| < 1 (en forma de escalera, véase figura 3.6.13).• El error, |xn - r| , decrece oscilatoriamente si -1 < g’(r)| < 0 (en forma de espiral, véase figura 3.6.13).

0 1 Hood, Alan: «Fundamentals of Applied Mathematics: Convergence of Fixed-Point Iteration, Error Analysis», University of St Andrews, School of

Mathematics and Statistics, Scotland, 2000 - 2007, http://www-solar.mcs.st-and.ac.uk/~alan/MT2003. // Pardhanani, Anand: «Fixed-point iterationmethod for solving nonlinear equations», The University of Texas at Austin, TX , http://www.cfdlab.ae.utexas.edu/~ase211/wip/tutorials/fpi.html. //Stewart, G.W.: «Afternotes on Mumerical Analisys», SIAM, 1996.

(3.6.5)11, ++ −=−= nnnn rxrx εε

( ) ( )nnnn rgrxgx εε −=−⇒= ++ 11 (3.6.6)

( ) ( ) ( ) ...2

21 +

′′+′−=− +

rgrgrgr nnn εεε (3.6.7)

( ) nn rg εε ′≈+1 (3.6.8)

Page 67: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 67 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

( )nx

n xgex n ==+1

23

23

1 −=⇒

−= +

nn x

xx

x

( )( )22

3−

−=′x

xg

223 2

1

2n

nxxxx =⇒

−= +

( ) xxgxxg =′⇒−

=2

3)(2

EEJJEEMMPPLLOO 33..66..11.Considérese la función f(x) = x – e-x, utilizando la iteración definida por

Se llega al valor r = 0.567143 (figura 3.6.3 y tabla 3.6.1). Con lo cual g’(r) = -e-x ⇒ g’(r) = -e-0.567143 = -0.567143. Esdecir, que |g’(r)| < 1 y el proceso iterativo converge.

Sin embargo, si se utiliza la iteración xn+1 = -log( xn) = g(xn), se tendrá que g’(x) = -1 / x ⇒ g’(r) = -1 /0.567143= - 1.7637, con lo cual |g’(r)| > 1 y el proceso iterativo no converge (diverge).

EEJJEEMMPPLLOO 33..66..22.Considérese la función f(x) = x2 – 2x - 3, y utilizándosen tres diferentes esquemas iterativos,analizar si hay convergencia o no.

• El primer esquema iterativo es: x2 = 2x – 3 ⇒ x = (2x + 3)1/2 ⇒ xn+1 = (2 xn + 3)1/2 , con lo cual se tieneque g(x) = (2x + 3)1/2 . Por lo tanto, g’(x) = (½)(2)(2x + 3)-1/2 ⇒ g’(-1) = 1 y el esquema no converge a laraíz exacta –1; g’(3) = 1/3 , y el esquema converge a la raíz exacta 3.

• El segundo esquema iterativo es: g(x) = x(x – 2) –3 = 0 ⇒

⇒ ⇒

• El tercer esquema iterativo es así: g(x) = x2 – 3 = 2x ⇒

AALLGGOORRIITTMMOO PPAARRAA EELL MMÉÉTTOODDOO PPUUNNTTOO FFIIJJOO

En la figura 3.6.14 se presenta un algoritmo genérico para el Método Punto Fijo. La función es f(x) = x3 – 3x +1 cuyoesquema gráfico se muestra en la figura 3.6.15. Un esquema iterativo es g(x) = (x3 +1)/3 .

g’(-1) = -1/3, y el esquema converge a x = -1.

g’(3) = -3, y el esquema no converge a x = 3;

⇒ g’(-1) = -1, y el esquema no converge a x = -1;

⇒ g’(3) = 3, y el esquema converge a x = 3.

Leer x0, Epsilon, nMax1. x = x0, g=g(x), n = 02. HAGA 2.1 x = g 2.2 g = g(x) 2.3 n = n +1 HASTA QUE (|x-g| > Epsilon ó n ≥ nMax)3.3 Mostrar x, g, o un mensage de error

FFIIGGUURRAA 33..66..1144 Algoritmo genérico para el Método PuntoFijo

FFIIGGUURRAA 33..66..1155 Esquema gráfico para f(x)empleada en el algoritmo de la figura 3.6.14.

Page 68: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 68 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

El algoritmo Punto Fijo para la función f(x) de la figura 3.6.15, elaborado en Visual Basic, se presenta en la figura 3.6.16;la figura 3.6.17 es una muestra de los resultados obtenidos con X0 = -1.0 (g’(-1.0) = 0). El método también converge conX0 = 1.0 ( g’(1.0) = 2/3 < 1). Sin embargo, no converge con X0 = 2.0 ( g’(2.0) = 3 > 1) ; tampoco converge para el valor deX0 = -2.0 ( g’(-2.0) = -7/3 < -1). Si se emplea un esquema iterativo diferente, por ejemplo g(x) = (3x – 1)1/3, losresultados de convergencia cambian.

En la figura 3.6.18 se puede apreciar un algoritmo en lenguaje FORTRAN2. El programa en PASCAL2 se presenta en lafigura 3.6.19. Un programa en C2 es el presentado en la figura 3.6.20. En la figura 3.6.21 se muestra un programa enMATLAB.

0 2 Mathews, John H.: «Fixed-Point Method», Dept. of Mathematics, California State University, Fullerton, 2004,

http://mathews.ecs.fullerton.edu/n2003/fixedpoint/

Private Sub Command1_Click() X0 = -1#: Epsilon = 0.0000000001 X = X0: gx = g(X): n = 0 Text1 = "MÉTODO PUNTO FIJO, X0 = -1.0, f(x) = x^3 - 3x + 1" & vbCrLf & String(65, "_") & vbCrLf & _ vbCrLf & "ITER." & vbTab & "... X ... " & vbTab & vbTab & _ "... gx ..." & vbTab & vbTab & "... X-gx ..." & vbCrLf & String(65, "_") & vbCrLf Do n = n + 1 Text1 = Text1 & n & vbTab & Format(X, "#00.000000000000") & vbTab & _ Format(gx, "#00.000000000000") & vbTab & Format(Abs(X - gx), "#00.0000000000000000000") & vbCrLf X = gx gx = g(X) Loop Until (Abs(X - gx) <= Epsilon Or n >= nMax) Text1 = Text1 & vbCrLf & String(65, "_") & vbCrLf & "No. iteraciones = " & n & vbTab & _ "Epsilon = " & Format(Epsilon, "#0.00000000000") & vbCrLf & _ "Raíz, X =" & XEnd Sub

FFIIGGUURRAA 33..66..1166 Algoritmo en Visual Basic para la función f(x) de la figura 3.6.15.

FFIIGGUURRAA 33..66..1177 Resultados obtenidos para la función f(x) de la figura 3.6.15.

Page 69: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 69 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

REAL FUNCTION G(X)REAL XG=0.9 + X - 0.4*X*XRETURNEND

SUBROUTINE PUNTOFIJO(G,Pterm,Max,Tol,Pnew,Cond,K)PARAMETER(Big=1E10,Small=1E-20)INTEGER Cond,K,MaxREAL Pnew,Pterm,TolREAL Dx,Dg,Pold,RelErr,SlopeK=0RelErr=1Pnew=G(Pterm)WHILE (RelErr.GE.Tol).AND.(K.LE.Max)& .AND.(ABS(Pnew).LT.Big)Pold=PtermPterm=PnewPnew=G(Pterm)Dg=Pnew-PtermRelErr=ABS(Dg)/(ABS(Pnew)+Small)K=K+1WRITE(9,1000) K,PnewREPEATIF (Dg.EQ.0) THENSlope=0ELSEDx=Pterm-PoldIF (Dx.NE.0) THENSlope=Dg/DxELSESlope=6.023E23ENDIFENDIFIF (ABS(Slope).LT.1) THENCond=1IF (Slope.LT.0) Cond=2ELSECond=3IF (Slope.LT.0) Cond=4ENDIFIF (RelErr.LT.Tol) THENIF ((Cond.EQ.3).OR.(Cond.EQ.4)) Cond=5ENDIFPAUSERETURN1000 FORMAT(I2,4X,F15.7)END

FFIIGGUURRAA 33..66..1188 Programa FORTRAN del algoritmo expuesto en la figura 3.6.14.

Page 70: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 70 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

procedure FixedPoint({function G(X:real):real;}var Pterm:real; Max:integer; Tol:real;var Pnew:real; var Cond,Kcount:integer);label 999;const Big = 1E10; Small = 1E-20;var Dx,Dg,Pold,RelErr,Slope:real;beginRelErr := 1;Pnew := G(Pterm);Kcount := 0;while ((RelErr>=Tol) and (KCount<=Max)) dobeginif Kcount <= 2 then P[Kcount] := Pterm;Pold := Pterm;Pterm := Pnew;Pnew := G(Pterm);Dg := Pnew - Pterm;RelErr := ABS(Dg)/(ABS(Pnew)+Small);Kcount := Kcount+1;if (Pnew < -Big) or (Big < Pnew) then goto 999;end;999:if Kcount <= 2 then P[Kcount] := Pterm;if Dg = 0 thenSlope := 0elsebeginDx := Pterm - Pold;if Dx <> 0 thenSlope := Dg/DxelseSlope := 6.023E23;end;if ABS(Slope) < 1 thenbeginCond := 1;if Slope < 0 then Cond := 2;endelsebeginCond := 3;if Slope < 0 then Cond := 4;end;if RelErr < Tol thenif (Cond = 3) or (Cond = 4) then Cond := 5;Kcount := Kcount+1;end;

FFIIGGUURRAA 33..66..1199 Programa PASCAL del algoritmo expuesto en la figura 3.6.14.

Page 71: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 71 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

#include<stdio.h>#include<stdlib.h>#include<math.h>/* define prototype for USER-SUPPLIED function g(x) */double gfunction(double x);double gfunction(double x){return ( 1 + x - pow(x,2)/4 );}void main(){double MaxPnew = 1E+200; /* highest absolute value for Pnew */double Tol = 0.000001; /* Termination criterion */int Max = 200; /* Maximum number of iterations */double Small = 0.000001; /* Initialize the variable */int K = 0; /* Initialize the counter */double RelErr = 1; /* Initialize the variable */double Pterm; /* INPUT : The initial approximation */double Pnew; /* Result of a iteration */double Pold,Dg,Delta,Dx,Slope;int iwarn = 0; /* Initialize warning flag */printf("Please enter START-value for iteration :\n");scanf("%lf", &Pterm);printf("START-value for iteration : Pterm = %lf\n", Pterm);printf("");Pnew = gfunction(Pterm); /* First iteration */while( (RelErr >= Tol) && (K <= Max) ) {K++; /* Increment the counter */Pold = Pterm; /* Previous iterate p_(k+1) */Pterm = Pnew; /* Current iterate p_k */Pnew = gfunction(Pterm); /* Compute new iterate p_(k+1) */if( fabs(Pnew) > MaxPnew){ /* Check for +/-INF beforethe end of the while-loop */iwarn = 1; /* set flag for warning */break; /* break out of while-loop */}Dg = Pnew - Pterm; /* Difference in gfunction */Delta = fabs(Dg); /* Absolute Error */RelErr = 2 * Delta / ( fabs(Pnew) + Small ); /* Relative Error */} /* End of the 'while'-loop */Dx = Pterm - Pold; /* Difference in x */Slope = Dg / Dx; /* g'(p_k) */printf("-----------------------------------------------\n");if(iwarn){ /* Tell that Pnew has grown dramatically and stop */printf("Number of iterations : %d\n",K);printf("Iteration walks out of precision range !!\n");printf("Value of x = Pnew = %G\n", Pnew);printf("The sequence appears to be diverging !\n");exit(0);}printf("Number of iterations : %d\n",K);printf("The computed fixed point of g(x) is %lf\n",Pnew);printf("Consecutive iterations are within %lf\n", Delta);if( fabs(Slope) > 1 ) printf("The sequence appears to be diverging.\n");else printf("The sequence appears to be converging.\n");} /* End Main Program */

FFIIGGUURRAA 33..66..2200 Programa en C del algoritmo expuesto en la figura 3.6.14.

Page 72: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 72 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

RREECCUURRSSOOSS BBIIBBLLIIOOGGRRÁÁFFIICCOOSS YY WWEEBBGGRRÁÁFFIICCOOSS DDEELL MMÉÉTTOODDOO PPUUNNTTOO FFIIJJOO

1. Type, fixed point iteration, and mean value theoremsMercer, Peter R.Internat. J. Math. Ed. Sci. Tech. 32 (2001), no. 2, 308--312, Math. Sci. Net.

2. Short proofs of stability results for fixed point iteration procedures for a class of contractive-type mappings.Osilike, M. O.; Udomene, A.Indian J. Pure Appl. Math. 30 (1999), no. 12, 1229--1234, Math. Sci. Net.

3. A new convergence result for fixed-point iteration in bounded interval of R^nHuang, ZhenyuComput. Math. Appl. 34 (1997), no. 12, 33--36, Math. Sci. Net.

4. Convergence results for fixed point iterations in RHerceg, D.; Kreji'c, N.Comput. Math. Appl. 31 (1996), no. 2, 7--10, Math. Sci. Net.

5. On the Approximation of Fixed Points For Locally Pseudo-Contractive MappingsClaudio H. Morales, Simba A. MutangaduraProceedings of the American Mathematical Society, Vol. 123, No. 2. (Feb., 1995), pp. 417-423.

6. On a Fixed Point Theorem of KirkClaudio H. Morales, Simba A. MutangaduraProceedings of the American Mathematical Society, Vol. 123, No. 11. (Nov., 1995), pp. 3397-3401. Jstor.

7. Bounded fixed-point iterationNielson, Hanne Riis; Nielson, FlemmingJ. Logic Comput. 2 (1992), no. 4, 441--464, Math. Sci. Net.

8. Asymptotic IterationVladimir Drobot and Lawrence J. WallenMathematics Magazine: Volume 64, Number 3, (1991), Pages: 176-180.

function [k,p,err,P] = PuntoFijo(g,p0,tol,max1)

% Input - g is the iteration function% - p0 is the initial guess for the fixed-point% - tol is the tolerance% - max1 is the maximum number of iterations% Output - k is the number of iterations that were carried out% - p is the approximation to the fixed-point% - err is the error in the approximation% - P'contains the sequence {pn}

P(1)= p0;for k=2:max1

P(k)=feval(g,P(k-1));err=abs(P(k)-P(k-1));relerr=err/(abs(P(k))+eps);p=P(k);if (err<tol) | (relerr<tol),break;end

end

if k == max1disp('maximum number of iterations exceeded')

end

P=P';

FFIIGGUURRAA 33..66..2211 Programa en MATLAB del algoritmo expuesto en la figura 3.6.14.

Page 73: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 73 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

9. Some Interesting Fixed PointsJohn Mathews, Soo Tang TanMathematics Magazine: Volume 63, Number 4, (1990), Pages: 263-269.

10. A Historical Survey of Solution of Functional IterationD.F. BaileyMathematics Magazine: Volume 62, Number 3, (1989), Pages: 155-166.

11. Fixed Point Iteration with Inexact Function ValuesPeter AlfeldMathematics of Computation, Vol. 38, No. 157. (Jan., 1982), pp. 87-98, Jstor.

12. Fixed point iteration - An interesting way to begin a calculus courseThomas ButtsCollege Math Journal: Volume 12, Number 1, (1981), Pages: 2-7.

13. A Less Strange Version of Milnor's Proof of Brouwer's Fixed-Point TheoremC. A. RogersAmerican Mathematical Monthly, Vol. 87, No. 7. (Aug. - Sep., 1980), pp. 525-527. Jstor.

14. A characterization of local convergence for fixed point iterations in R^1Stepleman, Robert S.SIAM J. Numer. Anal. 12 (1975), no. 6, 887--894, Jstor.

15. Fixed Points by a New Iteration MethodShiro IshikawaProceedings of the American Mathematical Society, Vol. 44, No. 1. (May, 1974), pp. 147-150. Jstor.

16. A Remark on a Fixed-Point Theorem for Iterated Mappings (in Classroom Notes)V. W. BryantAmerican Mathematical Monthly, Vol. 75, No. 4. (Apr., 1968), pp. 399-400. Jstor.

17. On Cowen's Note "An Elementary Fixed Point Theorem" (in Classroom Notes)J. G. BaronAmerican Mathematical Monthly, Vol. 74, No. 3. (Mar., 1967), pp. 302-303. Jstor.

18. The Approximation of Fixed Points of a Continuous MappingHerbert ScarfSIAM Journal on Applied Mathematics, Vol. 15, No. 5. (Sep., 1967), pp. 1328-1343, Jstor.

19. An Elementary Fixed Point Theorem (in Classroom Notes)R. H. CowenAmerican Mathematical Monthly, Vol. 72, No. 2. (Feb., 1965), pp. 165-167. Jstor.

20. Extensions of the Brouwer Fixed Point Theorem (in Mathematical Notes)A. B. BrownAmerican Mathematical Monthly, Vol. 69, No. 7. (Aug. - Sep., 1962), p. 643. Jstor.

21. A Fixed Point Theorem (in Mathematical Notes)L. E. Ward, Jr.American Mathematical Monthly, Vol. 65, No. 4. (Apr., 1958), pp. 271-272. Jstor.

22. Type, fixed point iteration, and mean value theoremsMercer, Peter R.Internat. J. Math. Ed. Sci. Tech. 32 (2001), no. 2, 308--312, Math. Sci. Net.

23. Short proofs of stability results for fixed point iteration procedures for a class of contractive-type mappings.Osilike, M. O.; Udomene, A.Indian J. Pure Appl. Math. 30 (1999), no. 12, 1229--1234, Math. Sci. Net.

24. A new convergence result for fixed-point iteration in bounded interval of R^nHuang, ZhenyuComput. Math. Appl. 34 (1997), no. 12, 33--36, Math. Sci. Net.

25. Convergence results for fixed point iterations in RHerceg, D.; Kreji'c, N.Comput. Math. Appl. 31 (1996), no. 2, 7--10, Math. Sci. Net.

26. On the Approximation of Fixed Points For Locally Pseudo-Contractive MappingsClaudio H. Morales, Simba A. MutangaduraProceedings of the American Mathematical Society, Vol. 123, No. 2. (Feb., 1995), pp. 417-423, Jstor.

27. On a Fixed Point Theorem of KirkClaudio H. Morales, Simba A. MutangaduraProceedings of the American Mathematical Society, Vol. 123, No. 11. (Nov., 1995), pp. 3397-3401. Jstor.

Page 74: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 74 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

28. Bounded fixed-point iterationNielson, Hanne Riis; Nielson, FlemmingJ. Logic Comput. 2 (1992), no. 4, 441--464, Math. Sci. Net.

29. Asymptotic IterationVladimir Drobot and Lawrence J. WallenMathematics Magazine: Volume 64, Number 3, (1991), Pages: 176-180.

30. Some Interesting Fixed PointsJohn Mathews, Soo Tang TanMathematics Magazine: Volume 63, Number 4, (1990), Pages: 263-269.

31. A Historical Survey of Solution of Functional IterationD.F. BaileyMathematics Magazine: Volume 62, Number 3, (1989), Pages: 155-166.

32. Fixed Point Iteration with Inexact Function ValuesPeter AlfeldMathematics of Computation, Vol. 38, No. 157. (Jan., 1982), pp. 87-98, Jstor.

33. Fixed point iteration - An interesting way to begin a calculus courseThomas ButtsCollege Math Journal: Volume 12, Number 1, (1981), Pages: 2-7.

34. A Less Strange Version of Milnor's Proof of Brouwer's Fixed-Point TheoremC. A. RogersAmerican Mathematical Monthly, Vol. 87, No. 7. (Aug. - Sep., 1980), pp. 525-527. Jstor.

35. A characterization of local convergence for fixed point iterations in R^1Stepleman, Robert S.SIAM J. Numer. Anal. 12 (1975), no. 6, 887--894, Jstor.

36. Fixed Points by a New Iteration MethodShiro IshikawaProceedings of the American Mathematical Society, Vol. 44, No. 1. (May, 1974), pp. 147-150. Jstor.

37. A Remark on a Fixed-Point Theorem for Iterated Mappings (in Classroom Notes)V. W. BryantAmerican Mathematical Monthly, Vol. 75, No. 4. (Apr., 1968), pp. 399-400. Jstor.

38. On Cowen's Note "An Elementary Fixed Point Theorem" (in Classroom Notes)J. G. BaronAmerican Mathematical Monthly, Vol. 74, No. 3. (Mar., 1967), pp. 302-303. Jstor.

39. The Approximation of Fixed Points of a Continuous MappingHerbert ScarfSIAM Journal on Applied Mathematics, Vol. 15, No. 5. (Sep., 1967), pp. 1328-1343, Jstor.

40. An Elementary Fixed Point Theorem (in Classroom Notes)R. H. CowenAmerican Mathematical Monthly, Vol. 72, No. 2. (Feb., 1965), pp. 165-167. Jstor.

41. Extensions of the Brouwer Fixed Point Theorem (in Mathematical Notes)A. B. BrownAmerican Mathematical Monthly, Vol. 69, No. 7. (Aug. - Sep., 1962), p. 643. Jstor.

42. A Fixed Point Theorem (in Mathematical Notes)L. E. Ward, Jr.American Mathematical Monthly, Vol. 65, No. 4. (Apr., 1958), pp. 271-272. Jstor.

43. Type, fixed point iteration, and mean value theoremsMercer, Peter R.Internat. J. Math. Ed. Sci. Tech. 32 (2001), no. 2, 308--312, Math. Sci. Net.

44. Short proofs of stability results for fixed point iteration procedures for a class of contractive-type mappings.Osilike, M. O.; Udomene, A.Indian J. Pure Appl. Math. 30 (1999), no. 12, 1229--1234, Math. Sci. Net.

45. Fixed point iteration for pseudocontractive mapsChidume, C. E.; Moore, ChikaProc. Amer. Math. Soc. 127 (1999), no. 4, 1163--1170, Math. Sci. Net.

46. Nonlinear hybrid procedures and fixed point iterationsBrezinski, C.; Chehab, J.-P.Numer. Funct. Anal. Optim. 19 (1998), no. 5-6, 465--487, Math. Sci. Net.

Page 75: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 75 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

47. A modified fixed point iteration method for solving exchange modelsNenakhov, E. I.; Primak, M. E.Optimization 39 (1997), no. 1, 43--52, Math. Sci. Net.

48. A new convergence result for fixed-point iteration in bounded interval Huang, ZhenyuComput. Math. Appl. 34 (1997), no. 12, 33--36, Math. Sci. Net.

49. Random relaxation of fixed-point iterationVerkama, MarkkuSIAM J. Sci. Comput. 17 (1996), no. 4, 906--912, Math. Sci. Net.

50. Convergence results for fixed point iterations in RHerceg, D.; Kreji\'c, N.Comput. Math. Appl. 31 (1996), no. 2, 7--10, Math. Sci. Net.

51. Stability results for fixed point iteration proceduresOsilike, M. O.J. Nigerian Math. Soc.14/15 (1995/96), 17--29, Math. Sci. Net.

52. Fixed point iterations for a certain class of nonlinear mappingsOsilike, M. O.Soochow J. Math. 21 (1995), no. 4, 441--449, Math. Sci. Net.

53. Stability results for the Ishikawa fixed point iteration procedureOsilike, M. O.Indian J. Pure Appl. Math. 26 (1995), no. 10, 937--945, Math. Sci. Net.

54. Intermediate Value Theorems and Fixed Point Theorems For Semi-Continuous Functions in Product SpacesJean GuillermeProceedings of the American Mathematical Society, Vol. 123, No. 7. (Jul., 1995), pp. 2119-2122. Jstor.

55. On the Approximation of Fixed Points For Locally Pseudo-Contractive MappingsClaudio H. Morales, Simba A. MutangaduraProceedings of the American Mathematical Society, Vol. 123, No. 2. (Feb., 1995), pp. 417-423, Jstor.

56. On a Fixed Point Theorem of KirkClaudio H. Morales, Simba A. MutangaduraProceedings of the American Mathematical Society, Vol. 123, No. 11. (Nov., 1995), pp. 3397-3401. Jstor.

57. Fixed Point Iteration Processes for Asymptotically Nonexpansive MappingsKok-Keong Tan, Hong-Kun XuProceedings of the American Mathematical Society, Vol. 122, No. 3. (Nov., 1994), pp. 733-739, Jstor.

58. Approximation of Fixed Points of Strongly Pseudocontractive MappingsC. E. ChidumeProceedings of the American Mathematical Society, Vol. 120, No. 2. (Feb., 1994), pp. 545-551, Jstor.

59. Fixed point iteration processes for asymptotically nonexpansive mappingsTan, Kok-Keong; Xu, Hong KunProc. Amer. Math. Soc. 122 (1994), no. 3, 733--739, Math. Sci. Net.

60. Approximation of Fixed Points of Strongly Pseudocontractive MappingsC. E. ChidumeProceedings of the American Mathematical Society, Vol. 120, No. 2. (Feb., 1994), pp. 545-551, Jstor.

61. Fixed point iterations in RHerceg, Dragoslav; Krejic, NatavsaIX Conference on Applied Mathematics (Budva, 1994), 21--27, Univ. Novi Sad, Novi Sad, 1995, Math. Sci. Net.

62. Fixed point theorems and stability results for fixed point iteration procedures. IIRhoades, B. E.Indian J. Pure Appl. Math. 24 (1993), no. 11, 691--703, Math. Sci. Net.

63. Some fixed point iterationsRhoades, B. E.Soochow J. Math. 19 (1993), no. 4, 377--380, Math. Sci. Net.

64. Stabilization of Unstable Procedures: The Recursive Projection MethodGautam M. Shroff, Herbert B. KellerSIAM Journal on Numerical Analysis, Vol. 30, No. 4. (Aug., 1993), pp. 1099-1120, Jstor.

65. Correction to the paper: "Fixed point iterations for a class of nonlinear mappings"Moore, ChikaMath. Japon. {37} (1992), no. 5, 955--960, Math. Sci. Net.

Page 76: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 76 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

66. Bounded fixed-point iterationNielson, Hanne Riis; Nielson, FlemmingJ. Logic Comput. 2 (1992), no. 4, 441--464, Math. Sci. Net.

67. Fixed Point Iteration for Local Strictly Pseudo-Contractive MappingXinlong WengProceedings of the American Mathematical Society, Vol. 113, No. 3. (Nov., 1991), pp. 727-731, Jstor.

68. Asymptotic IterationVladimir Drobot and Lawrence J. WallenMathematics Magazine: Volume 64, Number 3, (1991), Pages: 176-180.

69. Fixed Point Iteration for Local Strictly Pseudo-Contractive MappingXinlong WengProceedings of the American Mathematical Society, Vol. 113, No. 3. (Nov., 1991), pp. 727-731, Jstor.

70. Approximation of Fixed Points of Asymptotically Nonexpansive MappingsJurgen SchuProceedings of the American Mathematical Society, Vol. 112, No. 1. (May, 1991), pp. 143-151, Jstor.

71. Some Interesting Fixed PointsJohn Mathews, Soo Tang TanMathematics Magazine: Volume 63, Number 4, (1990), Pages: 263-269.

72. Stability of the Fixed Point Property and Universal MapsJose M. R. SanjurjoProceedings of the American Mathematical Society, Vol. 105, No. 1. (Jan., 1989), pp. 221-230. Jstor.

73. An Iteration Process for Nonexpansive Mappings with Applications to Fixed Point Theory in Product SpacesW. A. KirkProceedings of the American Mathematical Society, Vol. 107, No. 2. (Oct., 1989), pp. 411-415, Jstor.

74. A Historical Survey of Solution of Functional IterationD.F. BaileyMathematics Magazine: Volume 62, Number 3, (1989), Pages: 155-166.

75. Approximation Theorems and Fixed Point Theorem in ConesTzu-Chu LinProceedings of the American Mathematical Society, Vol. 102, No. 3. (Mar., 1988), pp. 502-506. Jstor.

76. Iterative Approximation of Fixed Points of Lipschitzian Strictly Pseudo-Contractive MappingsC. E. ChidumeProceedings of the American Mathematical Society, Vol. 99, No. 2. (Feb., 1987), pp. 283-288., Jstor.

77. Fixed Point Iteration with Inexact Function ValuesPeter AlfeldMathematics of Computation, Vol. 38, No. 157. (Jan., 1982), pp. 87-98, Jstor.

78. On the Continuous Realization of Iterative ProcessesMoody T. ChuSIAM Review, Vol. 30, No. 3. (Sep., 1988), pp. 375-387, Jstor.

79. Fixed Point Iteration with Inexact Function ValuesPeter AlfeldMathematics of Computation, Vol. 38, No. 157. (Jan., 1982), pp. 87-98, Jstor.

80. Fixed point iteration - An interesting way to begin a calculus courseThomas ButtsCollege Math Journal: Volume 12, Number 1, (1981), Pages: 2-7.

81. A Less Strange Version of Milnor's Proof of Brouwer's Fixed-Point TheoremC. A. RogersAmerican Mathematical Monthly, Vol. 87, No. 7. (Aug. - Sep., 1980), pp. 525-527. Jstor.

82. Weak Convergence to the Fixed Point of an Asymptotically Nonexpansive MapS. C. BoseProceedings of the American Mathematical Society, Vol. 68, No. 3. (Mar., 1978), pp. 305-308. Jstor.

83. Fixed point iterations using linear mappingsKasahara, ShouroMath. Sem. Notes Kobe Univ. 6 (1978), no. 1, 87--90, Math. Sci. Net.

84. Approximation to Fixed Points of Generalized Nonexpansive MappingsChi Song WongProceedings of the American Mathematical Society, Vol. 54, No. 1. (Jan., 1976), pp. 93-97, Jstor.

Page 77: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/07/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 77 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

85. Fixed Points and Iteration of a Nonexpansive Mapping in a Banach SpaceShiro IshikawaProceedings of the American Mathematical Society, Vol. 59, No. 1. (Aug., 1976), pp. 65-71, Jstor.

86. Comments on two fixed point iteration methodsRhoades, B. E.J. Math. Anal. Appl. 56 (1976), no. 3, 741--750, Math. Sci. Net.

87. A characterization of local convergence for fixed point iterations in R^1Stepleman, Robert S.SIAM J. Numer. Anal. 12 (1975), no. 6, 887--894, Jstor.

88. Fixed point iterations of nonexpansive mappingsReich, SimeonPacific J. Math. 60 (1975), no. 2, 195--198, Math. Sci. Net.

89. Fixed Points by a New Iteration MethodShiro IshikawaProceedings of the American Mathematical Society, Vol. 44, No. 1. (May, 1974), pp. 147-150. Jstor.

90. Fixed Point Iterations Using Infinite MatricesB. E. RhoadesTransactions of the American Mathematical Society, Vol. 196. (Sep., 1974), pp. 161-176. Jstor.

91. On the Approximation of Fixed Points of Nonlinear Compact OperatorsRichard WeissSIAM Journal on Numerical Analysis, Vol. 11, No. 3. (Jun., 1974), pp. 550-553, Jstor.

92. A Remark on a Fixed-Point Theorem for Iterated Mappings (in Classroom Notes)V. W. BryantAmerican Mathematical Monthly, Vol. 75, No. 4. (Apr., 1968), pp. 399-400. Jstor.

93. Simplicial Approximation of Fixed PointsHarold W. KuhnProceedings of the National Academy of Sciences of the United States of America, Vol. 61, No. 4. (Dec. 15,1968), pp. 1238-1242, Jstor.

94. On Cowen's Note "An Elementary Fixed Point Theorem" (in Classroom Notes)J. G. BaronAmerican Mathematical Monthly, Vol. 74, No. 3. (Mar., 1967), pp. 302-303. Jstor.

95. The Approximation of Fixed Points of a Continuous MappingHerbert ScarfSIAM Journal on Applied Mathematics, Vol. 15, No. 5. (Sep., 1967), pp. 1328-1343, Jstor.

96. An Elementary Fixed Point Theorem (in Classroom Notes)R. H. CowenAmerican Mathematical Monthly, Vol. 72, No. 2. (Feb., 1965), pp. 165-167. Jstor.

97. Stability and Asymptotic Fixed-Point TheoryG. Stephen JonesProceedings of the National Academy of Sciences of the United States of America, Vol. 53, No. 6. (Jun. 15,1965), pp. 1262-1264. Jstor.

98. Extensions of the Brouwer Fixed Point Theorem (in Mathematical Notes)A. B. BrownAmerican Mathematical Monthly, Vol. 69, No. 7. (Aug. - Sep., 1962), p. 643. Jstor.

99. The Application of a Fixed-Point Theorem to a Variety of Nonlinear Stability ProblemsArnold StokesProceedings of the National Academy of Sciences of the United States of America, Vol. 45, No. 2. (Feb. 15,1959), pp. 231-235. Jstor.

100. A Fixed Point Theorem (in Mathematical Notes)L. E. Ward, Jr.American Mathematical Monthly, Vol. 65, No. 4. (Apr., 1958), pp. 271-272. Jstor.

Page 78: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 78 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

3.7 Método de Graeffe

El problema de resolver una ecuación polinómica, en una variable, p(x) = p0 + p1x + p2x2 + : : : + pnxn = 0 data demuy antiguo, habida cuenta que ya era conocido y aplicado por la cultura sumeria (tercer milenio a.c.) y ha influenciadograndemente el desarrollo de las matemáticas, de los Métodos Numéricos, del Anáslisis Numérico, y de las numerosasaplicaciones en ciencias e ingenierías, a través de los siglos1. Los matemáticos sumerios y babilonios resolvieron elproblema de hallar las raíces de un polinomio p(x) para grados pequeños con coeficientes específicos. La solución deecuaciones cuadráticas (p(x) de grado 2) por parte de los babilonios (cerca del año 200 a.c.) y de los egipcios (solucioneshalladas en el papiro Rhind, del escriba Ahmes, del segundo milenio a.c.; véase el capítulo 1) corresponden al uso de lasiguiente fórmula de la ecuación cuadrática p0 + p1x + p2x2 = 0:

Un cabal entendimiento de esta fórmula requiere el profundo conocimiento de la teoría y aplicaciones de los númerosnegativos, de los números irracionales y de los números complejos, campos de la Teoría de Números que sólo desde elsiglo 17 comenzó a desarrollarse en occidente. Algunos intentos de encontrar solución a la fórmula 3.7.0, con sólo eltratamiento aritmético de radicales, se dieron desde el siglo 16 para polinomios de grado 3 y 4, labor que ocupó a losmatemáticos italianos. Tomó más de 250 años hasta que Gauss2 dió una rigorosa demostración de la existencia de lasraíces (posiblemente complejas) de cualquier ecuación real.

Sin embargo, para polinomios de grado mayor al 4, no fue posible hallar soluciones mediante la sola aplicación deoperaciones aritméticas y sucesivamente resolver ecuaciones puras, como lo demostró el matemático Abel3 en 1827. Lateoría de Galois se desarrolló motivada por el mismo problema de resolver la ecuación cuadrática e incluyó la prueba de lainexistencia de soluciones con sólo la aritmética del campo de los racionales. Después de otros 100 años, en el siglo 19, ydespués de la existencia de muchas pruebas sofisticadas, que la solucionabilidad de ecuaciones generales concoeficientes complejos (imaginarios) fue adecuadamente reconocida e implementada -esta vez – en términos algorítmicos.

En 1924, H. Weyl dio una prueba constructiva4 del Teorema Fundamental del Álgebra. En el lenguaje moderno del análisisrecursivo, su razonamiento esencialmente muestra que los ceros (las raíces) de un polinomio complejo (coeficientes y/oraíces en el campo de los números complejos, o imaginarios) dependen recursivamente de sus coeficientes;suministrando, además, el primer algoritmo robusto de solución de ecuaciones polinómicas5. En términoscomputacionales, existe una máquina o un autómata finito (una máquina de Turing, por ejemplo), implementada como unalgoritmo, que cuando se le suministra un entero s y criterios suficientemente buenos de aproximación para loscoeficientes de un polinomio de grado n, dará como respuesta los ceros (o raíces) del polinomio, en forma aproximada,dentro de una cota de error de 2−s. En términos de la complejidad complutacional el problema se ha centrado desdeentonces en determinar cuán rápido y exacto puede funcionar un algoritmo que obtenga las raíces de un polinomio degrado n.

Así, pues, a pesar de no encontrarse solución a 3.7.0 con los radicales, el Teorema Fundamental del Álgebra6 estableceque la ecuación 3.7.0 siempre tiene solución en el campo de los números complejos para cualquier polinomio p(x) decualquier grado positivo n. Debido al problema de no encontrarse, en general, soluciones exactas a 3.7.0, la CienciaMatemática moderna desarrolló los Métodos Numéricos, con algoritmos iterativos para obtener soluciones aproximadas,0 1 Mekwi, Wankere R. : «Iterative Methods for Roots of Polynomials», Section 1. «Introduction», Exeter College, University of Oxford, A thesis submitted

for the degree of MSc in Mathematical Modelling and Scientific Computing, Trinity, 2001.2 Gauss, C.F.: «Demonstratio nova theorematis omnem functionem algebraicam rationalem integram unius variabilis in factores reales primi vel secundi

gradus resolvi posse», Gesammelte Werke III, pp. 1–30, 1799.3 Abel, N.H.: «Beweis der Unmöglichkeit algebraische Gleichungen von höheren Graden als dem vierten allgemein aufzulösen. J. reine u. ang. Math. 1,

pp. 65–84, 1826.4 Weyl, H.: «Randbemerkungen zu Hauptproblemen der Mathematik, II. Fundamentalsatz der Algebra und Grundlagen der Mathematik», Math. Z. 20,

131–150 (1924). // Wilf, H.S.: «A global bisection algorithm for computing the zeros of polynomials in the complex plane», JACM Vol. 25, pp. 415–420, 1978. // Smale, S.: «The fundamental theorem of algebra and complexity theory», Bull. AMS (New Ser.) Vol. 4, pp. 1–36, 1981.

5 Gourdon, Xavier: «Combinatoire Algorithmique et Geometrie des Polynomes», Escuela Politécnica Informática, Paris, 1996 (tesis doctoral).6 Schönhage, Arnold: «The Fundamental Theorem of Algebra in Terms of Computational Complexity», Preliminary Report, Mathematisches Institut der

Universität Tübingen, August 1982.

2

20211

2,1 24

ppppp

x−±−

=(3.7.0)

Page 79: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 79 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

con el consecuente desarrollo de variadas técnicas numéricas. Se cuentan por centenares los algoritmos iterativos parahallar el conjunto de soluciones u1, u2, u3, ..., un de 3.7.0, desarrollados en los últimos 4 milenios7. En síntesis, esteproblema de hallar los ceros (raíces) de una ecuación polinómica ha motivado la introducción y desarrollo de conceptos yáreas fundamentales en las ciencias matemáticos, tales como los números irarcionales, negativos y complejos, los gruposalgebráicos, las teorías de campos e ideales, y ha jalonado fuertemente el desarrollo de la computación numérica.

El Método Graffe permite hallar raíces (ceros) de polinomios univariados (una sola variable), y fue uno de los máspopulares en los siglos 19 y 208. Aunque, tradicionalmente, este método se ha llamado «Método de Graeffe» fueinventado independientemente por Graeffe, Dandelin, y Lobachevsky9.

A pesar que el Método Graffe tiene cierto número de desventajas, entre las cuales se destacan: (i) - el no desempeñarsebien ante raíces complejas, (ii) - que su formulación estándar lleva a exponentes que desbordan la capacidad de laaritmética de punto-flotante (de los computadores medianos y pequeños donde se implementa su algoritmo), y (iii) - que –además- puede mapear polinomios bien-condicionados en polinomios mal-condicionados, es decir, en polinomios en loscuales pequeñas variaciones en los coeficientes, ai, dan grandes diferencias en los valores de las raíces. Sin embargo,dichas limitaciones son evitadas en una eficiente implementación realizada por Malajovich y Zubelli (1999)2.

El problema de hallar las raíces de un polinomio, normalmente se plantea así10: Dado un polinomio de grado n, conn+1 coeficientes reales (conocidos) ai, siendo 0 ≤ i ≤ n, hallar las n raíces de este polinomio.

Aquí es conveniente recalcar que los métodos para hallar raíces de una función f(x) = 0 se clasifican en una de doscategorías:

• Aquellos métodos que hallan una sola raíz, como los estudiados en las secciones 3.2 a 3.6: Bisección, Newton-Raphson, Secante, Regula Falsi, Punto Fijo, que encuentran una raíz u1 de f(x) proporcionando un intervalo dondeestá la raíz, o un valor inicial cercano a la misma, o dos valores iniciales. La convergencia de tales métodos dependetanto de la función y del algoritmo empleado como de la cercanía del valor inicial escogido. Dichos métodosrepetidamente mejoran la aproximación encontrada según cierta tolerancia numérica (precisión) escogida. Algunos deestos métodos tienen buena velocidad de convergencia, es decir cuadrática o cercana a ella (recuérdese que laconvergencia del Método Newton Raphson es cuadrática, o sea 2.0, y la del Método Secante es de 1.618). Pero si sedesea hallar otras raíces de un polinomio, empleando estos tipos de métodos, hay que hallarlas una por una,empleando el método una y otra vez, utilizando el polinomio reducido f(x)/(x-ui), determinando en cada aplicaciónel intervalo donde se encuentra la raíz, o los valores iniciales cercanos a la raíz. Esta labor, así planteada, suele ser –por lo menos- demasiado tediosa para muchas aplicaciones prácticas de las áreas técnicas y de ingenierías, en lascuales las funciones son algebráicamente muy complicadas.

• Métodos que hallan todas las raíces simultáneamente. Estos métodos determinan -a la vez- todas las raíces realesde un polinomio, mediante buenas aproximaciones de las mismas, mejorando la precisión numérica si es necesario.

0 7 McNamee, J.M.: «A bibliography on roots of polynomials». J. Comp. Appl. Math., Vol. 47, pp. 391-394, 1993.8 Chung, S.P.: «An algorithm for the zeros of transcendental functions», Numer. Math. 32 (1979) 359--371. // Weisstein, Eric W.: «Graeffe's Method»,

MathWorld -- A Wolfram Web Resource, 1999 – 2007, http://mathworld.wolfram.com/GraeffesMethod.html. // Householder, A.S.: «The NumericalTreatment of a Single Nonlinear Equation», McGraw-Hill, New York, 1970. // Carnahan, Brice; Luther, H.A.; Wilkes, James O.: «Applied NumericalMethods», John Wiley & Sons, Inc., New York, USA, 1969, SBN 471-13507-0, Chapter 3: «Solution of Equations, Graeffe’s Method», pp. 141-142.

9 Malajovich, Gregorio and Zubelli, Jorge P.: «Tangent Graeffe Iteration», Dep. de Matemática Aplicada, Universidade Federal do Rio de Janeiro,Agosto de 1999. // Householder, A.S.: «Dandelin, Lobachevskii, or Graeffe?», Amer. Math. Monthly 66 (1959) 464--466. // Malajovich, Gregorio andZubelli , Jorge P.: «On the Geometry of Graeffe Iteration», Dep. de Matemática Aplicada, Universidade Federal do Rio de Janeiro, 2000.

10 Supratim Biswas: «CEP CERTIFICATE COURSE ON ADVANCED PROGRAMMING IN C++» , Department of Computer Science and Engineering,Indian Institute of Technology, Powai, Mumbai 400076, India, September 2006.

Es decir, en términos más formales algebráicamente, dado el polinomio f(x) = an xn + an-1 xn-1 + ........ + a1 x + a0,el problema es hallar las n raíces reales, {ui}, 0 ≤ i ≤ n, tales que cada una cumpla f(ui) = 0; o en forma equivalente, elproblema es hallar las n raíces reales, {ui}, 0 ≤ i ≤ n, tales que f(x) = (x - u1)(x - u2) ...... (x - un) ≡ .( )∏

=

−n

iiux

1

Page 80: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 80 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

El Método Graeffe está precisamente en esta categoría11, pues permite hallar todas las raíces reales de un polinomiode grado n.

Una implementación teórica del Método Graeffe empieza multiplicando los polinomios f(x) y f(-x), y teniendo en cuentaque

f(x) = (x – a1)(x – a2) ... (x - an)

f(-x) = (-1)n(x + a1)(x + a2) ... (x + an)

por lo cual

Cuando este procedimiento se repite ν veces, entonces se puede escribir de la forma:

yn + b1yn-1 + ... + bn = 0, siendo y ≡ x2ν

Puesto que los coeficientes están dados por las fórmulas de Vieta, entonces:

b1 = -(y1 + y2 + ... + yn),b2 = (y1y2 + y1y3 + ... + yn-1yn), ...bn = (-1)n(y1y2...yn))

y debido a que el procedimiento repetido de elevar las raíces al cuadrado da una amplia separación de las raíces, losprimeros términos son mucho mayores que el resto, y sepuede escribir:

b1 ≈ - y1, b2 ≈ y1y2 , ... , bn ≈ (-1)n(y1y2...yn))

despejando los valores yi se tiene que: y1 ≈ -b1, y2 ≈ -b2 /b1, ..., yn ≈ -bn /bn-1

Y resolviendo para las raíces originales:

Este método trabaja especialmente bien cuando todas las raíces son reales.

EEJJEEMMPPLLOO IILLUUSSTTRRAATTIIVVOO. El Método Graeffe se puede explicar en detalle mediante el siguiente ejemplo: considérese elpolinomio

que es un polinomio de grado 3 y cuyas raíces se sabe que son 1, -3 y 7 (en este caso, el valor de las raíces es paraexplicar el algoritmo; en el caso general, las raíces no se saben, pues son las que se deben calcular); también se conocenlos valores de los cuatro coeficientes ai , con i = 1,4, así: a3 = 1.0, a2 = -5.0, a1 = -17.0, a0 = 21.0.

Por lo cual, el polinomio se puede expresar como: p(x) = x 3 - 5x 2 -17x + 21 = (x -1)(x+3)(x-7) (3.7.2).

PPAASSOO ##11. Agrupar todos los términos pares en un lado de 3.7.1 y todos los términos impares en el otro lado; y elevando alcuadrado (x 3 -17x)2 = (5x 2 - 1)2 , lo cual – despés de reagrupar términos- puede escribirse como:

x6 - 59 x4 + 499x2 - 441 = 0 (3.7.3)

PPAASSOO ##22. Empleando, ahora, y = x2 ⇒ x = y1/2 (3.7.4) y reemplazando en la ecuación 3.7.3, da un polinomio p(y) delmismo grado que p(x), mostrado como la ecuación 3.7.5 a continuación:0 11 Froberg, C.E.: «An Introduction to Numerical Analysis», Addison Wesley Publishing Company, 1969. // Pan, Victor Y.: «Univariate Polynomials: Nearly

Algorithms for Numerical Factorization and Root-finding», Mathematics and Computer Science Department, Lehman College, CUNY, Bronx, NY10468, U.S.A., 2002. // Pan, V.Y.: «Solving a polynomial equation: Some history and recent progresses», SIAM Review Vol. 39, pp. 187-220, 1997.

a1 ≈ (-b1)1/2ν, a2 ≈ (-b2 /b1) 1/2ν, ..., an ≈ (-bn /bn-1) 1/2ν

p(x) = x 3 - 5x 2 -17x + 21 = 0 (3.7.1)

f(x) f(-x) = (-1)n(x2 - a1)(x2 - a2) ... (x2 - an) ≡ ( )∏=

−n

iiax

1

2

Page 81: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 81 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

p(y) = y 3 - 59 y 2 +499 y – 441 (3.7.5)

La relación fundamental entre las raíces de los polinomios p(x) y p(y) es que las raíces del polinomio p(y) son las mismasraíces que las del polinomio p(x) pero elevadas al cuadrado. O, la inversa, las raíces del polinomio p(x) son las raícescuadradas de las del polinomio p(y). De modo que si se hallan las raíces del polinomio p(y), entonces se pueden hallar lasraíces del polinomio p(x) empleando la ecuación 3.7.4.

PPAASSOO ##33. Se puede demostrar que –en general – si el polinomio p(x) se puede expresar como p(x) = (x-a)(x-b)(x-c)entonces se podrá hacer lo mismo con el polinomio p(y), teniendo en cuenta 3.7.4, y por lo tanto se podrá escribir losiguiente: p(y) = (x - a2)(x - b2)(x - c2) es decir, los procesos de los pasos 1 y 2 dan como resultado un nuevopolinomio del mismo grado que el original pero cuyas raíces son los cuadrados de las raíces del polinomio original.

PPAASSOO ##44. Repetir los pasos 1, 2 y 3, obteniendo una serie de polinomios, todos del mismo grado que el original, como –porejemplo- los siguientes polinomios:

p(z) = z3 - 2483z 2 + 196963z - 194481 = (x - a4)(x - b4)(x - c4) (3.7.6)

p(u) = u3 - 5771363u2 + 37828630723u – 3782285936 = (x - a8)(x - b8)(x - c8) (3.7.7)

El polinomio p(u), en 3.7.7, tiene raíces que son las raíces del polinomio original elevadas a la octava potencia, puesto queel proceso de elevar al cuadrado se ha efectuado tres veces ( ⇒ 23 = 8); y – en general-, si el proceso de elevar lasraíces al cuadrado (pasos 1 y 2) se aplica ν veces, entonces las nuevas raíces, del polinomio resultante, serán elevadasa la potencia 2ν de las raíces originales.

Este proceso, elevar las raíces al cuadrado, lleva aque las raíces originales y las del nuevo polinomio que se forma tienenuna amplia separación en sus valores numéricos, como se ejemplifica en la tabla 3.7.1 mostrada a continuación:

TTAABBLLAA 33..77..11 Diferencia numérica entre las raíces de los polinomios.______________________________________________________

Polinomios Raíces-----------------------------------------------------------------------------------------

p(x) 1, -3, 7

p(y) 1, 9, 49

p(z) 1, 81, 2401

p(u) 1, 6561, 5764801-------------------------------------------------------------------------------------------

Una vez que las raíves tienen suficiente separación, es relativamente fácil extraer las raíces del último polinomio generado;en el ejemplo que se está tratando, polinomio definido por 3.7.1, se pueden extraer las tres raíces del polinomil p(u). Elalgoritmo, para el Método Graeffe, asume que las raíces iniciales, las del polinomio original p(x), son todas distintas y enorden crecien, por ejemplo |a| > |b| > |c| (|7| > |-3| > |1|).

De ahí, que para el polinomio p(u), sus raíces cumplan la relación a8 >> b8 >> c8 (3.7.8), donde el símboloe >> significamuchísimo mayor, como se puede apreciar en la tabla 3.7.1 en la cual, para el polinomio p(u), 5764801 >> 6561 >> 1.Precisamente, aprovechando el valor de los coeficientes ai y la relación existente entre las raíces de los polinomios, enparticular entre las raíces del polinomio original y las del último polinomio generado, se pueden extrarer las raíces, o –porlo menos – sus valores aproximados, utilizando el paso #5.

PPAASSOO ##55. A partir de los coeficientes del polinomio p(u) = u3 -5771363 u 2 + 37828630723u - 3782285936, seobyenen, entonces, tres ecuaciones que relacionan a sus coeficientes a, b, c, de la manera siguiente:

Page 82: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 82 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Utilizando las relaciones 3.7.8 (a8 es muchísimo mayor que b8, el cual –a su vez- es muchísimo mayor que c8) lasecuaciones 3.7.9 se pueden utilizar para aproximar los valores a, b, c, considerando sólo los términos dominantes eignorando los términos menores:

Los valores aproximados de las raíces originales a, b y c pueden obtenerse empleando las ecuaciones 3.7.9 y 3.7.10:

Compárese con las raíces exactas: 7.0, -3.0 y 1.0. Para efectos prácticos, los valores obtenidos, en 3.7.11, de las raícesdel polinomio original p(x), definido por 3.7.1, representan una buena aproximación. Obsérvese –también- que en 3.7.11todas las raíces son possitivas, puesto que – en el proceso de elevar las raíces al cuadrado (pasos 1 y 2)- las raícesnegativas se convierten en positivas (por ejemplo, (-3)2 = 9). Con el fín de determinar el signo correcto de las raícesoriginales, para cada raíiz hallada, r, se calcula el valor del polinomio para el punto x = r y también para el punto x = -ry cualquiera de los dos valores, p(r) o p(-r), que sea cero, con un nivel de precisión numérica estipulado, da el signocorrecto de la raíz, r.

Es conveniente anotar que si el proceso iterativo - de elevar las raíces al cuadrado - se continuara, se tendría el polinomiop(w) = w3 + A2 w2 + A1w+A0, después de ν veces de aplicar el proceso (pasos 1 y 2) de elevar las raíces alcuadrado, entonces las 3 raíces reales (por ejemplo, a > b > c ) se pueden obtener directamente de las siguientesecuaciones:

CCRRIITTEERRIIOO DDEE FFIINNAALLIIZZAACCIIÓÓNN DDEELL AALLGGOORRIITTMMOO: En el ejemplo que se está considerando, se termina el proceso iterativodespués de la iteración 3, o sea que se ha ejecutado tres veces la elevación de las raíces al cuadrado. En general, elcriterio de terminación del Método Graeffe se hace on una tolerancia numérica establecida, en forma similar a como sehace en todo algoritmo que implementa un proceso iterativo (véase las secciones 3.2 a 3.6). Para este método se calculala diferencia entre las sucesivas aproximaciones de una misma raíz; y cuando dicha diferencia es menor que unatolerancia numérica (nivel de precisión) especificada, entonces el algoritmo finaliza, y los valores aproximados de lasraíces se calculan por medio de las ecuaciones 3.7.12.. Por ejemplo, para el polinomio p(x), definido por 3.7.1, en la tabla3.7.2 se listan las sucesivas diferencias entre los valores de las mismas raíces.

-(a8 + b8 + c8 ) = -5771363

a8*b8 + b8 *c8 + a8 * c8 = 37828630723

-a8*b8*c8 = - 3782285936

(3.7.9)

a8 ≈ 5771363

a8*b8 ≈ 37828630723

a8*b8*c8 ≈ 3782285936

(3.7.10)

|a| = (5771363)1/8 = 7.001

|b| = (37828630723/ 5771363)1/8 = 2.999

|c| = (3782285936/ 37828630723)1/8 = 0.9998

(3.7.11)

|a| = (|A2|)(1/2ν), como la mayor raíz en valor absoluto; |b| = (|A2/ A1|)(1/2ν) es la siguiente raíz envalor absoluto (téngase en cuenta que a > b), y |c| = (|A3/ A2|)(1/2ν) como la menor de las raíces.

(3.7.12

Page 83: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 83 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

TTAABBLLAA 33..77..22 Listado de las diferencias sucesivas entre los valores de las raíces de p(x) definido por 3.7.1.___________________________________________________________________________________________Iteración Polinomio ai bi ci |ai+1 - ai| |bi+1 - bi| |ci+1 - ci|--------------------------------------------------------------------------------------------------------------------------------------------------------1 p(y) 7.68 2.91 0.94 ----- ------ -------2 p(z) 7.06 2.98 0.997 0.58 0.07 0.0573 p(u) 7.001 2.999 0.9998 0.059 0.019 0.0028---------------------------------------------------------------------------------------------------------------------------------------------------------

En la tabla 3.7.2, iteración hace referencia al número de veces que se ha aplicado el proceso de elevar las raíces alcuadrado. En la tercera vez (ν = 3) se llega al nivel de precisión estipulado. Si se requiere una mayor precisión, entoncesel algoritmo generará más iteraciones.

UUNN AALLGGOORRIITTMMOO GGEENNEERRAALL PPAARRAA EELL MMÉÉTTOODDOO GGRRAAEEFFFFEE. Para el caso general, se tiene un polinomio f(x) = 0, con nraíces relaes, es decir, {ui}, 0 ≤ i ≤ n, y cuyos n+1 coeficientes son, por ejemplo, a0, a1, ....., an-1, an; el problema –entonces- consiste en obtener los coeficientes del nuevo polinomio generado con el proceso de elevar las raíces alcuadrado. Si los coeficientes del nuevo polinomio son, a modo de ejemplo, b0, b1, ....., bn-1, bn, por medio de un simpletratamiento algebráico se puede establecer las relaciones entre los coeficientes ai y bi, mostradas a continuación:

Las relaciones 3.7.13 revelan un patrón de formación generalizable para obtener los coeficientes bi , del nuevo polinomioformado en cada iteración, a partir de los coeficientes ai . Dicha relación general es la siguiente12:

La ecuación 3.7.14 es la base para elaborar el algoritmo genérico mostrado en la figura 3.7.1.

0 12 Supratim Biswas: «CEP CERTIFICATE COURSE ON ADVANCED PROGRAMMING IN C++», Op. Cit. // IQBAL, M.: «NUMERICAL SOLUTIONS

OF NAGUMO’S EQUATION», Department o.f Mathematical Sciences, King Fahd University of Petroleum and Minerals, Dhahran, Saudi Arabia;Journal of Applied Mathematics & Decision Sciences, Vol. 3, No. 2, pp. 189-193, 1999. // Mekwi, Wankere R. : «Iterative Methods for Roots ofPolynomials», Section 2.4 «Graeff's Root-squaring Method», Exeter College, University of Oxford, A thesis submitted for the degree of MSc inMathematical Modelling and Scientific Computing, Trinity 2001.

b0 = - a02

b1 = a12 - 2a0a2

b2 = -a22 + 2a1a3 - 2a0a4

b3 = a32 - 2a2a4 + 2 a1a5 - 2a0a6

(3.7.13)

( ) ( ) nkaaabkknmin

jjkjk

jk

knk ,...,2,1,0,121

),(

1

2 =⎟⎟⎠

⎞⎜⎜⎝

⎛−+−= ∑

=+−

− (3.7.14)

FFIIGGUURRAA 33..77..11 Algoritmo genérico para el Método Graeffe.

1. Obtener el grado del polinomio (n), los coeficientes ai, y la precisión numérica (ξ).2. Valores iniciales de las raíces, prevRaices(i) = 1.0, i = 1, n3. Mientras (no convergencia)

3.1 Elevar raíces al cuadrado3.2 Hallar los mejores valores de las raíces, newRaices(i), i = 1, n. Aplicar 3.7.143.3 Determinar criterio de finalización, {|newRaices(i) – prevRaices(i)| < ξ}, i = 1, n.

4. Mostrar los valores de las raíces y otros párametros.

Page 84: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 84 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Listado del Programa en C++13:

/* filename : graeffe.C i/p : degree and coefficients of a real polynomial o/p : all roots found simultaneously. method : a) uses a root squaring method devised by Graeffe b) New coefficients are to be determined at each root squaring step, also compute approximations to all the roots. c) stop the process when convergence criteria is reached. d) all roots are assumed positive in this version, needs to be extended for both -ve and +ve roots.*/#include &lt;iostream&gt;#include &lt;math.h&gt;

using namespace std;

// finding real roots of a n-degree polynomial with real coefficients// The coefficients are a[0] to a[n], where a[0]is the constant term// and the coefficient of x**k is a[k], 0 &lt;= k &lt;= n-1;// The value of a[n], i.e., the coefficient of x**n, is assumed to be 1.// const int SIZE = 100;

bool test ( float*, float*, int ); void rootsquare ( float*, float*, int); int main() {

float a[SIZE], b[SIZE]; float roots[SIZE], oldroots[SIZE]; int degree;

// give the degree of the polynomial cout &lt;&lt; " Grado del polinomio ( &lt;= 100 ) :" ;

cin &gt;&gt; degree; cout &lt;&lt; endl; if ( degree &gt; 100 ) { cerr &lt;&lt; " el grado del polinomio debe ser menor o igual que 100 : error "

&lt;&lt; endl; return 0; };

// supply the coefficients, a[0] to a[degree] cout &lt;&lt; " Give the coefficients from lowest to highest :"; for ( int i = 0; i &lt;= degree; i++ )

{ cin &gt;&gt; a[i]; cout &lt;&lt; endl; cout &lt;&lt; " The coefficient of x power "

&lt;&lt; i &lt;&lt; " is : " &lt;&lt; a[i] &lt;&lt; endl; };

// assume some dummy approx values of roots to start with, say 1

for ( int i = 0; i &lt;= degree; i++ ) oldroots[i] = 1.0; // now compute the new polynomials repeatedly till the coefficients // agree to the first point after decimal bool converge = false;

int iter = 0; float nthroot = 1;

while ( ! converge ) { rootsquare ( a, b, degree);

0 13 Supratim Biswas: «CEP CERTIFICATE COURSE ON ADVANCED PROGRAMMING IN C++» , Appendix C, Op. Cit.

Page 85: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 85 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

// find better approximate values of the n roots nthroot = nthroot/2;

cout &lt;&lt; "*********** roots after iteration " &lt;&lt; ++iter &lt;&lt; " ************" &lt;&lt; endl;

for ( int k = 1; k &lt;= degree; k++ ) { roots[k] = fabsf(b[degree-k]/b[degree-k+1]); roots[k] = pow(roots[k], nthroot);

cout &lt;&lt; " roots[" &lt;&lt; k &lt;&lt; "] = " &lt;&lt; roots[k] &lt;&lt; endl;

} converge = test ( oldroots,roots, degree); // copy array b in array a - store new coefficients // and destroy old coefficients

for ( int i = 0; i &lt;= degree; i++ ) { a[i] = b[i];

oldroots[i] = roots[i]; }; };

// The coefficients of the polynomial after these values have // stabilized in array a

// display the last root squared polynomial

cout &lt;&lt; " ****************************************** "&lt;&lt; endl;

cout &lt;&lt; " Los coeficientes finales son los siguientes " &lt;&lt; endl; cout &lt;&lt; " ****************************************** "

&lt;&lt; endl; for ( int i = 0; i &lt;= degree; i++ )

{ cout &lt;&lt; " The coefficient of x power " &lt;&lt; i &lt;&lt; " is : " &lt;&lt; a[i] &lt;&lt; endl;

}; // Now display the roots

cout &lt;&lt; " ****************************************** "&lt;&lt; endl;

cout &lt;&lt; " Las raíces finales son las siguientes " &lt;&lt; endl; cout &lt;&lt; " ****************************************** "

&lt;&lt; endl; for ( int i = 1; i &lt;= degree; i++ )

cout &lt;&lt; " Root " &lt;&lt; i &lt;&lt; " is = " &lt;&lt; roots[i] &lt;&lt; endl;

cout &lt;&lt; endl&lt;&lt; " Se ha efectuado la elevación d elas raíces al cuadrado "&lt;&lt; iter &lt;&lt; " veces para convergencia " &lt;&lt; endl;

// Program incomplete -- sign of the root problem }

bool test ( float*x, float*y, int deg ) {

bool result = false; for (int i = 1; i &lt;= deg; i++ ) if ( fabsf(x[i] - y[i]) &gt; 0.05 ) return result; result = true; return result;

}

void rootsquare ( float *x, float *y, int deg )

Page 86: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 86 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

{ for ( int j = 0; j &lt;= deg; j++ ) { float first = 0; first = x[j]*x[j]; // upper contains the min of j and deg-j int upper; if ( j &lt;= deg -j ) upper = j; else

upper =deg - j; float second = 0; for ( int k = 1; k &lt;= upper; k++) { second = second + 2*x[j-k] * x[j+k]; if ( k%2 != 0) second = -second; }; y[j] = first + second; if ( (deg - j)%2 != 0 ) y[j] = -y[j]; };

return; }

Programa en MATLAB14 que haya raíces de 100 polinomios de grado 10.

% rts10.m -% This program calculates the roots of 100 random% degree 10 polynomials, reading coefficients% from c10fs using rootsclearformat longmtime = 0;pol = 100; % Number of polynomialsdeg = 10; % Degree of each polynomialnum = pol*deg; % Total number of zerosn = deg-1; % stepload c10fs;z = c10fs(:);x = z(1:2:end);y = z(2:2:end);cofs = x + i*y;fid = fopen('mp10','w');for i=1:deg:num p1 = cofs(i:i+n); p = [1;p1]; tic zer = roots(p); mtime = mtime + toc; for k=1:deg fprintf(fid,'%28.20f %28.20f\n',real(zer(k)),imag(zer(k))); endendmtimefclose(fid);

0 14 Mekwi, Wankere R. : «Iterative Methods for Roots of Polynomials», Appendix C, 2001. Op. Cit.

Page 87: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/08/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 87 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Programa FORTRAN15 para el Método Graeffe

C This reads coefficients of random polynomials, and tries out C02AFFC on them. Saves results in another file for comparison with MATLABIMPLICIT NONEINTEGER NX,NCOUNT,FIN,FOUT,FOUT2,POLPARAMETER (NX=10,FIN=10,FOUT=12,POL=100)55DOUBLE PRECISION ACO(2,NX+1),Z(2,NX),W(4*(NX+1)),DTIME,TTIMEINTEGER I,N,IFAIL,IGO,JREAL TX,TIME(2)EXTERNAL C02AFFCC ....Executable statements ....COPEN(FIN,FILE='c10fs')OPEN(FOUT,FILE='fp10')N = NXNCOUNT=0DO 300 IGO=1,POLACO(1,1)=1.D0ACO(2,1)=0.D0C Read in coefficients from 'c10fs'CDO 77 I=2,N+1READ(FIN,*)ACO(1,I)READ(FIN,*)ACO(2,I)77 CONTINUEIFAIL=-1TX = DTIME(TIME)CALL C02AFF(ACO,N,.TRUE.,Z,W,IFAIL)TTIME = TTIME + DTIME(TIME)NCOUNT = NCOUNT + 1WRITE(FOUT,120)(Z(1,J),Z(2,J),J=1,N)100 FORMAT(2I8,2F12.5)120 FORMAT(D28.20,3X,D28.20)300 CONTINUEWRITE(*,*) 'NCOUNT=',NCOUNTWRITE(*,*) 'TIME = ',TTIMECLOSE(FIN)CLOSE(FOUT)STOPEND

0 15 Mekwi, Wankere R. : «Iterative Methods for Roots of Polynomials», Appendix C, 2001. Op. Cit.

Page 88: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/10/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 88 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

3.8 Método de Muller

Los métodos para hallar una raíz de una ecuación funcional f(x) = 0 se pueden clasificar en una de dos categorías:

• (i)– MMÉÉTTOODDOOSS AABBIIEERRTTOOSS. O métodos de intervalo abierto, emplean una o varias aproximaciones iniciales a la raíz paraobtener un nuevo estimado del valor de la raíz (cero de f(x)), efectuando una sustitución o interpolación (lineal,cuadrática, o polinómica). En esta categoría se encuentran los métodos Punto fijo (sustitución sucesiva o directa),Newton-Raphson (linea recta, empleando información del gradiente o derivada), Secante (linea recta empleando dospuntos), Muller (aproximación cuadrática, por medio de una párabola, empleando tres puntos).

• (ii) – MMÉÉTTOODDOOSS CCEERRRRAADDOOSS. O métodos de intervalo cerrado, emplean los extremos de un intervalo [a, b], donde sesabe que f(x) tiene una raíz, ya que se cumple que f(a)*f(b) < 0, según el Teorema de Bolzano. Aquí se ubican losmétodos de Bisección, Regula Falsi.

En realidad, el Método Muller generaliza el Método Secante para hallar una raíz de f(x) = 0, utilizando interpolacióncuadrática de tres puntos; este método fue primeramente presentado por D.E. Muller en 1956, y utiliza tres valoresaproximados iniciales para la raíz1. Un mejor valor aproximado para la raíz de f(x) = 0 se obtiene calculando la interseccióncon el eje-x con la parábola que se ajusta a los valores de f(x) para las tres aproximaciones iniciales f(x0), f(x1), f(x2)(figura 3.8.1), con las cuales define la siguiente relación:

Luego calcula los valores A, B y C con las siguientes fórmulas:

El valor de la nueva aproximación se obtiene con la fórmula siguiente:

El algoritmo para este método emplea las ecuaciones3.8.1, 3.8.2 y 3.8.3, para calcular una nueva aproximacióny luego hace las siguientes asignaciones

x0 = x1, x1 = x2, x2 = x3,

y calcula otra nueva aproximaxión; el crtiterio definalización se basa en una tolerancia numéricaestipulada, ξ, y cuando f(x3) < ξ entonces finaliza elproceso iterativo. En la figura 3.8.2 se presentan lasfórmulas para el caso en el cual la función se referencia

0 1 Weisstein, Eric W.: «Muller's Method», From MathWorld--A Wolfram Web Resource, 1999 – 2007, http://mathworld.wolfram.com/MullersMethod.html //

Zimmerman, W.: «Computing, Root Finding – Muller’s Method», Lecture 2, University of Sheffield, 1999, http://eyrie.shef.ac.uk/lec2/. // «NUMERICALRECIPES IN FORTRAN 77: THE ART OF SCIENTIFIC COMPUTING», (ISBN 0-521-43064-X), Copyright (C) 1986-1992 by Cambridge UniversityPress. Programs Copyright (C) 1986-1992 by Numerical Recipes Software.

01

12

xxxxq

−−

= (3.8.1)

( ) ( ) ( ) ( )( ) ( ) ( ) ( ) ( )( ) ( )2

02

12

2

02

12

1112

1

xfqCxfqxfqxfqB

xfqxfqqxqfA

+=++−+=

++−=

(3.8.2)

Figura 3.8.1 Esquema gráfico que ilustra losparámetros básicos del Método Muller.

X3

Parábola

( ) ( )ACBBmaxCxxxx

42

21223−±

−−= (3.8.3)

Page 89: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/10/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 89 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

como un polinomio P(x) y los tres puntos de la aproximaxión inicial se nombren como xn, xn-1, xn-2. La figura 3.8.3presenta un algoritmo genérico para el Método Muller.

El Método Muller puede hallar las raíces complejas (imaginarias) de un polinomio f(x) = 0. En este sentido, el algoritmo dela figura 3.8.2 debe refinarse para incluir el tratamiento de la variable compleja.

En muchos prácticos las raíces de una función desciben la dinámica de un sistema físico, siendo gobernada dichadinámica por el polinomio característico del sistema; si las raíces de dicho polinomio son positivas, el sistema es inestable;si las raíces son negativas el “ruido” o perturbación del sistema decae, si las raíces son complejas, el “ruido” o perturbacióntiene un comportamiento oscilatorio, con amplitud que aumenta o disminuye. El Método Muller al hallar los ceros (lasráices) de la ecuación cudrática que surge, véase la ecuación 3.8.3, también puede hallar los pares complejos conjugados

correspondientes a las raíces del polinomio original.

Al emplear los tres valores iniciales: X0 = 2.75, X1 = 3.15, X2 = 3.5 en 220iteraciones se obtiene la raíz X3= 3,76167360315801, empleando un nivel deprecisión Epsilon = 0.001. Si no se escogen bien los tres valores de inicio, elMétodo Muller genera desbordamiento aritmético o –de todas meneras- converge

lentamente.

Un programa en Visual Basic, con el cual se logró los resultados descritos, es que se muestra en la figura 3.8.5. Unprograma en MATLAB se muestra en la figura 3.8.62.

0 2 John H. Mathews and Kurtis D. Fink: «NUMERICAL METHODS: Using Matlab», Fourth Edition, (c) 2004, ISBN: 0-13-065248-2, Prentice-Hall Pub.Inc., Upper Saddle River, NJ 07458, USA.

Figura 3.8.2 Ecuaciones para el MétodoMuller referidas al polinomio P(x) y a lospuntos nombrados como xn, xn-1, xn-2.

1. Obtener tres puntos iniciales de aproximaxión x0, x1, x2 y una precisiónnumérica ξ.

2. Repetir2.1 Calcular q con la ecuación 3.812.2 Calcular los valores A, B, C con las ecuaciones 3.8.22.3 Calcular la nueva aproximación, x3, con la fórmula 3.8.32.4 Contar el número de iteraciones, n = n +1

Hasta que |f(x3)| < ξ 3. Mostrar la raíz, x3, el número de iteraciones, n.

Figura 3.8.3 Algoritmogenérico para el MétodoMuller.

FFIIGGUURRAA 33..88..44 Esquema gráfico de f(x) = x3-5x2+2x+10.

Page 90: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/10/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 90 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Dim aux As Double, aX0 As Double, bX1 As Double, cX2 As Double X0 = 0.25: X1 = 0.5: X2 = 1#: Epsilon = 0.001: N = 0 aX0 = X0: bX1 = X1: cX2 = X2 Do q = (X2 - X1) / (X1 - X0) A = q * f(X2) - q * (1# + q) * f(X1) + (q ^ 2) * f(X0) B = (2# * q + 1#) * f(X2) - ((1# + q) ^ 2) * f(X1) + (q ^ 2) * f(X0) C = (1# + q) * f(X2) X3 = X2 - (X2 - X1) * ((2# * C) / (Maximo(B, Sqr(B ^ 2 - 4# * A * C)))) N = N + 1: aux = f(X3) X0 = X1: X1 = X2: X2 = X3 Loop Until (Abs(f(X3)) < Epsilon) Text1 = "RAIZ, X3= " & X3 & vbCrLf & vbCrLf & "f(x3) = " & _ Format(Abs(f(X3)), "###0.0000000000000000000") & _ vbTab & "Epsilon = " & Epsilon & vbCrLf & "No. iteraciones = " & N & vbCrLf & vbCrLf & _ "X0 = " & aX0 & vbTab & " X1 = " & bX1 & vbTab & " X2 = " & cX2

FFIIGGUURRAA 33..88..55 Un algoritmo en Visual Basic para obtener una raíz f(x) = x3-5x2+2x+10,empleando el Método Muller. La función se define como el procedimiento f().

function [p,y,err]=muller(f,p0,p1,p2,delta epsilon,max1)P=[p0 p1 p2];Y=feval(f,P);for k=1:max1 h0=P(1)-P(3);h1=P(2)-P(3);e0=Y(1)-Y(3);e1=Y(2)-Y(3);c=Y(3); denom=h1*h0^2-h0*h1^2; a=(e0*h1-e1*h0)/denom; b=(e1*h0^2-e0*h1^2)/denom;if b^2-4*a*c > 0 disc=sqrt(b^2-4*a*c); else disc=0; endif b < 0 disc=-disc; end z=-2*c/(b+disc); p=P(3)+z;if abs(p-P(2))<abs(p-P(1)) Q=[P(2) P(1) P(3)]; P=Q; Y=feval(f,P); end if abs(p-P(3))<abs(p-P(2)) R=[P(1) P(3) P(2)]; P=R; Y=feval(f,P); endP(3)=p; Y(3) = feval(f,P(3)); y=Y(3);err=abs(z); relerr=err/(abs(p)+delta); if (err<delta)|(relerr<delta)|(abs(y)<epsilon) break endend

FFIIGGUURRAA 33..88..66 Un programa en MATLAB para el algoritmo de la figura 3.8.3.

Page 91: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/10/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 91 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

RREECCUURRSSOOSS WWEEBBGGRRÁÁFFIICCOOSS YY BBIIBBLLIIOOGGRRÁÁFFIICCOOSS SSOOBBRREE EELL MMÉÉTTOODDOO MMUULLLLEERR

1. Muller's MethodJohn Burkardt, Pittsburgh Supercomputing Center, Carnegie Mellon University, Pittsburgh, PA

2. Muller's MethodMike Sussman, Mathematician at the Bettis Atomic Power Lab in West Mifflin, PA

3. Muller's MethodPrzemyslaw Bogacki, Math. Dept., Old Dominion University, Norfolk, VA

4. Muller's MethodEric Weisstein, MathWorld, Wolfram Research, Inc., Champaign, IL

5. Muller's method to find the roots of a polynomialEric R. Pardyjak, Mechanical Engineering, Univ. of Utah, Salt Lake City, UT

6. Complex Roots: Muller's MethodAndrea Burgoyne; Will Zimmerman, Chemical Engineering, University of Sheffield, UK

7. Muller's MethodGerald Roskes, Queens College, The City University of New York, Flushing, NY

8. Muller's MethodKerry Wilson, Math. Dept., North Georgia College & State University, Dahlonega, GA

9. Polynomial zerofinding by elementary operations on Frobenius companion matrix.Karbassi, S. M.; Shariatnejad, M.Far East J. Appl. Math. 7 (2002), no. 1, 25--33, MathSciNet.

10. Optimisation of modified Mueller and Muller algorithmDanesfahani, G.R.; Jeans, T.G.Electronics Letters, v 31, n 13, Jun 22, 1995, p 1032-1033, Compendex

11. On the use of Davidenko's method in complex root searchHejase, Hassan A.N.IEEE Transactions on Microwave Theory and Techniques, v 41, n 1, Jan, 1993, p 141-143,Compendex

12. A method of Muller's method for computing the zeros of a function. (Italian)Frontini, M.; Tognoni, A.Istit. Lombardo Accad. Sci. Lett. Rend. A 125 (1991), no. 1, 69--75 (1992), MathSciNet.

13. A study on new Muller's method.Park, Bong-kyu; Hitotumatu, SinPubl. Res. Inst. Math. Sci. 23 (1987), no. 4, 667--672, MathSciNet.

14. A modified Muller routine for finding the zeroes of a nonanalytic complex function.Dyer, Charles C.J. Comput. Phys. 53 (1984), no. 3, 530--534, MathSciNet.

15. Convergence of Muller's method for finding roots. (Chinese)Xie, Shen QuanKnowledge Practice Math. No. 2 (1980), 18--25, MathSciNet.

16. A stable method of inverse interpolation.Blatt, J. M.Austral. Comput. J. 7 (1975), no. 2, 51--57, MathSciNet.

17. Tangent methods for nonlinear equations.King, Richard F.Numer. Math. 18 (1971/72), 298--304, MathSciNet.

18. A procedure for solving polynomial equations by Muller's method. (Russian)Lozovskiui, V. S.Vyvcisl. Sistemy No. 44 (1971), 155--161, MathSciNet.

Page 92: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/11/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 92 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

3.9 Método de Bernoulli

El Método Bernoulli para hallar una raíz de la ecuación polinómica p(z) = 0, definida como 1

siendo k ≥ 1 and a0ak ≠ 0, y siendo el conjunto {zi}i = 1,2,..., k, los ceros de p(z), construye la siguiente ecuación dediferencias:

que se sabe tiene la solución definida numéricamente por la siguiente relación recurrente:

En la ecuación 3.9.1, el polinomio p(z) es de grado k if a0 ≠ 0. Si el polinomio p(z) tiene un factor (z - zj)r se diceentonces que zj es una raíz de multiplicidad2 r. En el análisis inicial del Método Bernoulli se considera multiplicidadunitaria (r = 1), es decir que las raíces no están repetidas (son distintas a las demás).

El Terorema Fundamental del Álegbra establece que un polinomio p(z), como el definido por la ecuación 3.9.1, tieneprecisamente n raíces reales o complejas si las raíces de multiplicidad r están repetidas r veces. En esta sección seefectuará el análisis del Método Bernoulli para determinar una o más raíces de un polinomio con coeficientes reales.

Aunque los coeficientes del polinomio p(z) en 3.9.1 sean todos reales, pueden aparecer raíces complejas en paresconjugados; es decir que si µ + iλ es una raíz compleja, entonces otra raíz compleja es µ - iλ. El polinomio p(z) puedefactorizarse en factores cuadráticos con coeficientes reales, excepto cuando n es impar, y en tal caso uno de los factoreses lineal. Por lo tanto, cualquier polinomio de grado n, siendo n impar, con coeficientes reales, tiene por lo menos unaraíz real.

Si en 3.9.3 se dan los valores iniciales (que pueden ser arbitrarios) x0, x1, ..., xk-1 se pueden hallar los valores de z1, z2,..., zn que son las raíces del polinomio original 3.9.1. Para calcular la mayor raíz en valor absoluto de la ecuación 3.9.1,es decir su cero dominante3, o raíz dominante, se aplica repetidamente de la ecuación 3.9.2, y la relación de dos términosconsecutivos, en dicha secuencia, tiende –en general – a un límite que se demuestra es la mayor raíz en valor absoluto, sucero dominante, de la ecuación polinómica original4 (ecuación 3.9.1).

En otras palabras, el Método Bernoulli aprovecha la conexión existente entre una ecuación de diferencias lineales y losceros de su polinomio característico con el fín de hallar las raíces de un polinomio5, como el definido por 3.9.1, sin conocerexplícitamente un valor inicial aproximativo de manera exacta.

Si se supone que los valores z1, z2, ..., zk, los ceros de f(z) en 3.9.1, tienen multiplicidad 1, es decir son raíces distintas,entonces la solución de 3.9.2 puede expresarse en la forma:

0 1 Weisstein, Eric W. "Bernoulli's Method." From MathWorld--A Wolfram Web Resource, 1999 – 2007,.

http://mathworld.wolfram.com/BernoullisMethod.html // Mandel, Jan, «Lecture Notes on Essential Numerical Analysis», University of Colorado atDenver, November 30, 2003.

2 O’Donohoe, M.R.: «Numerical Analysis II», 2005, (lectures), www.cl.cam.ac.uk/Teaching/2003/NumAnal2/na2seq.ps.3 Si un polinomio f(x), ó p(x), de grado k tiene ceros z1, z2, ..., zk, no necesariamente distintos, entonces el cero zj se le denomina cero dominante si

su módulo es estrictamente mayor que el módulo de los otros ceros, es decir, si se cumple que | zj | > | zi | para i ≠ j.4 Spencer, Melvin R.: «Polinomial Real Root Finding», a doctoral Dissertation presented to the Department of Civil Engineering at Brigham Young

University, August 1994.5 Mekwi, Wankere R.: «Iteratives Methods for Roots of polynomio», 2001, Op. Cit., pp. 5 – 7.

( )( ) ( ) ( )∏=

− −=−−−=+++=k

iikk

kk zzzzzzzzazazazp1

211

10 ......)( (3.9.1)

0...110 =+++ −− knnnn xaxaxa(3.9.2)

(3.9.3)( ) ,...2,1,,...12211

0

++=+++−= −−− kkknxaxaxaa

x knknnn

(3.9.4)nkk

nnn zwzwzwx +++= ...2211

Page 93: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/11/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 93 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Donde los wj pueden ser calculados si se conocen los ceros de p(z), ecuación 3.9.1; pero los ceros no son conocidos, porlo tanto tampoco lo son los wj; sin embargo los cocientes, qn, entre valores concecutivos de 3.9.4 son así:

Y utilizando 3.9.4, la ecuación 3.9.5 puede reescribirse de la siguiente forma:

Además, supóngase que el polinomio p(z), ecuaciòn 3.9.1, tiene un cero dominante, y sea dicho cero z1 en este caso (z1es real si los coeficientes de p(z) son reales). Igualmente, asúmase que los valores de inicio x0, x1, ...... xk-1 de la solución{xn} de 3.9.4 se escogen de modo que w1 ≠ 06. Bajo tales supuestos, se puede reescribir la ecuación 3.9.6 así:

Ahora, puesto que z1 es un cero dominante, se cumple que | zj | > | zi | para i ≠ j y –por lo tanto- cuando n → ∞ en3.9.7 se cumple el siguiente límite7:

Y aplicando 3.9.8 a la ecuación 3.9.7 se cumple este otro límite cuando n → ∞ :

Entonces z1 es aproximado por la ecuación 3.9.5, y habiéndose obtenido este cero, el polinomio p(z), definido por 3.9.1,es reducido y el procedimiento se repite en el polinomio reducido, por el factor (z – z1). Así, el Método Bernoulli sólopuede hallar uno o dos ceros (una o dos raíces) –a la vez- de un polinomio dado, como p(z) definido por la ecuación 3.9.1,y dicho(s) cero(s) son el (los) de mayor o de menor magnitud dentro del conjunto {zi}i = 1,2,..., k, que constituye las raícesdel polinomio.

Para hallar, por ejemplo, un cero (o raíz) de módulo (valor absoluto) intermedio, es necesario calcular todos los cerosmayores (o menores) y luego removerlos dejando sólo los valores intermedios.

Los anteriores cálculos, ecuaciones 3.9.1 a 3.9.9, se han efectuado bajo el supuesto que el cero dominante, z1, es de tiporeal y distinto de los demás ceros (único); también puede demostrarse que los cálculos se cumplen cuando z1 tienemultiplicidad mayor que 1, pero cada uno de sus valores es de tipo real8. Sin embargo, si el cero dominante es de tipocomplejo las relaciones 3.97 y 3.9.8 no se cumplen. Por otra parte, si, por ejemplo, la raíz z2 tiene una magnitud cercanaa la raíz z1 entonces la convergencia es muy lenta. Y estas son llas principales desventajas del Método Bernoulli.

0 6 Puede demostrarse que esta condición siemore se satisface si los valores iniciales x0, x1, ...... xk-1 se escogen de modo que se cumpla que xk+1 = xk+2 =

... = x1 = 0, x0 = 1.7 Carnahan, Brice; Luther, H.A.; Wilkes, James O.: «Applied Numerical Methods», John Wiley & Sons, Inc., New York, USA, 1969, SBN 471-13507-0,

Chapter 3: «Solution of Equations, Bernoulli’s Method», pp. 142-143.8 Henrici, P.: «Essentials of Numerical Analysis», Wiley and Sons, 1964. // Hansen, E. and M. Patrick, M.: «A family of root -finding methods», Numer.

Math., Vol. 27, pp. 257-269, 1977. // K.F. RILEY, M.P. HOBSON and S. J. BENCE: «Mathematical Methods for Physics and Engineering», ThirdEdition, 2006, Chapter 27: «Numerical Methods», pp. 894 – 140, Cahepter 24: «Complex variables», pp. 824 – 870, Cambridge University Press,Cambridge, England, 2006, ISBN-10 0-521-86153-5.

n

nn x

xq 1+= (3.9.5)

nkk

nn

nkk

nn

n zwzwzwzwzwzwq

+++++

=+++

.....

2211

1122

111 (3.9.6)

n

kk

n

n

kk

n

n

zz

ww

zz

ww

zz

ww

zz

ww

zq

⎟⎟⎠

⎞⎜⎜⎝

⎛++⎟⎟

⎞⎜⎜⎝

⎛+

⎟⎟⎠

⎞⎜⎜⎝

⎛++⎟⎟

⎞⎜⎜⎝

⎛+

=

++

111

2

1

2

1

11

1

1

2

1

2

1

...1

...1(3.9.7

kjzz

limn

j

n,..,3,2,0

1

=→⎟⎟⎠

⎞⎜⎜⎝

⎛∞→ (3.9.8)

( ) 1zqlim nn=

∞→(3.9.9)

Page 94: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/11/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 94 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Una extensión del Método Bernoulli se debe a Rutishauser9, y es el algoritmo QD (Quotient-Difference) que tiene laventaja de calcular -a la vez- todos los ceros de una ecuación polinómica como la definida por 3.9.1. No obstante, elalgoritmo QD es lento, pues sólo tiene –en su versión estándar- convergencia lineal (véase la sección 3.10).

RREECCUURRSSOOSS WWEEBBGGRRÁÁFFIICCOOSS YY BBIIBBLLIIOOGGRRÁÁFFIICCOOSS SSOOBBRREE EELL MMÉÉTTOODDOO BBEERRNNOOUULLLLII

1. "Numerical Mathematics in Scientific Computation", Germud Dahlquist, Åke Björck, 2005,//www.mai.liu.se/~akbjo

2. "The Java Programmer's Guide to Numerical Computation", Ronald Mak, Prentice-Hall.//www.apropos-logic.com/nc/3. "Numerical Analysis Topics Outline", S.-Sum Chow, 2002, //www.math.byu.edu/~schow/work4. A.C. Aitken, Further numerical studies in algebraic equations and matrices, Proc. Roy. Soc. Edinburgh

Sect. A 51 (1931) 80--90.5. A.C. Aitken, On Bernoulli's numerical solution of algebraic equations, Proc. Roy. Soc. Edinburgh 46

(1926) 289--305.6. A.C. Aitken, The contributions of E.T. Whittaker to algebra and numerical analysis, Proc. Edinburgh

Math. Soc. 11 (1958) 31--38.7. G. Baker and P. Graves-Morris, Padé approximants I (Addison-Wesley, London, 1981) 96--102.8. G. Baker, Recursive calculation of Padé approximants, in: P.R. Graves-Morris, Ed., Padé approximants

and their applications (Springer, Berlin, 1972) 83--92.9. M. Balfour and A.J. McTernan, The Numerical Solution of Equations (Heinemann, London, 1st ed., 1967).10. F.L. Bauer, Beiträge zur Entwicklung numerischer Verfahren für programmgesteuerte Rechenanlagen, I.

Quadratisch konvergente Durchführung der Bernoulli--Jacobischen Methode zur Nullstellenbestimmungvon Polynomen, Sitzungsber. Math.-Natur. Kl. Bayer. Acad. Wiss. (1954--1955) 275--303; II. DirekteFactorisierung eines Polynoms, Sitzungsber. Math.-Natur. Kl. Bayer. Akad. Wiss. (1956--1957) 163--203.

11. F.L. Bauer, The g-algorithm, J. Soc. Indust. Appl. Math. 8 (1960) 1--17.12. F.L. Bauer and Kl. Samelson, Polynomkerne und Iterationsverfahren, Math. Z. 67 (1957) 93--98.13. F.L. Bauer, The quotient-difference algorithm and epsilon-algorithms, in: On Numerical Approximation

(Univ. of Wisconsin Press, Madison, WI, 1959) 361--370.14. F.L. Bauer, Quadratische Konvergenz der Bernoullischen Methode, Z. Angew. Math. Mech. 34 (1954)

287.15. F.L. Bauer, Das Verfahren der abgekürtzen Iteration für algebraische Eigenwerteprobleme, insbesondere

zur Nullstellenbestimmung eines Polynoms, Z. Angew. Math. Phys. 7 (1956) 17--32.16. F.L. Bauer, Nonlinear sequence transformations, in: Approximation of Functions (Elsevier, Amsterdam,

1965) 134--151.17. L. Berg, Numerisches Faktorisierung von Polynomen, Z. Angew. Math. Mech. 58 (1978) 245--249.18. W.G. Bickley, On Smith's method for calculation of the roots of polynomial equations, Math. Gaz. 46

(1962) 32.19. D. Bini, Complexity of parallel polynomial computations, in: D.J. Evans, Ed., Parallel Computation:

Methods, Algorithms and Applications (Adam Hilger, 1989) 115--126.20. P.A. Brooker, The solution of algebraic equations on the Edsac, Proc. Cambridge Philos. Soc. 48 (1952)

255--270.21. R.A. Buckingham, Numerical Methods (Pitman, London, 1957) 251--304.22. A. Bultheel, Zeros of a rational function defined by its Laurent expansion, in: H. Werner and H.J. Bunger,

Eds., Padé Approximation and its Applications, Bad Honnef, 1983, Lecture Notes in Math. 1071(Springer, New York, 1984) 34--48.

23. F. Cajori, A History of Mathematics (Macmillan, New York, 2nd ed., 1919).24. B. Carnahan, H.A. Luther and J.O. Wilkes, Applied Numerical Methods (Wiley, New York, 1969) 141--

209.25. L. Cerlienco and F. Piras, Successioni ricorrenti lineari e algebra dei polinomi, Rend. Mat. Ser. 7 1 (2)

(1981) 305--318.

0 9 Henrici, P. And Watkins, Bruce O.: «Finding zeros of a polynomial by the Q-D algorithm», Communications of the ACM

Volume 8 , Issue 9, September 1965, Pages: 570 – 574, ISSN:0001-0782, ACM Press New York, NY, USA, Univ. of California, Los Angeles, andTechnische Hochschule, Zurich, Switzerland, Utah State Univ., Logan. // Wilkinson, J.H.: «Convergence of the LR, QR, and Related Algorithms»,The Computer Journal, No. 4, 1965, pp. 77-84. // Volpi, Leonardo, «Notes of Numerical Calculus», January 2006, by Foxes Team, ITALY, FirstEdition, pp. 17 - 26.

Page 95: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/11/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 95 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

26. F. Cohn, Über die in recurrirender Weise gebildeten Grössen und ihren Zusammenhang mit denalgebraischen Gleichungen, Math. Ann. 44 (1894) 473--538.

27. P.D. Crout, A procedure for obtaining the zeros of functions or their derivatives by Lagrangeaninterpolation, J. Math. and Phys. 39 (1960) 141--150.

28. A. Cuyt, in: A. Cuyt and L. Wuytack, Eds., Nonlinear Methods in Numerical Analysis, North-HollandMath. Stud. 136, Stud. Comput. Math. 1 (North-Holland, Amsterdam, 1987) 220--237.

29. M. D'Ocagne, Mémoire sur les suites récurrentes, J. École Poly. 64 (1894) 151--224.30. J.E. Dennis, J.F. Traub and R.P. Weber, Algorithms for solvents of matrix polynomials, SIAM J. Numer.

Anal. 15 (1978) 523--533.31. B. Dimsdale, On Bernouilli's method for solving algebraic equations, Quart. Appl. Math. 6 (1948) 77.32. D. Dobbs and R. Hanks, A modern course on the theory of equations (Polygonal Publishers., 2nd ed.,

1992).33. D.E. Dobbs and R. Hanks, A Modern Course on the Theory of Equations (Polygonal Publ. House, Passic,

NJ, 1980).34. H. Eltermann, Die Lösung algebraischer und transzendenter Gleichungen mit Hilfe von rekursiven Folgen,

Z. Angew. Math. Mech. 32 (1952) 231--232.35. L. Euler, Introductio in Analysii Infinitorum, I (1748) Chapter 17.36. C.M. Fiduccia, An efficient formula for linear recurrences, SIAM J. Comput. 14 (1985) 106--112.37. C.E. Fröberg, Introduction to Numerical Analysis (Addison-Wesley, Reading, MA, 1969).38. T.C. Fry, Some numerical methods for locating roots of polynomials, Quart. Appl. Math. 3 (1945) 89--

105.39. C.F. Gerald, Applied Numerical Analysis (Addison-Wesley, Reading, MA, 1984) 1--79.40. W.B. Gragg, The Padé table and its relation to certain algorithms of numerical analysis, SIAM Rev. 14

(1972) 1--62.41. W.B. Gragg and A.S. Householder, On a theorem of Koenig, Numer. Math. 8 (1966) 465--468.42. D. Greenspan, On popular methods and extant problems in the solution of polynomial equations, Math.

Mag. 31 (1957--1958) 239--253.43. D. Gries and G. Levin, Computing Fibonacci numbers (and similarly defined functions) in log time,

Inform. Process. Lett. 11 (2) (1980) 68--69.44. W. Heitzinger, I. Troch and G. Valentin, Praxis Nichtlinearer Gleichungen (Hanser Verlag, München,

1985).45. P. Henrici, Essentials of Numerical Analysis (Wiley, New York, 1982) 90--103; 136--168.46. P. Henrici, Quotient-difference algorithms, in: A. Ralston and H.S. Wilf, Eds., Mathematical Methods for

Digital Computers, Vol. II (Wiley, New York, 1967) 35--62.47. P. Henrici, Applied and Computational Complex Analysis, Vol. I (Wiley, New York, 1974) 433--552.48. E. Isaacson and H.B. Keller, Analysis of Numerical Methods (Wiley, New York, 1966) 85--133.49. G. Jacobi, Observatiunculae ad theoriam aequationum pertinentes, J. Reine Angew. Math. 13 (1835) 340--

352.50. M.A. Jenkins, Bernouilli's method with implicit shifting, J. Assoc. Comput. Mach. 20 (1973) 539--544.51. W. Jennings, First Course in Numerical Methods (MacMillan, New York, 1964) 5--12; 23--39.52. W.B. Jones and A. Magnus, Computation of poles of two-point Padé approximants and their limits, J.

Comput. Appl. Math. 6 (2) (1980) 105--119.53. J. König, Über eine Eigenschaft der Potenzreihen, Math. Ann. 23 (1884) 447--449.54. J. König, Ein allgemeiner Ausdruck für die ihrem absoluten Betrage nach kleinste Wurzel der Gleichung

nten Grades, Math. Ann. 9 (1876) 530--540.55. D. Kershaw, An analysis of the method of L. Fox and L. Hayes for the factorization of a polynomial,

Linear Algebra Appl. 86 (1987) 179--187.56. S. Kulik, On the solution of algebraic equations, Proc. Amer. Math. Soc. 10 (1959) 185--192.57. G.N. Lance, Numerical Methods for High Speed Computers (Iliffe, London, 1960) 123--137.58. G.R. Lindfield and J.E.T. Penny, Microcomputers in Numerical Analysis (Wiley, New York, 1989)

Chapter 2.59. F. Locher, A stability test for real polynomials, Numer. Math. 66 (1993) 33--40.60. K. Margaritis and D.J. Evans, A systolic ring architecture for solving polynomial equations, Internat. J.

Comput. Math. 25 (1988) 189--201.61. K. Margaritis and D.J. Evans, A systolic ring architecture for solving polynomial equations, in: David J.

Evans, Ed., Systolic Algorithms (Gordon and Breach, 1991) 55--68.

Page 96: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/11/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 96 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

62. K. Margaritis and D.J. Evans, Systolic designs for Bernoulli's method, Parallel Comput. 15 (1990) 227--240.

63. D. Markovitch, On a new method of calculating the roots of algebraic equations, Math. Gaz. 49 (1965)388.

64. N.S. Mendelsohn, The computation of complex proper values and vectors of a real matrix withapplications to polynomials, Math. Comp. 11 (1957) 91--94.

65. M. Mignotte, Note sur la méthode Bernoulli, Numer. Math. 26 (1976) 325--326.66. M. Mignotte, Some problems about polynomials, in: R.D Jenks, Ed., Proc. 1976 ACM Symp. on Symbolic

and Algebraic Computation (1976) 227-- 228.67. D.G. Moursund, Examination of multiple roots and root clusters of a polynomial using the Bernoulli

procedure, J. Assoc. Comput. Mach. 12 (1965) 169--174.68. I. Munro, Some results concerning efficient and optimal algorithms, in: Third Annual ACM Symp. on the

Theory of Computers, Shaker Heights (1971) 40--44.69. W.D. Munro, Some iterative methods for determining zeros of functions of a complex variable, Pacific J.

Math. 9 (1959) 555--566.70. E. Netto, Vorlesungen über Algebra (Teubner, Leipzig, 1896).71. F.W.J. Olver, The evaluation of zeros of high-degree polynomials, Philos. Trans. Roy. Soc. London Ser. A

244 (1952) 385--415.72. R. Perrin, Sur la résolution des équations numériques au moyen des suites récurrentes, C.R. Acad. Sci.

Paris 120 (1894) 990--993.73. A. Ralston and P. Rabinowitz, A First Course in Numerical Analysis (McGraw-Hill, New York, 2nd ed.,

1987) 354.74. J.R. Rice, Numerical Methods, Software and Analysis (McGraw-Hill, New York, 1983) 217--264.75. J.R. Rice and S. Rosen, NAPSS -- a numerical analysis problem solving system, in: Proc. ACM 21st

National Conf. (1966) 51--56.76. C. Runge, Separation und Approximation der Wurzeln, in: Encyklopädie der Mathematischen

Wissenschaften, I, 1 (Teubner, Leipzig, 1898) 404--448.77. G.S. Smith, A new method of calculating roots of algebraic equations, Math. Gaz. 44 (1960) 241--245;

ibid. 51 (1967) 233--236.78. G.W. Stewart, On a companion operator for analytic functions, Numer. Math. 18 (1971) 26--43.79. E.L. Stiefel, An Introduction to Numerical Mathematics (Academic Press, New York, 1963).80. A.N. Stokes, A stable quotient-difference algorithm, Math. Comp. 34 (1980) 515--519.81. W.C. Taylor, A neglected method for resolution of polynomial equations, J. Franklin Inst. 257 (1954)

459--464.82. R.F. Thomas Jr, Corrections to numerical data on Q-D algorithm, Letter to Editor, Comm. ACM 9 (1966)

322--323.83. D.D. Tosic and D.V. Tosic, A modification of Bernoulli's method for evaluations of zeros of polynomials,

in: D. Herceg, Ed., Numerical Methods and Approximation Theory, Novi Sad, 1985 (University of NoviSad, 1985) 149--154.

84. F.J. Urbanek, An O(logn) algorithm for computing the nth element of the solution of a difference equation,Inform. Process. Lett. 11 (1980) 66--67.

85. J. Van Iseghem, Convergence of the vector QD-algorithm. Zeros of vector orthogonal polynomials, J.Comput. Appl. Math. 25 (1) (1989) 33--46.

86. H. Weber, Traité d'Algèbra Supérieure (Gauthier-Villars, Paris, 1898).87. H. Weber, Lehrbuch der Algebra (Chelsea, New York).88. E.T. Whittaker and G. Robinson, The Calculus of Observations (London, 4th ed., 1944) 78--131.89. H.S. Wilf, Mathematics for the Physical Sciences (Wiley, New York, 1962) 82--107.90. H.S. Wilf, The numerical solution of polynomial equations, in: A. Ralston and H.S. Wilf, Eds.,

Mathematical Methods for Digital Computers (Wiley, New York, 1960) 233--241.91. T.C. Wilson and J. Shortt, An O(logn) algorithm for computing general order-k Fibonacci numbers,

Inform. Process. Lett. 10 (1980) 68--75.92. D.M. Young and R.T. Gregory, A Survey of Numerical Mathematics, Vol. I (Addison-Wesley, Reading,

MA, 1972) 93--245.93. V.L. Zaguskin, Handbook of Numerical Methods for the Solution of Algebraic and Transcendental

Equations (Pergamon, Oxford, 1961).94. V. Zakian, Evaluation of largest or smallest zero of a polynomial, Electron. Lett. 6 (1970) 217--219.

Page 97: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/14/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 92 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

)1(6

)1(5

)1(5

)1(4

)1(4

)1(3

)1(3

)1(2

)1(2

)1(1

)1(1 ,,,,,,,,,, dqdqdqdqdqd

3.10 Método de Rutishauser: Algoritmo QD

El Método Rutishauser1, o Algoritmo QD2, para hallar una raíz de la ecuación polinómica p(z) = 0, definida como 3

siendo n ≥ 1 and a0ak ≠ 0, y siendo el conjunto {zi}i = 1,2,..., k, los ceros de p(z).

El Algoritmo QD (Quotient-Difference) es una brillante generalización del Método Bernoulli (denominado a veces Métodode las Potecncias), y ha sido desarrollado por Rutishauser4. Este algoritmo permite calcular – a la vez- todas las raíces deun polinomio, como el definido por 3.10.1, y –además- no requiere ningún valore inicial, pués sólo hace uso de loscoeficientes ai, i = 0, n.. Bajo condiciones apropiadas y razonables el Algoritmo QD converge suministrando las raícesreales y una estimación de la precisión alcanzada. Con una ligera variante se puede adoptar el Algoritmo QD paraobtener las raíces complejas. Como la convergencia del Algoritmo QD es lineal, y especialmente lenta cuando n es muygrande, la utilización principal es proveer una buena aproximación inicial para algoritmos de rápida convergencia, como elNewton-Rapshon mejorado o el de Halley.

El Algoritmo QD, en sus detalles de cálculos, es bastante complicado y existen diversas y diferentes variantes tanto en suparte teórica como en su implementación. En la versión utilizada por Rutishauser, se emplea un enfoque matricial de lospárametros básicos de trabajo del algoritmo: la fila i-ésima representa la correspondiente iteración, y la columnascontienen las diferencias (di) y los cocientes (qi).

Par ilustrar el proceso iterativo del Algoritmo QD, considérese el siguiente polinomio de grado 5:

Para el polinomio 3.10.2 se tiene que: a5 = 1.0, a4 = 22.0, a3 = 190.0, a2 = 800.0, a1 = 1369.0, a0 = 738.0. La tabla QDconsta de 11 columnas, nombradas así, d1 , q1, d2 , q2, d3 , q3, d4 , q4, d5 , q5, d6. Las columnas d1 y d6 sonauxiliares y siempre se llenan con cero (0). Como cada fila corresponde a un paso del proceso iterativo, la convención quese adopta es llamar d(i), q(i) los coeficientes del paso i-ésimo; así, por ejemplo, los coeficientes del paso inicial 0 (cero)serán:

y los coeficientes del paso 1 serán:

y, así, sucesivamente para cada paso iterativo.

IINNIICCIIAALLIIZZAACCIIÓÓNN DDEE LLAA TTAABBLLAA QQDD. La primera fila, indicada por el índice 0 (cero), se utiliza para iniciar la iteración QD y sellena solamente con los coeficientes originales del polinomio p(x), definido por 3.10.2, de la siguiente forma:

0 1 Andersen ,CHR.: «The QD-Agorithm as A Method for Findinf the Roots of a Polynomial Equation when All Roots are Positive». Technical Report CS9,

June 8, 1964, Computer Science Division, School of Humanities and Sciences, Stanford University. // Henrici, P. And Watkins, Bruce O.: «Findingzeros of a polynomial by the Q-D algorithm», Communications of the ACM, Volume 8 , Issue 9, September 1965, Pages: 570 – 574, ISSN:0001-0782,ACM Press New York, NY, USA. // O’Donohoe , M.R.: «Numerical Analysis II», (Lectures notes), pp. 33 – 35, 2005.

2 Henrici, P. And Watkins, Bruce O.: «Finding zeros of a polynomial by the Q-D algorithm», Communications of the ACM, Volume 8 , Issue 9, September1965, Pages: 570 – 574, ISSN:0001-0782, ACM Press New York, NY, USA. // Volpi , Leonardo: «Note of Numerical Calculus: Non Linear Equations,Practical methods for roots finding, Part II - Zeros of Polynomials», Jan. 2006, by Foxes Team, ITALY, 1. Edition, pp. 22 – 26.3 Weisstein, Eric W. "Bernoulli's Method." From MathWorld--A Wolfram Web Resource, 1999 – 2007,.

http://mathworld.wolfram.com/BernoullisMethod.html // Mandel, Jan, «Lecture Notes on Essential Numerical Analysis», University of Colorado atDenver, November 30, 2003.

4 Rutishauser,H.: «Der Quotienten-Differenzen-Algorithmus», Z. Angew. Math. Phys. 5 (1954) 233—251.

( )( ) ( ) ( )∏=

−− −=−−−=+++=

n

iik

nn

nn zzzzzzzzazazazp

1210

11 ......)( (3.10.1)

)0(6

)0(5

)0(5

)0(4

)0(4

)0(3

)0(3

)0(2

)0(2

)0(1

)0(1 ,,,,,,,,,, dqdqdqdqdqd

(3.10.2)p(x) = x5 + 22x4 + 190x3 + 800x2 + 1369x + 738

(3.10.3)

Page 98: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/14/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 93 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Al observar las ecuaciones 3.10.3, se deduce que –en general- el polinomio no debe tener coeficientes iguales a 0 (cero).Esta es una de las restricciones fuertes del Algoritmo QD. Sin embargo, desde que Rutishauser publicó su primera versiónen 1954, se han desarrollado mejoras y variantes que no tienen dicha restricción. La primera fila de la tabla es la siguiente:

Las siguientes filas , a partir d ela fila 0 (cero), se generan por medio d elas relaciones características, debido a las cualesel algoritmo toma su nombre (cocientes (Q) – diferencias(D)):

De 3.10.4, se obtiene la expresión genérica para el coeficiente q( i+1) del paso i +1:

Igualmente, de 3.10.4 se obtiene la expresión genérica para los coeficientes d( i+1) del paso i +1:

Los valores de los coeficientes d1( i+1) = d6( i+1) = 0. En resumen, para generar una nueva fila (i + 1), en la tabla QD, seemplea el siguiente esquema, mostrado en la figura 3.10.1:

Para calcular q( i+1) se emplean los valores de fila inmediatamente anterior. Para calcular d(i+1) se utiliza los valoresadyacentes de la misma fila y el valor d( i ) de la fila anterior. Las primeras 8 iteraciones del Algoritmo QD para elpolinomio definido por la ecuación 3.10.2 se muestran en la tabla 3.102:

.

TTAABBLLAA 33..1100..11 Primera fila del Algoritmo QD para el polinomio definido por 3.10.2.

(3.10.4)

para k = 1,2,.., 5 (3.10.5)

para k = 2,3,.., 5 (3.10.6)

FFIIGGUURRAA 33..1100..11 Esquema para obtener los cocientes (qi) y las diferencias (di) en el Algoritmo QD.

TTAABBLLAA 33..1100..22 Primeras 8 iteraciones del Algoritmo QD para el polinomio definido por 3.10.2.

Page 99: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/14/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 94 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

ε<i

i

qe

( ) 43)(

0.10)8(

3)7(

2

)8(3

)8(2

≅=

−≅+=

qqp

qqs

En la tabla 3.10.2, a primera vista, se observa que los valores de las columnas q1, q4, q5 tienenuna secuenciaconvergente a las raíces reales; mientras que los valores de las columnas q2, q4 no parecen tener ninguna secuenciaconvergente. Esto puede ser indicio de la presencia de dos raíces que son un par complejo conjugado. El polinomio p(x),definido por la ecuación 3.10.2, tendría –entonces- cinco raíces (como establece el Teorema Fundamental del Álgebra),tres reales y dos complejas.

Las etapas siguientes en el Algoritmo QD consisten en determinar como extrarer las rañices de la tabla QD. El criterioutilizado para ello se basa en los errores estimados calculados.

Raíces reales simples – El error estimado5 se calcula por medio de la fórmula siguiente:

Si se cumple que

siendo ε la tolerancia numérica estipulada, entonces se acepta la raíz qi.

Raíces complejas conjugadas – se calculan las dos nuevas secuencias {si} y {pi} definidas como:

Y el error en la aproximación de las raíces se calcula con las siguientes fórmulas:

De las ecuaciones 3.10.8 y 3.10.9 si se cumple que

siendo ε una tolerancia numérica estipulada, entonces se toman los dos valores s = si , p = pi y se resuelve la siguienteecuación cuadrática: x2 + s·x + p = 0, cuyas raíces se obtienen así:

De las últimas dos filas en la tabla 3.10.2, tabla QD, se calcula:

Con lo cual las raíces complejas se obtienen al resolver la ecuación cuadrática x2 -10x + 43 = 0, ⇒ x1,2 ≈ 5 ± 4.2 i.

De las ecuaciones 3.10.8 y 3.10.9 la estimación del error promedio es ≈ 0.076, con un error absoluto aproximado de ε ≈0.07 (52 + 4.22 )1/2 ≈ 0.5.

Coeficientes nulos. El Algoritmo QD no puede iniciarse si uno o más de los coeficientes ai, i = 0, n, son ceros (nulos).En tal caso, el método utilizado es el de la sustitución de raíces, en el cual se emplea, para el polinomio p(z) definido por3.10.1, la suttiución xi = zi - λ, con i = 1, n, siendo λ un valor tomado aleatoriamente (ayuda el poder generar unconjunto de números aleatorios, dentro del rango estimado d ela sraíces, para poder escoger λ . Dicha transformación

0 5 Acton, Forman S.: «Numerical Methods That Work», Harper and Row, New York, 1970. ISBN 0-88385-450-3. xviii+541 pp. Reprinted by Mathematical

Association of America, Washington, D.C., with new preface and additional problems, 1990. // Ashenhurst , R.L. and N. Metropolis, N.: «Errorestimation in computer calculation», American Mathematical Monthly, Vol. 72, No. 2, pp. :47 - 58, 1965.

( )kikii dde ,1,10 ++= (3.10.7)

si = q i, k + q i, k+1pi = q i-1, k * q i, k+1

(3.10.8)

esi = |si − si-1 |epi = |pi - pi-1 |1/2 (3.10.9)

εε <<i

i

i

i

pepy

ses ,

Page 100: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/14/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 95 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

elimina los coeficientes nulos del polinomio p(z), como el definido por 3.10.1, y permite iniciar el Algoritmo QD para hallarlas raíces de p(z).Después de tal proceso transfromativo, y al obtener los valores xi, es suficiente realizar el cambio inverso zi = xi + λpara obtene rlas raíces originales del polinomio p(z).

Por ejmplo, el polinomio de grado 5 : z5 – 8z2 – 10z - 1 tiene coeficientes nulos a4, a3, por locual se tranforma en otropolinomio diferente, efectuando la sustitución z = x +1 con la cual se obtiene el siguiente polinomio de inicio para elAlgoritmo QD:

(x +1)5 –8*(x +1)2 –10*(x +1) - 1 = x5 + 5x4 + 10x3 + 2x2 – 21x - 18

al solucionar este polinomio, hallar sus ceros, entonces las raíces del polinomio original se encuentran aumentando en 1cada raíz xi encontrada.

Raíces reales y distintas. Las raíces de un polinomio son distintas si la multiplicidad de cada una es 1, es decir no hayraíces repetidas. Considérese, por ejemplo, el polinomio Wilkinson6 de grado 5, definido así:

y cuyo esquema gráfico se muestra en la figura 3.10.2. Se sabe que el polinomio definido en 3.10.10 tiene todas sus raícesreales y distintas x = 1, 2, 3, 4, 5 Es conveniente observar cómo el Algoritmo QD se comporta en este caso; las primeras12 iteraciones, tabla QD, se muestran en la tabla 3.10.3.

0 6 En el Análisis Numérico, el Polinomio Wilkinson es un polinomio específico, el cual fue utilizado por el matemático James H. Wilkinson en 1963 para

ilustrar la dificultad que se presenta al hallar las raíces: el valor de las raíces puede variar y ser muy sensitivo a las perturbaciones (cambios, oredondeos) en los valores de los coeficientes, clo que caracteriza a los polinomios mal-condicionados (Wikipedia, the free encyclopedia,http://en.wikipedia.org/wiki/Wilkinson's_polynomial), November 2006. // Zeng, Zhonggang: «On Ill-Conditioned eigenvalues, multiple roots ofpolynomials, antheir accurated computations»,Department of Mathematics, Northeastern Illinois University, Chicago, September 1998. // Malyshev,A.N.: «On Wilkinson's problem», 1997. // Zeng, Zhonggang: «The Perfidious Polynomial and Elusive Roots», Department: Department ofMathematics, Northeastern Illinois University, 1997. // Rump, Siegfried M.:«Ten Methdos to Bound Multiple Roots of Polynomials», TechnicalUniversity Hamburg-Harburg, Hamburg, Germany, Journal of Computation and Applied Mathematics (JCAM), Vol. 156, pp. 403-432, 2003.

TTAABBLLAA 33..1100..33 Primeras 12 iteraciones del Algoritmo QD para el polinomio definido por 3.10.10.

1202742258515)( 2345 −+−+−= xxxxxxp (3.10.10)

FFIIGGUURRAA 33..1100..22 Esquema gráfico del polinomio 3.10.10.

Page 101: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/14/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 96 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

Como puede observarse en la tabla 3.10.3, todas las columnas di tienden a cero, mientras que los valores de lascolumnas qi tienden a los valores de las raíces. En este caso el Algoritmo QD actúa efcieintemente. Sin embargo,considérese el siguiente polinomio6:

que obviamente tiene 20 raíces, cuyos valores son x = 1, 2, …, 20. Esta s raíces, teóricamente, son todas distintas, realesy están suficientemente separadas en el campo de los números reales. Sin embargo, como lo demostró Wilkinson7, estepolinomio definido por 3.10.11 está mal-condicionado. Al expandirlo se tiene que:

Y al resolver el polinomio, las raíces obtenidas se muestran en la tabla 3.10.4:

TTAABBLLAA 33..1100..44 Raíces obtenidas para el polinomio definido por 3.10.11 y cuya expansión se muestra en la figura 3.10.3.x1 = 1.00000 x2 = 2.00000 x3 = 3.00000 x4 = 4.00000 x5 = 5.00000x6 = 6.00001 x7 = 6.99970 x8 = 8.00727 x9 = 8.91725 x10 = 20.84691x11 = 10.09527 +0.64350i

x12 = 11.79363 +1.65233i

x13 = 13.99236 +2.51883i

x14 = 16.73074 +2.81262i

x15 = 19.50244 +1.94033i

x16 = 10.09527 -0.64350i

x17 = 11.79363 -1.65233i

x18 = 13.99236 -2.51883i

x19 = 16.73074 -2.81262i

x20 = 19.50244 -1.94033i

Como se observa en la tabla 3.10.4, las raíces del polinomio definido por 3.10.11, se apartan de las obtenidas por losfactores teóricos, dando –incluso- valores imaginarios (campo de los números complejos) que no deberían aparecer; sedice que este tipo polinomios presenta un comportamiento de extremo mal-condicionamiento. Los métodos, como elAlgoritmo QD, no son suficientes para obtener las raíces exactas de polinomios como el 3.10.11; en la recursoswebgráficos y bibliográficos se presentan diversas propuestas de algoritmos que lidian con este tipo de problemas.

RREECCUURRSSOOSS WWEEBBGGRRÁÁFFIICCOOSS YY BBIILLIIOOGGRRÁÁFFIICCOOSS

1. H. Bandemer, Zur Berechnung der Nullstellen von Polynomen mit dem QD-Algorithmus von Rutishauser, Z. Angew.Math. Mech. 42 (1962) 566--568.

2. L. Fox and L. Hayes, Polynomial factorization and the QD algorithm, Linear Algebra Appl. 1 (1968) 445--463.3. P. Henrici, Some applications of the quotient-difference algorithm, Proc. Sympos. Appl. Math. 15 (1963) 159--183.4. P. Henrici, The quotient-difference algorithm, Nat. Bur. Standards Appl. Math. Ser. 49 (1958) 23--46.5. P. Henrici, New developements concerning the quotient-difference algorithm, in: H. Werner et al., Eds., Computational

Aspects of Complex Analysis (Reidel, Boston, 1983) 149--168.6. P. Henrici and B.O. Watkins, Finding zeros of a polynomial by the Q-D algorithm, Comm. ACM 8 (1965) 570--574.7. A.S. Householder, The Numerical Treatment of a Single Nonlinear Equation (McGraw-Hill, New York, 1970).8. A.S. Householder, Principles of Numerical Analysis (McGraw-Hill, New York, 1953) 86--132.

0 7 Peters G and Wilkinson J H.: «Practical Problems Arising in the Solution of Polynomial Equations», J. Inst. Math. Appl. 8, pp. 16–35, 1971.

(3.10.11

FFIIGGUURRAA 33..1100..33 Expansión del polinomio definido por la ecuación 3.10.11.

Page 102: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/14/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 97 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

9. A.S. Householder, The Padé table, the Frobenius identities, and the QD algorithm, Linear Algebra Appl. 4 (1971) 161--174.

10. A.S. Householder, Multigradients and the zeros of transcendental functions, Linear Algebra Appl. 4 (1971) 175--182.11. A.S. Householder, Schröder and Trudi: A historical excursion, SIAM Rev. 16 (1974) 344--348.12. A.S. Householder and G.W. Stewart III, Bigradients, Hankel determinants, and the Padé table, in: B. Dejon and P.

Henrici, Eds., Constructive Aspects of the Fundamental Theorem of Algebra (Wiley/Interscience, New York, 1969)131--150.

13. G.M. Megson, O. Brudaru and D. Comish, Systolic designs for Aitken's root-finding methods, Parallel Comput. 18(1992) 415--429.

14. H. Rutishauser, On a modification of the QD-algorithm with Graeffe-type convergence, Z. Angew. Math. Phys. 13(1962) 493--496; also: in: C.M. Popplewell, Ed., Proc. IFIP Congress 62 (North-Holland, Amsterdam, 1963) 93--96.

15. H. Rutishauser, Eine Formel von Wronski und ihre Bedeutung für den Quotienten-Differenzen-Algorithmus, Z. Angew.Math. Phys. 7 (1956) 164--169.

16. H. Rutishauser, Anwendungen des Quotientin-Differenzen Algorithms, Z. Angew. Math. Phys. 5 (1954) 496--508.17. H. Rutishauser, Der Quotienten-Differenzen-Algorithmus, Z. Angew. Math. Phys. 5 (1954) 233--251.18. H. Rutishauser, Stabile Sonderfälle des Quotienten-Differenzen-Algorithmus, Numer. Math. 5 (1963) 95--112.19. H. Rutishauser, Ein infinitesimales Analogon zum Quotient-Differenzen Algorithmus, Arch. Math. (Basel) 5 (1954) 132-

-137.20. K. Samelson, Faktorisierung von Polynomen durch funktionale Iteration, Bayer. Akad. Wiss. Math.-Natur. Kl. Abh. 95

(1959) 1--25.21. J. Schröder, Factorization of polynomials by generalized Newton procedures, in: B. Dejon and P. Henrici, Eds.,

Constructive Aspects of the Fundamental Theorem of Algebra (Wiley/Interscience, New York, 1969) 295--320.22. W. Seewald, Quotient-differnece algorithm: proof of Rutishauser's rule, Numer. Math. 40 (1982) 93--98.23. J. Shortt, An iterative algorithm to calculate Fibonacci numbers in O(logn) arithmetic operations, Inform. Process. Lett.

7 (1978) 299--303.24. F.L. Bauer, The quotient-difference algorithm and epsilon-algorithms, in: On Numerical Approximation (Univ. of

Wisconsin Press, Madison, WI, 1959) 361--370.25. F. L. Bauer. Inclusion sets for roots of polynomials. Numerische Mathematik, 9:173 - 176, 1966. ISSN 0029-599X.26. H. J. Hamilton, Roots of equations by functionaliteration, Duke Math. J., 13 (1946), 113-121.27. F. L. Hitchcock, Finding complex roots of equations, J. Math. Physics, 17 (,1938), 55-28. F. L. Hitchcock, Algebraic equations with complex roots, J. Math. Phys., 18 (1939), 202-220.29. S. Lin. A Method of successive approximations for evaluating real and complex roots of cubic and higher order

equations, J. Math. Phys., 20 (1941), 231-242.30. . T. Whittaker, A formula for the solution of algebraic and transcendental equa- tions, Proc. Edinburgh Math. Soc, 36

(1918), 103-106.31. C. Bekas, E. Kokiopoulou, Yousef Saad, Polynomial filtered Lanczos iterations with applications in Density Functional

Theory, Computer Science & Engineering Dept., University of Minnesota, Twin Cities, July 15, 2005.32. Munro , W.D.: SOME ITERATIVE METHODS FOR DETERMINING ZEROS OF FUNCTIONS OF A COMPLEX

VARIABLE, June 16, 1958, Office of Naval Research, USA, UNIVERSITY OF CALIFORNIA, LOS ANGELES,UNIVERSITY OF MINNESOTA.

33. Bond, C.: A Method for Finding Real and Complex Roots of Real Polynomials With Multiple Roots, July 10, 2003.34. Bond, C.: A Robust Strategy for Finding All Real and Complex Roots of Real Polynomials, March 30, 2004,

http://www.crbond.com35. Schroder, Ernst: On Infinitely Many Algorithms for Solving Equations, Translated by G.W.Stewart, january 1993,

University of Maryland, Institute for Advanced Computer Studies, departmente of Computer Science.36. Volpi, Leonardo: Note di Calcolo Numerico Equazioni Non Lineari Metodi iterativi pratici per l'approssimazione di

radici, Foxes Team, Dic. 2005, Italy, First edition.

Page 103: 7823331-RaicesFunciones.pdf

Métodos Numéricos y Programación Visual Basic 01/14/07Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem__________________________________________________________________________________

_________________________________________________________________________________ [email protected] Página 3 - 98 Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

( )012

201

0 2 ppppppp+−

−−=

3.11 Método de Steffensen

El Método Steffensen1 para hallar una raíz de la ecuación no-lineal f(x) = 0, que no requiere del cálculo de la derivada yque – en general – es de convergencia rápida.y sólo requiere un punto inicial, xn, de aproximación a la raíz. Sin embargo,requiere calcular dos veces la función en cada iteración. La fórmula general del Método Steffensen es la siguiente:

que se puede comvertir en una sola fórmula al efectuar las operaciones del caso:

Se trata de un método muy popular y muy enfatizado no sólo en la parte teórica sino también en las aplicaciones prácticasde Métodos Numéricos. Con las fórmulas 3.11.1 ó 3.11.2 es fácil implementar este algoritmo. Es similar al Método Newton-Rapson pero no necesita calcular la derivada de f(x).

Una variante utiliza la fórmula de aceleración de Aitken2, de ahí –también- que a este método se le denomine Aitken-Steffensen. Los pasos son los siguientes:

1. Obtener un valor inicial P0, una tolerancia numérica ξ y un número máximo de iteraciones nMax.2. N = 13. Haga

3.1 P1 = g(P0)3.2 P2 = g(P1)3.3 Calcular

3.4 P0 = P3.5 N = N + 1

Hasta Que |P - P0| < ξ ó N ≥ nMax

4. Mostrar P, N

En esta variante, se requiere que a partir de f(x) se tenga una funcón g(x), véase el Método Punto Fijo al respecto.

0 1 Volpi, Leonardo: «Note di Calcolo Numerico, Equazioni Non Lineari, Metodi iterativi pratici per l'approssimazione di radici», Dic. 2005, by Foxes Team

ITALY, 1. Edition, pp. 64. // Méthode de Steffensen, Département de mathématiques et de statistique (DMS) de l'Université Laval. Québec, Canadà,1996.

2 Mathews, John H.: «Aitken's Method and Steffensen's Acceleration», 2004. // Kohn, M. C.: «Practical Numerical Methods: Algorithms and Programs»,Macmillan Publishing Company, New York, New York, 1987.

( ) ( )( ) ( )( )

( )( )n

nnn

n

nnnn

xgxfxx

xfxfxfxfxg

+=

−+=

+1

(3.11.1)

( )[ ]( )( ) ( )nnn

nnn xfxfxf

xfxx−+

+=+

2

1(3.11.2)