viernes, 20 de enero de 2017

Método de minimización

Podemos resolver un conjunto de ecuaciones no lineales si minimizamos la suma de los cuadrados de las desviaciones entre los valores de la función y cero


Edgar y Himmelblau enumeran una serie de códigos para minizar F, incluidos los que permiten fijar restricciones de las variables.

miércoles, 4 de enero de 2017

Métodos híbrido de Powell y de Levenberg-Marquardt

Powell y Levenberg-Marquardt calcularon un nuevo punto x^(k+1) a partir del antiguo x según (observe que en las siguientes dos ecuaciones se usa el superíndice (k) en lugar del subíndice k para denotar la etapa de interacción, con objeto de hacer menos confusa la notación):

dond Iij es un elemento de la matriz unitaria I y μ^(k) es un parámetro no negativo cuyo valor se escoge de modo que reduzca la suma de los cuadrados de las desviaciones (fi-0) en cada etapa de los cálculos. Powell usó aproximaciones numéricas para los elementos de J. En notación matricial, la ecuación (L.16) puede derivarse multiplicando previamente la ecuación (L.11) por J con subíndice k y superíndice T.

martes, 3 de enero de 2017

Métodos de Brent y de Brown (III)

empleando la úiltima información disponible, y después se ejecuta un paso más en la resolución de las ecuaciones lineales. El método de Brown es una extensión de la eliminación gaussiana; el método de Brent es una extensión de la factorización QR. Los códigos para computadora generalmente se implementan utilizando aproximaciones númericas de las derivadas parciales de Jk.

miércoles, 17 de agosto de 2016

Métodos de Brent y de Brown (II)

Los métodos de Wegstein y de Eigenvalor Dominante enumerados en la figura L.3 son técnicas útiles para acelerar la convergencia (o evitar la no convergencia) del método de sustituciones sucesivas. Consulte las referencias citadas en dicha figura si desea detalles específicos.

El método de Wegstein, que se usa en muchos programas de simulación de procesos, acelera la convergencia del método de sustituciones sucesivas en cada iteración. En el método de la secante, la pendiente aproximada es


Métodos de Brent y de Brown (I)

Los métodos de Brent y de Brown son variaciones del método de Newton que mejoran la convergencia. SE mezclan el cálculo de los elementos de Jk de la ecuación (L.11) ya resolución de las ecuaciones lineales. Se obtiene cada fila de Jk según se va necesitando.

Para que el procedimiento de sustitución sucesiva converja siempre, es necesario que el valor del eigenvalor absoluto más grande de la matriz jacobiana de F(x) evaluado en cada punto de iteración sea menor que (o igual a) uno. Si existe más de una solución para las ecuaciones (L.7), el vector inicial y la selección de la variable para la cual se resolverá cada ecuación controlan la solución obtenida. Además, podemos obtener diferentes resultados de convergencia dependiendo de la disposición de las ecuaciones y de la elección de la variable para la cual resolver.

miércoles, 3 de agosto de 2016

Métodos de la secante (III)

La aplicación de la ecuación (L.14) produce los siguientes resultados para f(x) = 4x³ - 1 = 0 comenzando con xk = -3 y xq = 3. En seguida mostramos algunos de los valores de f(x) y x durante la búsqueda; observa que xq no cambia a fin de mantener la delimitación con f(x) > 0

martes, 2 de agosto de 2016

Métodos de la secante (II)

Los métodos de la secante se utilizan inicialmente dos puntos xk y xq que abarcan el intervalo de x y corresponden a puntos en los que los valores de f(x) tienen signos opuestos. El cero de f(x) queda predicho por

Los dos puntos retenidos para el siguiente paso son x y xq o bien xk; la elección se hace de modo que el par de valores f(x) y f(xk) o bien f(xq) tengan signos opuestos a fin de mantener la delimitación de x*. (Esta variación se denomina "regula falsi" o método de la posición falsa). En la figura 1.6, para (k+1)ésima etapa se escogerían x y xq como extremos de la línea secante. Es posible que los métodos de secante parezcan burdos, pero funcionan bien en la práctica. Los detalles de los aspectos computacionales de un buen algoritmo de resolución de múltiples ecuaciones por el método de la secante son demasiado extensos para bosquejarlos aquí (sobre todo el cálculo de una nueva matriz jacobiana a partir de la anterior; consulte Dennis y Schnabel).