sábado, 10 de noviembre de 2018

Ajuste de funciones a los datos Parte 1

En muchos casos nos interesa estimar los valores óptimos de los coeficientes de una ecuación a partir de datos experimentales. La ecuación podría ser una ley teórica o simplemente un polinomio, pero el procedimiento es el mismo. Sea  y la variable dependiente de la ecuación, b, los coeficientes de la ecuación y xi las variables independientes de la ecuación, de modo que el modelo tiene la forma

viernes, 9 de noviembre de 2018

Métodos de homotopía

Los métodos de homotopía pueden considerarse como métodos que amplían el domino de convergencia de cualquier método específico para resolver ecuaciones no lineales, o bien como un método para obtener estimaciones iniciales suficientemente cercanas a la solución deseada. Un conjunto de funciones F(x)  se modifica como sigue para convertirlo en una combinación lineal de un parámetro t:


jueves, 8 de noviembre de 2018

Método de sustituciones sucesivas II

Para que el procedimiento de sustitución sucesiva converja siempre, es necesario que el valor del eigenvalor absoluto más grande de la matriz jacobiana de F(x) evaluado en cada punto de iteración sea menor que (o igual a) uno. Si existe más de una solución para las ecuaciones (L.17), el vector inicial y la selección de la variable para la cual se resolverá cada ecuación controlan la solución obtenida. Además, podemos obtener diferentes resultados de convergencia dependiendo de la disposición de las ecuaciones y de la elección de la variable para la cual resolver.

Los métodos de Wegstein y de Eigenvalor Dominante enumerados en la figura L.3 son técnicas útiles para acelerar la convergencia (o evitar la no convergencia) del método de sustituciones sucesivas. Consulte las referencias citadas en  dicha figura si desea detalles específicos.

El método de Wegstein, que se usa en muchos programas de simulación de procesos, acelera la convergencia del método de sustituciones sucesivas en cada iteración. En el método de la secante, la pendiente aproximada es:



sábado, 21 de enero de 2017

Método de sustituciones sucesivas

La sustitución sucesiva (o resustitución) comienza por resolver cada ecuación f(x) para una sola variable de salida (distinta). Por ejemplo, si tenemos tres ecuaciones resolvemos para una variable de salida (f2 para x1, f3 para x3 y f1 para x2)

viernes, 20 de enero de 2017

Método de minimización

Podemos resolver un conjunto de ecuaciones no lineales si minimizamos la suma de los cuadrados de las desviaciones entre los valores de la función y cero


Edgar y Himmelblau enumeran una serie de códigos para minizar F, incluidos los que permiten fijar restricciones de las variables.

miércoles, 4 de enero de 2017

Métodos híbrido de Powell y de Levenberg-Marquardt

Powell y Levenberg-Marquardt calcularon un nuevo punto x^(k+1) a partir del antiguo x según (observe que en las siguientes dos ecuaciones se usa el superíndice (k) en lugar del subíndice k para denotar la etapa de interacción, con objeto de hacer menos confusa la notación):

dond Iij es un elemento de la matriz unitaria I y μ^(k) es un parámetro no negativo cuyo valor se escoge de modo que reduzca la suma de los cuadrados de las desviaciones (fi-0) en cada etapa de los cálculos. Powell usó aproximaciones numéricas para los elementos de J. En notación matricial, la ecuación (L.16) puede derivarse multiplicando previamente la ecuación (L.11) por J con subíndice k y superíndice T.

martes, 3 de enero de 2017

Métodos de Brent y de Brown (III)

empleando la úiltima información disponible, y después se ejecuta un paso más en la resolución de las ecuaciones lineales. El método de Brown es una extensión de la eliminación gaussiana; el método de Brent es una extensión de la factorización QR. Los códigos para computadora generalmente se implementan utilizando aproximaciones númericas de las derivadas parciales de Jk.