jueves, 15 de noviembre de 2018

Ajuste de funciones a los datos Parte 3

El procedimiento de mínimos cuadrados que acabamos de bosquejar se puede extender a cualquier cantidad de variables en tanto el modelo sea lineal en los coeficientes. Por ejemplo, un polinomio:


martes, 13 de noviembre de 2018

Ajuste de funciones a los datos Parte 2

Hay dos coeficientes desconocidos, b₀ y b₁ y p pares conocidos de valores experimentales de Yⱼ y xⱼ. Queremos minimizar F respecto de b₀ y b₁. Recuerde del cálculo diferencial que las condiciones necesarias para un mínimo se obtienen tomando las primeras derivadas parciales de F e igualándolas a cero. 


sábado, 10 de noviembre de 2018

Ajuste de funciones a los datos Parte 1

En muchos casos nos interesa estimar los valores óptimos de los coeficientes de una ecuación a partir de datos experimentales. La ecuación podría ser una ley teórica o simplemente un polinomio, pero el procedimiento es el mismo. Sea  y la variable dependiente de la ecuación, b, los coeficientes de la ecuación y xi las variables independientes de la ecuación, de modo que el modelo tiene la forma

viernes, 9 de noviembre de 2018

Métodos de homotopía

Los métodos de homotopía pueden considerarse como métodos que amplían el domino de convergencia de cualquier método específico para resolver ecuaciones no lineales, o bien como un método para obtener estimaciones iniciales suficientemente cercanas a la solución deseada. Un conjunto de funciones F(x)  se modifica como sigue para convertirlo en una combinación lineal de un parámetro t:


jueves, 8 de noviembre de 2018

Método de sustituciones sucesivas II

Para que el procedimiento de sustitución sucesiva converja siempre, es necesario que el valor del eigenvalor absoluto más grande de la matriz jacobiana de F(x) evaluado en cada punto de iteración sea menor que (o igual a) uno. Si existe más de una solución para las ecuaciones (L.17), el vector inicial y la selección de la variable para la cual se resolverá cada ecuación controlan la solución obtenida. Además, podemos obtener diferentes resultados de convergencia dependiendo de la disposición de las ecuaciones y de la elección de la variable para la cual resolver.

Los métodos de Wegstein y de Eigenvalor Dominante enumerados en la figura L.3 son técnicas útiles para acelerar la convergencia (o evitar la no convergencia) del método de sustituciones sucesivas. Consulte las referencias citadas en  dicha figura si desea detalles específicos.

El método de Wegstein, que se usa en muchos programas de simulación de procesos, acelera la convergencia del método de sustituciones sucesivas en cada iteración. En el método de la secante, la pendiente aproximada es: