Estimados, espero que se encuentren bien.
Les hacemos algunas consultas referidas al obligatorio para ver si nos pueden guiar en el análisis:
2d.
Luego de varios intentos definimos un alfa y aplicando el método de descenso por gradiente a la función de Rosenbrock, logramos que converja en aproximadamente 19.000 iteraciones, pero nos llama la atención que la función de error en comparación con el método de descenso con paso fijo, cambia su forma.
De todas formas, entendemos que puede no ser una comparación correcta, ya que en un método aplicamos un paso fijo, y en el otro vamos cambiando el paso, por lo que la función error podría cambiar su forma.
¿De qué forma podemos ir validando, si las implementaciones que realizamos tienen sentido?
2e.
Con respecto a este apartado, realizamos la implementación de escalado diagonal y de esta forma empeoramos la cantidad de iteraciones para la convergencia, sobre la función de Rosenbrock.
Revisamos varias veces la implementación por lo que estamos bastante convencidos de que está correcta, entonces nos surge la pregunta, ¿es posible que ocurra esto?
En todos los casos tenemos el doble problema de que como es la primera vez que programamos en python, no sabemos si las implementaciones que realizamos son efectivamente correctas y podemos realizar tranquilamente un análisis teórico de lo obtenido.
Aguardamos sus comentarios,
saludos.