00:20 - Introducción 01:25 - Aprendizaje supervisado 03:27 - Modelo lineal que buscamos optimizar 04:39 - Repaso de pendiente/ordenada al origen 05:15 - Función de Coste (ECM) 10:36 - Modelo de regresión lineal simple (Comparación) 11:43 - Modelo de regresión lineal múltiple (Comparación) 12:47 - Multi Layer Perceptron (Comparación) 15:11 - Intuición del Descenso del Gradiente 17:13 - Vector gradiente 19:30 - Backpropagation 21:36 - Forward pass 23:28 - Backward pass 27:08 - Intuición del vector gradiente 30:38 - Matriz Jacobiana 32:11 - Reducción de la matriz Jacobiana 33:04 - Regla de actualización de pesos del Gradient Descent 35:10 - Recap. 37:15 - Frameworks 37:35 - Motivación 38:10 - Demostración de Object Detection - Depth Estimation - Pose Estimation
@paulinavelasquez643711 ай бұрын
Muchas gracias por tu explicación
@juanchinas14372 ай бұрын
👏👏
@gustavojuantorena3 жыл бұрын
Muy buena explicación. Gracias!
@andresnet18273 жыл бұрын
Gracias!
@JamesManjackalMSFSКүн бұрын
pero te falta explicar algunas cosas para acercar a la realidad la nomenclatura que utilizas. Por ejemplo, podrías decir que "aprender" es minimizar el error que se comete en cada estimación. El valor de la función de coste es precisamente este error, el cual tratamos que sea lo más pequeño posible... es decir, un problema de mínimos... el mínimo de una función contínua (la de coste) se obtendría derivando... pero dado que podría haber millones de parámetros, para calcular ese mínimo global utilizamos el método del descenso del gradiente.... Bueno, yo todavía afinaría más para hacer comprender lo que se está haciendo, pero lo dejo aquí por si este comentario le sirve a alguien