🔥🔥Academia Online: codificandobits.com/ 🔥🔥 🔥🔥Asesorías y formación personalizada: codificandobits.com/servicios/ 🔥🔥
@aled38595 ай бұрын
explicas muy bien
@marcosleguizamon2067 ай бұрын
Excelente video, se entendió perfectamente. Muy claro y preciso
@CarolinaAvilaCoral Жыл бұрын
Muy denso el video, esta vez si tuve que verlo 3 veces para asimilar todos los conceptos nuevos para mí. Gracias por compartir tu conocimiento.
@victordanielmixjimenez9891 Жыл бұрын
Seria muy patudo de mi parte si puedes explicar KerasTuner...me ha costado aplicarlo en algunos casos..tus videos me han sido de mucha utilidad. Gracias !
@hantondark8876 Жыл бұрын
hola compañero, yo estoy buscando la solucion para ahorrar tokens o datos en NLP usando hiperparametros. Si tiene telegram o discord para poder charlar ? saludos
@domingomartinez1170 Жыл бұрын
Hola buenas, en la academia tendra en un futuro cursos de estadistica para Machine learning?
@codificandobits Жыл бұрын
Hola! Sí. Actualmente estamos con 3 cursos de Pandas, que culminarán en septiembre. Y en octubre daré inicio a una secuencia de cursos de probabilidad y estadística para Ciencia de Datos y Machine Learning. Un saludo!
@jorgegrivera Жыл бұрын
Agradecería si alguien me explicara de una forma comprensible en qué consiste el concepto de capa oculta en una red neuronal.
@codificandobits Жыл бұрын
Hola. Te recomiendo este video acá en el canal: kzbin.info/www/bejne/a2SqhpltaZyYaZo Un saludo!
@ivangarcia1090 Жыл бұрын
Yo siempre he tenido una idea que no sé si sea tan buena. La idea es hacer distintas formas de la red neuronal, supongamos empezamos con 3 capas escondidas e intentamos con un "cuadrado" es decir la misma cantidad de neuronas en cada capa que sería el tamaño de la entrada, luego el siguiente modelo un cuadrado del tamaño de la mitad de la entrada, después un triángulo ( neuronas que disminuyen con cada capa) pero que disminuyen de a poco y otro que disminuya muy rápido. Usar en todos los casos dropout para evitar overfitting y con estas 4 ver cuál es la forma que más conviene, supongamos que convienen los cuadrados entonces hacemos formas parecidas con más o menos capas comparandolas en todo momento y la que tenga más puntaje es la que se queda, alejandos siempre de las formas que menos puntuaje sacaron (en este caso los triángulos) y así para muchas capas no habría que intentar todas las opciones. Mi idea surge de hacer algo parecido a una búsqueda de mínimos o máximos, como lo quieran ver (descenso del gradiente). No sé si alguien me pueda orientar si lo que digo tiene sentido.