¿Qué es una red LSTM?

  Рет қаралды 41,783

Codificando Bits

Codificando Bits

Күн бұрын

Пікірлер: 113
@codificandobits
@codificandobits 3 жыл бұрын
🔥🔥Academia Online: codificandobits.com 🔥🔥 🔥🔥Asesorías y formación personalizada: codificandobits.com/servicios 🔥🔥
@zanemalik1772
@zanemalik1772 3 жыл бұрын
I know I'm kinda randomly asking but do anybody know a good website to stream newly released movies online ?
@darrenalexis3488
@darrenalexis3488 3 жыл бұрын
@Zane Malik meh I watch on flixportal. just search on google for it=) -darren
@zanemalik1772
@zanemalik1772 3 жыл бұрын
@Darren Alexis Thanks, I signed up and it seems like a nice service :D I really appreciate it !
@darrenalexis3488
@darrenalexis3488 3 жыл бұрын
@Zane Malik you are welcome :D
@master_laverdadsobre443
@master_laverdadsobre443 4 жыл бұрын
Este man es un monstruo de la explicación, tiene un talento de síntesis de otro nivel, que mago, MIl gracias!!
@codificandobits
@codificandobits 4 жыл бұрын
Wow gracias por tu comentario. Realmente el tema de las redes LSTM es denso, y no he visto ningún video en KZbin que lo explique de una manera relativamente sencilla. Realmente me costó trabajo sintetizarlo de esta manera. Qué bueno que te haya gustado, un saludo!
@juanjosearin243
@juanjosearin243 4 жыл бұрын
Tu también has sintetizado muy bien la respuesta de muchos sobre este video.
@estefaniafreiretubay2670
@estefaniafreiretubay2670 4 жыл бұрын
Confirmo. Muchisimas gracias de verdad
@liznv1536
@liznv1536 2 жыл бұрын
​@@codificandobits En función de que parámetro se cuantas celdas LSTM se deben utilizar en un modelo?
@codificandobits
@codificandobits 2 жыл бұрын
@@liznv1536 La gran ventaja de todos estos modelos de Deep Learning es que lograr resultados impresionantes como por ejemplo con secuencias, como en el caso de las Redes LSTM. La gran desventaja es que cada modelo se diseña a la medida de los datos. Así que, para responder tu pregunta, no existe un método analítico o matemático o una fórmula que nos permita definir los hiperparámetros del modelo (número de capas, número de celdas, etc.). La manera de definir estos hiperparámetros es a través de las curvas de entrenamiento/validación, verificando el desempeño del modelo y que no exista under/overfitting. En el canal tengo videos que explican este proceso. ¡Un saludo!
@josemanuelgarciaabreu2973
@josemanuelgarciaabreu2973 5 жыл бұрын
Por fin veo una explicación clara y concisa de las redes LSTM. Muy bien!
@DiegoABabativa
@DiegoABabativa 5 жыл бұрын
Muy bueno, por fin un video de LSTM bien explicado !
@ThePacfull
@ThePacfull 3 жыл бұрын
Muchísimas gracias, se nota el amor con el que haces los vídeos, y tu pasión por enseñar, un saludo !
@codificandobits
@codificandobits 3 жыл бұрын
Gracias por tu comentario Pablo... creo que sí, la pasión por este tema se nota en los videos. Un saludo!
@rojassantiagojoshuaisaias8272
@rojassantiagojoshuaisaias8272 5 жыл бұрын
Te acabo de descubrir! Wow, sigue así y verás cómo crece tu canal, acabas de ganar un suscriptor y gracias por compartir tu conocimiento
@codificandobits
@codificandobits 5 жыл бұрын
Gracias por tu comentario Joshua! Y bienvenido al canal!
@angelbustillos177
@angelbustillos177 3 жыл бұрын
Se ganó un suscriptor, me gustan mucho sus explicaciones y sobre todo me ayudan mucho a comprender los temas de manera más arpida.
@codificandobits
@codificandobits 3 жыл бұрын
Bienvenido Ángel y un saludo!
@adrianrs79
@adrianrs79 Жыл бұрын
Excelente explicación, saludos desde México!
@alexbarnadas
@alexbarnadas 4 жыл бұрын
Estoy flipando, muchísimas gracias, tengo exámen en 2h
@codificandobits
@codificandobits 4 жыл бұрын
ohhh... Espero te sirva de algo!!! Un saludo
@alexbarnadas
@alexbarnadas 3 жыл бұрын
@@codificandobits eh aprové gracias a tí y le acabo de enviar el video a un colega que tiene el mismo examen.
@stecklerdav
@stecklerdav 3 жыл бұрын
Increíble la capacidad de transmitir conocimiento, saludos.
@codificandobits
@codificandobits 3 жыл бұрын
Gracias por tu comentario David! Un saludo!
@nelsongomez8547
@nelsongomez8547 4 жыл бұрын
Sr. Miguel, muy buenos dias, antes todo permiteme felicitarte, lo haces muy bien. Se entiende perfectamente lo que he visto hasta aqui. Felicitaciones nuevamente. Vale, aprovecho y te pido una orientacion que me han solicitado en mi trabajo. Actualmente se tienen muchos pdfs, estos pdf pueden contener 5, 6 o 13 hojas. Cada pdf contiene informacion de gran relevancia y el cual la idea es "extraer lo mas relevante". Una forma en como se puede encontra en un parrafo algo como "ANTICIPO 30% antes de IVA, del valor total del contrato suma equivalente a $16.961.724 (DIECISÉIS MILLONES NOVECIENTOS SESENTA Y UN MIL SETECIENTOS VEINTICUATRO" [Anticipo] es un valor de gran importancia y se desea obtener el valor que le sigue, es decir el 30% para asi mostrar esos resultados y no tener que estar leyendo todo las hojas para asi obtener el resultado. Otro valor de relevancia a tomar es lo que está asociado a la palabara contrato, es decir, $16.961.724 Cabe destacar que las posiciones de estos valores pueden cambiar, es decir, ese parrafo se encuentra en la hoja 2 pero hay casos en donde se encuentra en la hoja 5, 3 entre otras posiciones. Pienso que es un tema bastante complejo, he estado estudiando, documentandome, pero agradezco toda la orientacion que puedas darme para dar inicio e ir logrando el objetivo que tanto se desea en mi trabajo. [En una de esos estudios que he tenido, me he encontrado con algo llamado TEXT EXTRACTION "NER" y BIDIRECTIONAL LSTM pero sinceramente como todo novato no se por donde comenzar]. Agradezco tu pronta respuesta y nuevamente, felicitaciones lo haces muy bien.
@alexissegovia2006
@alexissegovia2006 5 жыл бұрын
Excelente ..... continua mejorando y ampliando la información ..
@codificandobits
@codificandobits 5 жыл бұрын
Claro que sí. Un saludo!
@bblancol
@bblancol 4 жыл бұрын
Excelente claro y preciso!!! Muchas gracias.
@codificandobits
@codificandobits 4 жыл бұрын
Gracias por tu comentario Braulio. Saludos! 😀
@dagobertodeleongordillo2754
@dagobertodeleongordillo2754 3 жыл бұрын
¡Muchas gracias Miguel!. ¡Es una excelente explicación!
@cristhian4513
@cristhian4513 4 жыл бұрын
es cuestión de tiempo para que tengas muchos seguidores :), buen trabajo Miguel, sigo atento todos tus vídeos :D
@codificandobits
@codificandobits 4 жыл бұрын
Gracias por tu comentario. Un saludo y esperemos que así sea!
@p._7555
@p._7555 4 жыл бұрын
se agradece el empeño puesto en la explicación !
@codificandobits
@codificandobits 3 жыл бұрын
😉
@maylinmoraga539
@maylinmoraga539 4 жыл бұрын
Muchas gracias. Por fin una explicación simple y precisa del funcionamiento de las redes LSTM!
@codificandobits
@codificandobits 4 жыл бұрын
😉
@julianignaciochia6428
@julianignaciochia6428 3 жыл бұрын
Una genialidad de explicación. Muchas gracias por tu tiempo. Se agradece muchísimo este tipo de explicaciones!
@codificandobits
@codificandobits 3 жыл бұрын
Gracias por tu comentario Julián. Un saludo!
@Ricardo11564
@Ricardo11564 5 жыл бұрын
eres muy bueno explicando, gracias por compartir
@codificandobits
@codificandobits 5 жыл бұрын
Gracias por tu comentario Ricardo! Un saludo!
@jhonyalexandervelezpineda4217
@jhonyalexandervelezpineda4217 Жыл бұрын
SOS un crack brother gracias por lo enseñado
@parraduarte
@parraduarte 4 жыл бұрын
Mejor no se puede explicar. Muchas gracias, amigo.
@codificandobits
@codificandobits 4 жыл бұрын
A ti un saludo Antonio y gracias por tu comentario!
@andrearobles6620
@andrearobles6620 3 жыл бұрын
Buenas tardes ... disculpe este tipo de red se puede utilizar para la clasificación de imágenes??
@miguelpradesfarron9384
@miguelpradesfarron9384 4 жыл бұрын
La mejor explicación que he encontrado de LSTM. Gracias Miguel. Tienes mi like y mi suscribe
@codificandobits
@codificandobits 4 жыл бұрын
Wow Miguel, gracias por tu comentario. De todos modos quedo abierto a cualquier sugerencia que tengas para mejorar el contenido del canal. Un saludo!
@miguelpradesfarron9384
@miguelpradesfarron9384 4 жыл бұрын
@@codificandobits Gracias a ti hombre. Como sugerencia, en mi humilde opinión, una explicación de las GRUs, con tu maestría, haría la serie más completa. Un saludo
@codificandobits
@codificandobits 4 жыл бұрын
@@miguelpradesfarron9384 Gracias por la sugerencia. Y claro que sí, las GRU son una arquitectura esencial de las redes recurrentes. Tan pronto pueda haré un video sobre el tema. Saludos!
@miguelpradesfarron9384
@miguelpradesfarron9384 4 жыл бұрын
@@codificandobitsMuchas gracias por tener en cuenta las sugerencias.
@gorkamese6493
@gorkamese6493 2 жыл бұрын
Muy buen video, me ha ayudado mucho para un trabajo de bachillerato. Pero tengo una pequeña duda de comprensión. Cuando operamos con c_t-1 y c_t que estamos haciendo realmente? f_t es un vector por ejemplo, x_t es un escalar. Pero c_t que es? Un vector o un escalar? O es algo más abstracto o diferente? P.D. También tengo entendido que el estado oculto (a_t) funciona como un escalar.
@juliobarzola6124
@juliobarzola6124 4 жыл бұрын
Muy didactico, muy bien!
@codificandobits
@codificandobits 4 жыл бұрын
¡Hola Julio y gracias por tu comentario! ¡Un saludo!
@sniperdaoud
@sniperdaoud 5 жыл бұрын
muy bien explicado :) gracias por tu tiempo
@codificandobits
@codificandobits 5 жыл бұрын
Gracias por tu comentario. Un saludo!
@alonsoamado3723
@alonsoamado3723 2 жыл бұрын
Cuando planteas la fórmula de la forget gate pones sigmoidal(Wf[at-1,X]+bf). A que te refieres con la coma entre at-1 y x, es multiplicación? Buen video. Muchas gracias.
@samuelcuevalozano2202
@samuelcuevalozano2202 4 жыл бұрын
Hola Miguel realmente explicas muy bien los temas, sigue así. Tengo una duda: la manera como entras a LSTM es única y tiene mucha lógica pero ¿por qué no mencionas el desvanecimiento del gradiente?, me refiero a que no necesitas mencionarlo para dar una buena razón para usar LSTM, ¿que relación tiene el desvanecimiento del gradiente con lo que explicas en el vídeo ?
@codificandobits
@codificandobits 4 жыл бұрын
Hola Samuel gracias por tu comentario y qué buena pregunta. Sí, el desvanecimiento del gradiente es un problema inevitable en todo tipo de arquitectura Deep Learning, especialmente en las redes recurrentes convencionales. Y como tú lo mencionas es un problema en parte resuelto por las redes LSTM. El tema del desvanecimiento del gradiente lo menciono en este video, cerca del minuto 2:50. Aunque no entro en mucho detalle!!! Saludos! 😉
@hantondark8876
@hantondark8876 4 жыл бұрын
Samuel aplicaste lstm para predecir texto ?
@deeper_soundfy5528
@deeper_soundfy5528 Жыл бұрын
Hola muy interesante la manera de enseñar. Sin embargo vengo investigando por varios lados y no consigo obtener respuesta con el siguiente problema. Tengo una red entrenada con datos de ventas (por poner un ejemplo) diarias, que abarca un historico de enero de 2010 a diciembre de 2019. OK! Ahora bien, se supone que guardo mi modelo. Yo quiero saber, como podria hacer proyecciones o predicciones para febrero de 2020?. supongamos que yo , tengo los datos de ventas de enero de 2020. Pero quiero que, en base a esos datos, mi modelo (ya que se supone que detecta patrones), me haga una proyeccion para el mes de febrero. En otro lado lei que el modelo en produccion si o si necesitara de toooodo el historico para hacer la prediccion, lo cual me parece poco util y costoso computacionalmente, pasarle al modelo que ya esta "listo", un historico de 2010 a enero de 2020... No se si logre hacerme entender.. Saludos!
@germangonzalez3063
@germangonzalez3063 3 жыл бұрын
Muy bueno. Mil gracias
@liznv1536
@liznv1536 2 жыл бұрын
En función de que parámetro se cuantas celdas LSTM se deben utilizar en un modelo?
@joseluisleonaguirrre2947
@joseluisleonaguirrre2947 4 жыл бұрын
Que buena explicación, gracias. Saludos :D
@codificandobits
@codificandobits 3 жыл бұрын
😉
@miguelacosta707
@miguelacosta707 4 жыл бұрын
Excelente trabajo
@ignaciosanchezgendriz1457
@ignaciosanchezgendriz1457 2 жыл бұрын
Muy bueno!!!!
@fernandavergara2828
@fernandavergara2828 4 жыл бұрын
Hola!! Muy buen video!! Tengo una duda si, he visto varias LSTM pero todas hacen predicciones de poco tiempo... ¿que tipo de red debo ocupar si necesito predecir un periodo de tiempo mayor (un año por ejemplo)?
@progra_kun4331
@progra_kun4331 5 жыл бұрын
excelente explicacion amigo seria bueno que mostraras un ejemplo facil y muuuuuuuy elemental con python
@codificandobits
@codificandobits 5 жыл бұрын
Hola Abraham. Gracias por tu comentario y lo tendré en cuenta para un futuro video. Un saludo!
@anilupss2011
@anilupss2011 3 жыл бұрын
#Miguel... simplemente genial, muchas gracias. Tienes video sobre clasificación de textos con keras?
@tron_sa
@tron_sa 4 жыл бұрын
impresionante, mil gracias
@codificandobits
@codificandobits 3 жыл бұрын
😉
@andresfelipeestradarodrigu301
@andresfelipeestradarodrigu301 5 жыл бұрын
excelente video
@electroglasses
@electroglasses 4 жыл бұрын
No suelo comentar vídeos de KZbin, pero de verdad, muchas gracias por el contenido
@codificandobits
@codificandobits 4 жыл бұрын
Gracias a ti Javier por seguir el canal. Y un saludo!
@paulaandreamontenegrochauc4420
@paulaandreamontenegrochauc4420 4 жыл бұрын
Que bibliografía usas? Simon Haykin?
@sebastiandonetch7173
@sebastiandonetch7173 4 жыл бұрын
Excelente video! Gracias!
@codificandobits
@codificandobits 3 жыл бұрын
😉
@MarioPerezVaz
@MarioPerezVaz 4 жыл бұрын
Fantástico video!!
@codificandobits
@codificandobits 4 жыл бұрын
¡Gracias por tu comentario Nicolás! Un saludo!
@luisjaimeestudioytrabajo7577
@luisjaimeestudioytrabajo7577 4 жыл бұрын
Muy buen video, como siempre
@codificandobits
@codificandobits 3 жыл бұрын
😉
@weiccap
@weiccap 4 жыл бұрын
Bro. Excelente explicación... como demore en llegar qui gracias
@codificandobits
@codificandobits 3 жыл бұрын
😉
@luisjaimeestudioytrabajo7577
@luisjaimeestudioytrabajo7577 4 жыл бұрын
Muy bueno el video
@codificandobits
@codificandobits 3 жыл бұрын
😉
@JuanMantilla77
@JuanMantilla77 4 жыл бұрын
Hola. Vi tu video y me quedé con una gran duda. En estos momentos estoy desarrollando un modelo de LSTM para la predicción de valores de series temporales. En la generación del modelo en python, según una documentación, uno puede especificar el número de neuronas (256) deseadas y la función de activación (por defecto trabajo con ReLu), en ese contexto cómo sería la arquitectura de toda la red? Pd: Excelente explicación de este tipo de redes. Saludos!
@codificandobits
@codificandobits 4 жыл бұрын
Hola Juan. Para la red que mencionas la arquitectura sería la siguiente: - CAPA DE ENTRADA: con un tamaño igual al de cada dato de entrenamiento - RED LSTM: con 256 neuronas (en Keras la creas como "LSTM(units=256, ...)") - CAPA DE SALIDA: con un tamaño igual a 1, pues supongo que en cada iteración generarás 1 dato a la vez. En Keras la creas como "Dense(units=1)". Un saludo y me cuentas si te funciona.
@JuanMantilla77
@JuanMantilla77 4 жыл бұрын
@@codificandobits Hola, muchas gracias por responder, se te aprecia. Una solución que encontré es de la siguiente forma (por si alguien le interesa). # numNeuronas es una variable de tipo entero model.add(LSTM(numNeuronas, activation='relu', input_shape=(#ejemplos, #Pasos de tiempo))) model.add(Dense(1))
@codificandobits
@codificandobits 4 жыл бұрын
@@JuanMantilla77 Tienes razón, en la misma función "LSTM" se puede agregar el tipo de activación. Un saludo!
@jorgesanchez-net9180
@jorgesanchez-net9180 2 жыл бұрын
como se manejan hidden y los layers, por ejemplo si tengo 120 neuronas en el hidden y 3 capas eso quiere decir que tengo 120 neuronas repartidas que son las celdas LSTM en las tres capas ..muchas gracias
@codificandobits
@codificandobits 2 жыл бұрын
Hola Jorge. No, en realidad tendrás: - Capa de entrada con un número de neuronas igual al número de elementos de cada dato de entrada - Capa oculta: LSTM con 120 neuronas - Capa de salida: con un número de neuronas igual al número de categorías que tengas (si estamos hablando de clasificación). Por ejemplo este número de neuronas será igual a 2 si es clasificación binaria. Un saludo!
@juanete69
@juanete69 2 жыл бұрын
Buena explicación. Y un detalle, en español no se utiliza "remover" cuando queremos decir "eliminar", es un falso amigo del inglés. Remover en español es agitar, menear,... para mezclar algo.
@davidbodesa4062
@davidbodesa4062 5 ай бұрын
De acuerdo con el diccionario de la RAE, en su acepción número 3, «remover» puede ser un sinónimo de «quitar», «retirar».
@octaviooctavio1548
@octaviooctavio1548 4 жыл бұрын
Por mucho que he buscado, en ningún lugar dicen con un mínimo de claridad, cómo se entrena una red LSTM. ¿Se hace con la regla de la cadena igualmente, aplicada a esta estructura particular?
@codificandobits
@codificandobits 4 жыл бұрын
Hola Octavio. Usualmente se entrena con los métodos convencionales usados en otro tipo de redes (como las neuronales y las recurrentes): gradiente descendente (o alguna variante) para actualizar los coeficientes de cada neurona, y "backpropagation" para calcular las derivadas que, a su vez, permiten actualizar los valores del gradiente. En este caso, y desde el punto de vista matemático, backpropagation usa precisamente la regla de la cadena. Un saludo!
@octaviooctavio1548
@octaviooctavio1548 4 жыл бұрын
@@codificandobits Muchas gracias. Tengo el problema de que mi carrera es de ciencias matemáticas, y para mí las notaciones de diferenciales de los físicos, químicos e ingenieros tienen poco sentido, aunque ya me aclaré lo suficiente, pero no sin sufrimiento. ☺👍
@codificandobits
@codificandobits 4 жыл бұрын
@@octaviooctavio1548 jajaja!!! Yo soy Ingeniero y sí, a veces me cuesta entender a los matemáticos!!! Es como si "habláramos" lenguajes diferentes. Un saludo!
@octaviooctavio1548
@octaviooctavio1548 4 жыл бұрын
@@codificandobits El problema es que todo esto está escrito por ingenieros, o casi todo, y me cuesta mucho entenderlo. Estaba desesperado cuando te escribí. Un saludo.
@codificandobits
@codificandobits 4 жыл бұрын
@@octaviooctavio1548 :) :) :)
@Clit0P
@Clit0P 4 жыл бұрын
gracias por el video
@HernanOtta
@HernanOtta Жыл бұрын
necesito una red , para prediciones financieras en el oro , donde puedo buscar repositorios para el entrenamiento ?
@codificandobits
@codificandobits Жыл бұрын
Hola Hernán. Creo que es arriesgado pensar en hacer trading usando Redes LSTM... El precio de una acción o el precio de un "commodity" (como el oro) depende de muchos factores que no podemos ver tan sólo a través de una serie de tiempo. Por tanto estos precios son muy volátiles y prácticamente imposibles de predecir con un alto grado de certeza... De hecho, y esto es una opinión personal, creo que este es el gran problema del "trading": la imposibilidad de tener certeza con las predicciones a corto plazo. A veces funcionará, y ganaremos dinero, pero la mayoría de las veces la predicción fallará (sea cual sea el método que usemos).
@richardl116
@richardl116 Жыл бұрын
el Dios de las explicaciones jaja el unico que le entendi
@alexgonzalezfuentes5551
@alexgonzalezfuentes5551 5 жыл бұрын
Maestro!
@marisolrodriguez4471
@marisolrodriguez4471 3 жыл бұрын
¿Cómo le doy like otra vez?
@codificandobits
@codificandobits 3 жыл бұрын
😆😆😆
@error220_33
@error220_33 Жыл бұрын
esto queria que hicieran video... cuesta hallar info en youtube... por que....... bueno pueden hacer i.a. que haga cosas malas XD. yo si quisiera hacer i.a. en pc bajo recurso si se puede.
@coiladelpinomariafernanda5517
@coiladelpinomariafernanda5517 2 ай бұрын
Yo viendo esto para mi trabajo de física sobre biomecanoca estudiando medicina:"v 😢😢
@sebasortix
@sebasortix 3 жыл бұрын
XD jajajajajaja, si se dio cuenta del "Forgate" XD
@codificandobits
@codificandobits 3 жыл бұрын
ja, ja, ja... No lo había notado!
Underfitting y Overfitting en las Redes Neuronales
5:28
Codificando Bits
Рет қаралды 3,8 М.
Introducción a las Redes Neuronales Recurrentes
8:50
Codificando Bits
Рет қаралды 27 М.
How To Choose Mac N Cheese Date Night.. 🧀
00:58
Jojo Sim
Рет қаралды 104 МЛН
Симбу закрыли дома?! 🔒 #симба #симбочка #арти
00:41
Симбочка Пимпочка
Рет қаралды 5 МЛН
¿Qué son los EMBEDDINGS? | Grandes Modelos de Lenguaje
10:09
Codificando Bits
Рет қаралды 8 М.
Redes Neuronales Recurrentes: EXPLICACIÓN DETALLADA
7:58
Codificando Bits
Рет қаралды 27 М.
Long Short-Term Memory (LSTM), Clearly Explained
20:45
StatQuest with Josh Starmer
Рет қаралды 608 М.
Autoencoders ¡EXPLICADOS!
16:27
Codificando Bits
Рет қаралды 1,3 М.
REDES TRANSFORMER (... o el fin de las Redes Recurrentes)
15:04
Codificando Bits
Рет қаралды 18 М.
¡LSTM: Todo lo que necesitas saber!
44:05
Pepe Cantoral, Ph.D.
Рет қаралды 5 М.
Redes neuronales recurrentes
13:47
AMP Tech
Рет қаралды 19 М.
How To Choose Mac N Cheese Date Night.. 🧀
00:58
Jojo Sim
Рет қаралды 104 МЛН