¡Atención! (Sequence to sequence with attention): ¡Traductor Inglés a Español! (Parte 2)

  Рет қаралды 637

Pepe Cantoral, Ph.D.

Pepe Cantoral, Ph.D.

Күн бұрын

Пікірлер: 12
@alejandrocan3445
@alejandrocan3445 Ай бұрын
Gracias!! sumamente util y claro :)
@matiasasses9841
@matiasasses9841 9 ай бұрын
Gracias Pepe!! Tenes una manera de explicar que hace que entender estos conceptos sea muy fácil!! Ojalá no dejes de hacer estos videos!!
@PepeCantoralPhD
@PepeCantoralPhD 9 ай бұрын
Muchas gracias por tu comentario! Mi intención es continuar con el canal, aunque usualmente no tan seguido como me gustaría. Muchos saludos!
@reinerromero7265
@reinerromero7265 10 ай бұрын
Muchas gracias 😄Sería estupendo el que desarrolle ejemplos con Series de Tiempo también.
@PepeCantoralPhD
@PepeCantoralPhD 9 ай бұрын
Definitivamente es un tema que voy a abordar, creo que es una de las aplicaciones en las que redes neuronales recurrentes seguirán siendo útiles. Saludos!
@LeonardoEnriqueMorenoFlores
@LeonardoEnriqueMorenoFlores 10 ай бұрын
Como siempre Pepe!! Excelente video y a esperar con ansias el desarrollo!! Muchas gracias
@PepeCantoralPhD
@PepeCantoralPhD 9 ай бұрын
Muchas gracias Leonardo, espero poder darle un avance ahora en los días de esta semana que tienden a ser un poco más tranquilos! Muchas gracias, saludos!
@MultiRockxD
@MultiRockxD 7 ай бұрын
Por favor analiza a detalle el paper Attention is all you need, sería un excelente video! Gracias por compartir
@PepeCantoralPhD
@PepeCantoralPhD 7 ай бұрын
Muchas gracias por tu comentario! Definitivamente será el siguiente video, seguido de su implementación en código. Espero estar publicando estos videos en las próximas semanas, y tener la serie de transformers durante el verano. Muchos saludos!
@milenapellegrino7032
@milenapellegrino7032 6 ай бұрын
EL sigueinte video de la implementacion en codigo ya esta disponible?
@luisfernandomartinez7804
@luisfernandomartinez7804 9 ай бұрын
Que ansiedad esperar para ver todos los temas interesantes que se vienen, si los tuvieras todos listos pagaría por verlos 😬
@PepeCantoralPhD
@PepeCantoralPhD 9 ай бұрын
Muchas gracias por tu comentario y apoyo al canal, me motiva enormemente. De verdad al momento que los tenga listos los seguiré publicando por este medio de la misma forma. Muchos saludos y hasta pronto!
ChatGPT y Gemini: ¡Conversación con los modelos más avanzados de IA!
44:48
Modelo de Lenguage: Generador de texto con Red Neuronal Recurrente.
23:43
Pepe Cantoral, Ph.D.
Рет қаралды 965
Business of AI: The advancements of artificial intelligence in 2024
21:59
¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!
32:14
Pepe Cantoral, Ph.D.
Рет қаралды 4,6 М.
Attention in transformers, visually explained | DL6
26:10
3Blue1Brown
Рет қаралды 1,9 МЛН
Sequence to Sequence (Seq2Seq): ¡Traductor Inglés a Español! (Parte 1)
14:51
Transformers - Attention is all you need - Parte 1
21:46
Pepe Cantoral, Ph.D.
Рет қаралды 2,4 М.
¡Las funciones de Python son OBJETOS!
21:36
Pepe Cantoral, Ph.D.
Рет қаралды 481
Modelos secuenciales y REDES NEURONALES RECURRENTES
50:13
Pepe Cantoral, Ph.D.
Рет қаралды 4,2 М.
BATCH NORMALIZATION: ¿Qué es y para qué sirve?
27:59
Pepe Cantoral, Ph.D.
Рет қаралды 2,3 М.
Large Language Models explained briefly
8:48
3Blue1Brown
Рет қаралды 957 М.