Transformers - Attention is all you need - Parte 1

  Рет қаралды 1,477

Pepe Cantoral, Ph.D.

Pepe Cantoral, Ph.D.

Күн бұрын

Playlist NLP
• Natural Language Proce...
Modelo de Lenguage
• Modelo de Lenguage: Ge...
Sequence to Sequence
• Sequence to Sequence (...
Attention en modelos redes neuronales recurrentes
• ¡Atención! (Sequence t...
En este video, explico el paper "Attention Is All You Need" que introdujo el modelo Transformer, una arquitectura que ha transformado el campo del procesamiento del lenguaje natural y la inteligencia artificial. Con este video empiezo una serie de videos acerca de transformers

Пікірлер: 22
@albertoespinosajuarez903
@albertoespinosajuarez903 4 ай бұрын
Hace muchos meses (tal vez incluso más de un año) te comenté que tus vídeos me estaban ayudando mucho para comprender conceptos de Deep Learning que ocupaba para mi maestria. Hoy ya estoy en el doctorado y sigo sosteniendo que tus vídeos y explicaciones son oro. Muy pocos canales en español tienen contenido tan bueno sobre estos temas.
@LeonardoEnriqueMorenoFlores
@LeonardoEnriqueMorenoFlores 4 ай бұрын
Muchas gracias, Pepe. Excelente video como siempre.
@PepeCantoralPhD
@PepeCantoralPhD 2 ай бұрын
Muchas gracias por tu apoyo como siempre! De verdad aprecio mucho tus comentarios y preguntas, espero estar contestando esta semana. Un saludo grande!
@colvert11
@colvert11 4 ай бұрын
Muchas gracias Dr. Pepe! Saludos!
@Johan-zs9xh
@Johan-zs9xh 4 ай бұрын
Ph.D con un canal de youtube, gracias por compartir tu conocimiento
@PepeCantoralPhD
@PepeCantoralPhD 4 ай бұрын
Muchas gracias por tu comentario! Lo aprecio muchísmo! Muchos saludos!
@dapa084
@dapa084 4 ай бұрын
Esperando con ansias este video desde hace meses pepe, muy buen trabajo, sigue asi. Esperando ya la segunda parte!!!!!!!!!
@LuisMorales-bc7ro
@LuisMorales-bc7ro 3 ай бұрын
Gracias por compartir!!
@PepeCantoralPhD
@PepeCantoralPhD 3 ай бұрын
Muchas gracias!
@jonas1ara
@jonas1ara 4 ай бұрын
Recuerdo haber hecho un comentario hace unos dos años donde le decía que era una buena idea para su canal revisar los papers más famosos o útiles de IA, me encanta.
@PepeCantoralPhD
@PepeCantoralPhD 2 ай бұрын
Muchas gracias! Revisar papers es una idea excelente que definitivamente estaré haciendo más seguido
@reynaldopereira7613
@reynaldopereira7613 4 ай бұрын
seeee por fin amo estos videos
@toomaxtube
@toomaxtube 4 ай бұрын
_Muchas gracias, Dr. por ver este tema !!!_ _espero ver próximamente más de las implementaciones ..._
@lautar
@lautar 3 ай бұрын
Gracias por estos videos Pepe, se agradece mucho tener estos contenidos en español. Los transformers que tengo integrados en el cerebro y que me traducen las cosas del inglés se me agotan después de largas horas de exposición. Esto es un bálsamo.
@gustavojuantorena
@gustavojuantorena 4 ай бұрын
Excelente!! Estaré esperando los próximos videos. Saludos
@fabio336ful
@fabio336ful 4 ай бұрын
Muchas gracias por tu explicacion, para cuando las siguientes partes?
@wilfredomartel7781
@wilfredomartel7781 2 ай бұрын
Excelente video! Pero es necesario combinarlo con código y la parte matemática a lado para saber como se van enlazando.
@PepeCantoralPhD
@PepeCantoralPhD 2 ай бұрын
Muchas gracias por tu comentario! Tengo 3 partes teóricas en la serie, este video es solo una introducción, la segunda parte se centra en explicar las ecuaciones, y la tercera cómo podrían programarse esas ecuaciones. Ademas, algo también interesante viene en otros 2 videos donde muestro con mucho detalle cómo programar el Transformer usando PyTorch y cómo implementar un traductor. Te dejo la liga al video de cómo programarlo desde zero. Muchas gracias y muchos saludos! ¡Cómo programar un Transformer desde CERO! (From Scratch!) kzbin.info/www/bejne/jpbJd51qp7F7nbc
@wilfredomartel7781
@wilfredomartel7781 2 ай бұрын
@@PepeCantoralPhD pase una noche maratónica viendo tus videos.
@IATotal
@IATotal 4 ай бұрын
Excelentes videos!, hay que cuidar un poco sin embargo la parte del audio, un abrazo
@PepeCantoralPhD
@PepeCantoralPhD 2 ай бұрын
Muchas gracias por tu comentario y sugerencia! Muchos saludos!
@gama3181
@gama3181 4 ай бұрын
gracias Pepe. Yo nunca he entendio bien la diferencia entre encoder-only y decoder-only. he visto que todo recae en la loss mas que en la arquitectura, siendo making loss para los encoder-only y autoregressive loss para los decoder-only. otros tal vez lo simplifican mucho al decir que solo es estrictamente alguno de los dos módulos del transformer lo que se entrena. Sabes cual es la difererencia entonces? en este caso el transformer de attention is all you need es un encoder-decorer pero con un masking loss?
Transformers - ¡Attention is all you need! Parte 2
35:33
Pepe Cantoral, Ph.D.
Рет қаралды 847
Attention Is All You Need
27:07
Yannic Kilcher
Рет қаралды 644 М.
She's very CREATIVE💡💦 #camping #survival #bushcraft #outdoors #lifehack
00:26
小天使和小丑太会演了!#小丑#天使#家庭#搞笑
00:25
家庭搞笑日记
Рет қаралды 61 МЛН
Сюрприз для Златы на день рождения
00:10
Victoria Portfolio
Рет қаралды 2,3 МЛН
pumpkins #shorts
00:39
Mr DegrEE
Рет қаралды 122 МЛН
[1hr Talk] Intro to Large Language Models
59:48
Andrej Karpathy
Рет қаралды 2,2 МЛН
Attention in transformers, visually explained | Chapter 6, Deep Learning
26:10
Paul Roetzer Opening Keynote: The Road to AGI - MAICON 2024 (9/11/24)
30:21
Marketing AI Institute
Рет қаралды 28 М.
Generative AI in a Nutshell - how to survive and thrive in the age of AI
17:57
She's very CREATIVE💡💦 #camping #survival #bushcraft #outdoors #lifehack
00:26