¡Cómo programar un Transformer desde CERO! (From Scratch!)

  Рет қаралды 1,979

Pepe Cantoral, Ph.D.

Pepe Cantoral, Ph.D.

Күн бұрын

Пікірлер: 16
@carlosdanielojeda3016
@carlosdanielojeda3016 5 ай бұрын
Está pequeña parte de mi vida se llama felicidad
@julherjul625
@julherjul625 3 ай бұрын
Excelente video, total apoyo.
@PepeCantoralPhD
@PepeCantoralPhD 2 ай бұрын
Muchas gracias por tu comentario y apoyo al canal! Saludos!
@reinerromero7265
@reinerromero7265 5 ай бұрын
😄 Nos ha desafiado a todos !! ... Excelente trabajo, felicitaciones y muchísismas gracias.
@fabio336ful
@fabio336ful 5 ай бұрын
El video más esperadooooooooo 🎉
@1LeoVaz
@1LeoVaz 5 ай бұрын
pedazo de contenido para ES 💥👏
@IATotal
@IATotal 5 ай бұрын
Gracias! excelentes videos!
@mauriciolugo6239
@mauriciolugo6239 5 ай бұрын
genialllll ... muy buen video
@reynaldopereira7613
@reynaldopereira7613 5 ай бұрын
es el dia 😍😍
@guillepintor
@guillepintor 4 ай бұрын
Hola, gracias por el video 🙏. Tengo una duda: en el PositionalEmbedding, parece que en el div_term solo se está considerando la mitad de los elementos i de cada embedding, en lugar de separar correctamente los índices pares e impares como debería ser. Por ejemplo, si tomamos d_model = 4, los valores de i para el seno deberían ser (0, 2) y para el coseno (1, 3). Sin embargo, actualmente, al hacer un arange de 0 a d_model = 4 con un paso de 2, los valores de 2i resultantes son (0, 2), y se utilizan tanto para el seno como para el coseno.
@carlosdanielojeda3016
@carlosdanielojeda3016 5 ай бұрын
Si quisiera ayuda o algunas clases para un problema específico como podría contactarte,bro , tus clases son muy excelentes
@dafmdev
@dafmdev 5 ай бұрын
Una duda porque no se usa torch.sqrt o torch.log en vez de math.sqrt y math.log?
@GozLoz-j8i
@GozLoz-j8i 5 ай бұрын
Llego el dia
@DragonBZeta
@DragonBZeta 4 ай бұрын
Buen día profesor, casi al final del video en donde tiene que modificar la matriz de pos_embed_matrix aplica un unsqueeze en dimensión 0 y después aplica un transpose entre la dimensión 0 y 1, creo que este transpose no es necesario ya que siguiendo todo su video con el haber agregado la dimensión 0 me daba shape de (1, seq_len, d_model) esto empata con la dimensión que trae el modelo de batch_size, seq_len, d_model
@gama3181
@gama3181 5 ай бұрын
y como obtenemos los embeddings de x capa del modelo ?
@alejandrocan3445
@alejandrocan3445 29 күн бұрын
Muy bueno!!
¡TRADUCTOR INGLÉS a ESPAÑOL desde CERO con PyTorch!
1:00:14
Pepe Cantoral, Ph.D.
Рет қаралды 1,2 М.
¿Cómo entrenar embeddings desde cero?
43:31
Pepe Cantoral, Ph.D.
Рет қаралды 2 М.
Beat Ronaldo, Win $1,000,000
22:45
MrBeast
Рет қаралды 158 МЛН
Quando eu quero Sushi (sem desperdiçar) 🍣
00:26
Los Wagners
Рет қаралды 15 МЛН
Try this prank with your friends 😂 @karina-kola
00:18
Andrey Grechka
Рет қаралды 9 МЛН
¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!
32:14
Pepe Cantoral, Ph.D.
Рет қаралды 4,6 М.
Transformers - Attention is all you need - Parte 1
21:46
Pepe Cantoral, Ph.D.
Рет қаралды 2,4 М.
El Vision Transformer ¡EXPLICADO!
18:24
Codificando Bits
Рет қаралды 3 М.
¡LSTM: Todo lo que necesitas saber!
44:05
Pepe Cantoral, Ph.D.
Рет қаралды 5 М.
Transformers - ¡Attention is all you need! Parte 3
16:24
Pepe Cantoral, Ph.D.
Рет қаралды 963
¿La red neuronal definitiva? - PerceiverIO
23:13
SensIO
Рет қаралды 1,6 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,1 МЛН
Red Neuronal Desde Cero. ¡Sólo Python!
49:52
Pepe Cantoral, Ph.D.
Рет қаралды 16 М.
¡Las funciones de Python son OBJETOS!
21:36
Pepe Cantoral, Ph.D.
Рет қаралды 481
Beat Ronaldo, Win $1,000,000
22:45
MrBeast
Рет қаралды 158 МЛН