Muchas gracias por tu comentario y apoyo al canal! Saludos!
@reinerromero72655 ай бұрын
😄 Nos ha desafiado a todos !! ... Excelente trabajo, felicitaciones y muchísismas gracias.
@fabio336ful5 ай бұрын
El video más esperadooooooooo 🎉
@1LeoVaz5 ай бұрын
pedazo de contenido para ES 💥👏
@IATotal5 ай бұрын
Gracias! excelentes videos!
@mauriciolugo62395 ай бұрын
genialllll ... muy buen video
@reynaldopereira76135 ай бұрын
es el dia 😍😍
@guillepintor4 ай бұрын
Hola, gracias por el video 🙏. Tengo una duda: en el PositionalEmbedding, parece que en el div_term solo se está considerando la mitad de los elementos i de cada embedding, en lugar de separar correctamente los índices pares e impares como debería ser. Por ejemplo, si tomamos d_model = 4, los valores de i para el seno deberían ser (0, 2) y para el coseno (1, 3). Sin embargo, actualmente, al hacer un arange de 0 a d_model = 4 con un paso de 2, los valores de 2i resultantes son (0, 2), y se utilizan tanto para el seno como para el coseno.
@carlosdanielojeda30165 ай бұрын
Si quisiera ayuda o algunas clases para un problema específico como podría contactarte,bro , tus clases son muy excelentes
@dafmdev5 ай бұрын
Una duda porque no se usa torch.sqrt o torch.log en vez de math.sqrt y math.log?
@GozLoz-j8i5 ай бұрын
Llego el dia
@DragonBZeta4 ай бұрын
Buen día profesor, casi al final del video en donde tiene que modificar la matriz de pos_embed_matrix aplica un unsqueeze en dimensión 0 y después aplica un transpose entre la dimensión 0 y 1, creo que este transpose no es necesario ya que siguiendo todo su video con el haber agregado la dimensión 0 me daba shape de (1, seq_len, d_model) esto empata con la dimensión que trae el modelo de batch_size, seq_len, d_model
@gama31815 ай бұрын
y como obtenemos los embeddings de x capa del modelo ?