Self-Attention

  Рет қаралды 3,358

SensIO

SensIO

Күн бұрын

Пікірлер: 16
@JuniorH
@JuniorH Жыл бұрын
Excelente explicación, muchas gracias 🙌
@mariacamiladurangobarrera2821
@mariacamiladurangobarrera2821 2 жыл бұрын
Demasiado crack, Sensio. 10/10
@n1zkmt
@n1zkmt 2 жыл бұрын
Excelente video, una pregunta, aproximadamente en el minuto 10 mencionas que para trabajar con Transformers se necesitan un conjunto de vectores; eso significa que si mis datos son vectores de una dimensión ([1,256] por ejemplo), no podría implementar MHA ?
@mburonb
@mburonb 2 жыл бұрын
Hola, estuve viendo tus videos y la verdad que están muy buenos. Me gusta que no sólo cuentes la intuición general, sino que vayas al hueso, expliques con bastante detalle todo y muestres la implementación. Considero que es una buena forma de enseñar. De todas formas, quería preguntarte algo porque me quedó una duda: -¿La matriz de atención se entrena junto con el modelo de aprendizaje? ¿o primero hay que obtener la matriz de atención, y una vez que se obtiene (queda fija), y luego, se utiliza para definir el modelo, y entonces sólo se entrenaría el modelo?
@juansensio
@juansensio 2 жыл бұрын
La matriz de atención se calcula con las keys y values, que son resultado de aplicar una capa fully connected a los inptus y por lo tanto se aprende durante el entrenamiento
@mburonb
@mburonb 2 жыл бұрын
@@juansensio Gracias!
@bot902
@bot902 6 ай бұрын
como invertiste el color de jupyter ?
@jogam2986
@jogam2986 5 ай бұрын
yo uso la extension del navegador que se llama darkreader
@jogam2986
@jogam2986 5 ай бұрын
Masterclass
@gracesevillanocolina9463
@gracesevillanocolina9463 10 ай бұрын
Me encantó ;3
@EnderKira73PC
@EnderKira73PC 3 жыл бұрын
Genial el video, como siempre
@Skyline-ks7qx
@Skyline-ks7qx 2 жыл бұрын
Ayuda?? En la clase dataset hay un problema debido a numpy que ya no esta soportado np.int() y me sale error al ejecutar el código, no encontré como corregir. Muy bueno el vídeo por cierto,
@juansensio
@juansensio 2 жыл бұрын
puedes probar a user el "int" normal de python
@Skyline-ks7qx
@Skyline-ks7qx 2 жыл бұрын
@@juansensio no me funciona, o no estoy aplicando correctamente, estoy atorado no puedo pasar esa celda
@Nand0san35
@Nand0san35 Жыл бұрын
@@Skyline-ks7qx np.int64
@jdiazram
@jdiazram 10 ай бұрын
modifique el getitem por: def __getitem__(self, ix): x = torch.tensor(self.X.iloc[ix].values).float() y = torch.tensor(self.y.iloc[ix]).long() return x, y y lo que comenta @skyline-ks7qx de np.int a np.int64 y agregue el parser en mnist = fetch_openml('mnist_784', version=1, parser='auto') Asi me funciono. Saludos
Multi-head Attention
10:50
SensIO
Рет қаралды 2,1 М.
Mecanismos de Atención
15:20
SensIO
Рет қаралды 4,9 М.
小丑女COCO的审判。#天使 #小丑 #超人不会飞
00:53
超人不会飞
Рет қаралды 16 МЛН
UFC 310 : Рахмонов VS Мачадо Гэрри
05:00
Setanta Sports UFC
Рет қаралды 1,2 МЛН
Tuna 🍣 ​⁠@patrickzeinali ​⁠@ChefRush
00:48
albert_cancook
Рет қаралды 148 МЛН
Softmax Function Explained In Depth with 3D Visuals
17:39
Elliot Waite
Рет қаралды 40 М.
Visualizing transformers and attention | Talk for TNG Big Tech Day '24
57:45
Pau Labarta Bajo - Educador en Inteligencia Artificial
40:59
Diffusion models from scratch in PyTorch
30:54
DeepFindr
Рет қаралды 266 М.
Transformers Visuales (ViT)
10:20
SensIO
Рет қаралды 4,6 М.
Attention in transformers, visually explained | DL6
26:10
3Blue1Brown
Рет қаралды 2 МЛН
ESTE es el LLM que DEBERÍAS estar usando 🦅
8:07
SensIO
Рет қаралды 14 М.
Variational Autoencoders
15:05
Arxiv Insights
Рет қаралды 522 М.