VAE1/ Variational Autoencoder (VAE)

  Рет қаралды 9,973

CNRS - Formation FIDLE

CNRS - Formation FIDLE

Күн бұрын

Пікірлер: 14
@WahranRai
@WahranRai 22 күн бұрын
19:15 Si on pioche dans la région des 1, on va générer Attila !
@Facility37
@Facility37 3 жыл бұрын
C'est excellemment bien expliqué, merci beaucoup pour cette vidéo !
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci !
@paulmagnier7701
@paulmagnier7701 3 жыл бұрын
Cette vidéo est absolument géniale !
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup !
@alfredoalarconyanez4896
@alfredoalarconyanez4896 3 жыл бұрын
Merci, l'explication est très claire !
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup ! La séquence VAE en direct est prévue le 10 février :-)
@imadsaddik
@imadsaddik 8 ай бұрын
Merci beaucoup
@CNRS-FIDLE
@CNRS-FIDLE 7 ай бұрын
Merci à vous pour votre intérêt !!
@bouhamedayman8445
@bouhamedayman8445 3 жыл бұрын
merci beaucoup je trouve que c'est une vidéo trés utile. il manque juste une petit détaille sur la reparametrage dans l'espace latent .
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup pour ce retour, nous intègrerons cela dans les versions futures !
@faycalbaki569
@faycalbaki569 2 жыл бұрын
Bonjour, et merci pour ces explications. Il y a cependant quelque chose que j'ai du mal à comprendre : l'expression de la divergence KL que vous donnez correspond, si je ne me trompe pas, à la divergence entre une loi multivariée diagonale et une loi centrée réduite. Pourquoi donc ? On calcule la divergence entre quelles distributions exactement ?
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
L'utilisation de la divergence KL permet de contrôler la distribution dans l'espace latent, autrement dit de limiter l'éparpillement de la projection dans l'espace latent. L'idée est de mette une contrainte sur les paramètres de la distribution.
@leleogere
@leleogere Жыл бұрын
Pour moi, l'idée est d'essayer de centrer réduire au maximum notre espace latent. De cette manière, en tirant aléatoirement un point suivant une gaussienne centrée réduite, on sera sûr d'obtenir un chiffre existant. Si on laisse trop de poids à la reconstruction, il y a des grands espaces vides dans l'espace latent, et donc si notre point échantillonné tombe dans ces espaces vides, on va obtenir n'importe quoi. L'idée de centrer réduire l'espace latent est d'essayer d'obtenir un espace bien continu et représentant bien les données sans "trou" (et donc facilement echantillonnable).
VAE2/ Implémentation d'un VAE (MNIST)
37:51
CNRS - Formation FIDLE
Рет қаралды 4,3 М.
FIDLE / Variational Autoencoder (VAE), ou comment jouer avec les espaces latents
1:51:55
The Best Band 😅 #toshleh #viralshort
00:11
Toshleh
Рет қаралды 22 МЛН
We Attempted The Impossible 😱
00:54
Topper Guild
Рет қаралды 56 МЛН
She made herself an ear of corn from his marmalade candies🌽🌽🌽
00:38
Valja & Maxim Family
Рет қаралды 18 МЛН
It works #beatbox #tiktok
00:34
BeatboxJCOP
Рет қаралды 41 МЛН
The Reparameterization Trick
17:35
ML & DL Explained
Рет қаралды 25 М.
RNN1/ Réseaux récurrents (RNN)
31:09
CNRS - Formation FIDLE
Рет қаралды 25 М.
FIDLE / Autoencodeur (AE), un exemple d'apprentissage auto-supervisé !
1:44:17
CNRS - Formation FIDLE
Рет қаралды 4,9 М.
AE2/ Autoencodeur débruiteur
23:33
CNRS - Formation FIDLE
Рет қаралды 6 М.
Simple Explanation of AutoEncoders
10:31
WelcomeAIOverlords
Рет қаралды 115 М.
Understanding Variational Autoencoders (VAEs) | Deep Learning
29:54
Variational Autoencoders | Generative AI Animated
20:09
Deepia
Рет қаралды 56 М.
AE1/ Réseaux autoencodeurs (AE)
39:45
CNRS - Formation FIDLE
Рет қаралды 11 М.
Variational Autoencoders
15:05
Arxiv Insights
Рет қаралды 527 М.
Seq. 11 / Variational Autoencoder (VAE)
1:58:12
CNRS - Formation FIDLE
Рет қаралды 3,8 М.
The Best Band 😅 #toshleh #viralshort
00:11
Toshleh
Рет қаралды 22 МЛН