RNN1/ Réseaux récurrents (RNN)

  Рет қаралды 25,315

CNRS - Formation FIDLE

CNRS - Formation FIDLE

Күн бұрын

Пікірлер: 37
@bouramacoulibaly1981
@bouramacoulibaly1981 2 жыл бұрын
La meilleure vidéo que j'ai trouvé sur les réseaux récurrents. Merci beaucoup Professeur!
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Merci à vous pour votre intérêt concernant notre formation et pour votre retour :-)
@qf4364
@qf4364 3 жыл бұрын
Merci beaucoup ! Très clair meilleur que beaucoup de vidéo en anglais!
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup !
@Lydias_1999
@Lydias_1999 2 жыл бұрын
Bonjour Vous avez compris pourquoi on utilise la transposé de W?
@ibrahimabarry8839
@ibrahimabarry8839 3 жыл бұрын
merci Mr, vous expliquez tres bien.
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci !
@thomasavron7916
@thomasavron7916 Жыл бұрын
Merci ! Super clair notamment sur les LSTM !😊
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Merci à toi 😊
@MateniaVlaxou
@MateniaVlaxou 3 жыл бұрын
Super explication, bravo !!!!
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Merci :-)
@didierleprince6106
@didierleprince6106 2 жыл бұрын
Excellent pédagogue. Merci (:
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Merci à vous également :-)
@SAMATECHOSINT
@SAMATECHOSINT 26 күн бұрын
superbe
@yveslacroix4554
@yveslacroix4554 3 жыл бұрын
Merci pour vos efforts
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup ! Rendez-vous le 20 janvier pour le direct !
@alexs7139
@alexs7139 Жыл бұрын
Bonne vidéo: la meilleure sur les RNN (en français en plus!). Dommage que sur la partie LSTM, votre tête cache les légendes: ça rend le schéma assez incompréhensible 😅 (si on ne connaît pas déjà l’architecture…)
@CNRS-FIDLE
@CNRS-FIDLE 11 ай бұрын
Merci beaucoup ! Notez qu'une nouvelle version de cette séquence est disponible sur notre chaine, dans laquelle nous avons été plus attentifs à cela ;-)
@louiseti4883
@louiseti4883 2 жыл бұрын
Merci pour la qualité de la vidéo !! J'aurai une question quant à la taille des vecteurs en Output : pourquoi sont-ils de tailles égales au nombre de neurones de la hidden cell ? Ne pouvons-nous pas choisir leur taille librement comme nous pourrions le faire dans des réseaux de neurones classiques ?
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Merci pour votre retour ! Dans les cas des réseaux récurrents, on parle plutôt de cellules. La sortie d'un RNN sera un vecteur ayant un nombre de composantes identique au nombre de cellules constituant le réseau (voir slide 17).
@naimsouni4428
@naimsouni4428 3 жыл бұрын
superbe vidéo !
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci !
@chaymaegattoua5215
@chaymaegattoua5215 3 жыл бұрын
Merci bcp,,,,c'est très interessant
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci !
@hamzarahmani2100
@hamzarahmani2100 2 жыл бұрын
Merci pour la vidéo. Toutefois vous n'avez pas expliqué comment le modèle est entrainé? Où est ce que intervient l'erreur MSE et le nombre d'itérations?
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Vous pourrez trouver ces réponses dans la première séquence, également disponible en replay sur notre chaine :-)
@Lydias_1999
@Lydias_1999 2 жыл бұрын
Bonjour monsieur Merci pour votre explication Mais j'ai pas bien compris pourquoi on utilise la transposé de W au lieu de W tout court ??? Merci Pour vôtre réponse
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
On utilise la transposée de W afin de permettre la multiplication avec le vecteur X.
@hamadoumossigarba1201
@hamadoumossigarba1201 2 жыл бұрын
Bonjour, Peut-on utiliser cette technique pour un registre distribué ?
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Pas sûr du tout.... Les Transformers (cf. seq. 8) sont par contre beaucoup plus performants et parallélisables :-)
@SAMATECHOSINT
@SAMATECHOSINT 26 күн бұрын
peut on voir les cours complets du deep en pdf?
@CNRS-FIDLE
@CNRS-FIDLE 21 күн бұрын
Bonjour, Vous pouvez retrouver tous les supports de cours sur notre site internet : fidle.cnrs.fr/ Dans l'onglet "Ressources", vous pouvez télécharger tous les supports de cours.
@teeg-wendezougmore6663
@teeg-wendezougmore6663 2 жыл бұрын
Merci beaucoup pour ce partage. Comment peut-on citer ce cours dans un document scientifique?
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Ah, bonne question ;-) Par exemple : Jean-Luc Parouty et al., Formation Introduction au Deep Learning (FIDLE), fidle.cnrs.fr, 2022 Merci à vous de nous citer !
@teeg-wendezougmore6663
@teeg-wendezougmore6663 2 жыл бұрын
@@CNRS-FIDLE Merci
@THIERRYSIKANDI
@THIERRYSIKANDI Жыл бұрын
bonsoir prof vous êtes le meilleur merci infiniment .Svp j'ai un gros probleme pour le installation des application nécessaire pour la formation ,svp je peut avoir de aide?
@CNRS-FIDLE
@CNRS-FIDLE 11 ай бұрын
Vous trouverez sur notre site les différentes procédures actualisées de récupération et installation de l'environnement. La procédure via Docker est celle que nous conseillons, mais une installation traditionnelle, via un environnement virtuel Python est également possible.
RNN2/ Prédiction simple d'une trajectoire
28:49
CNRS - Formation FIDLE
Рет қаралды 8 М.
Les réseaux récurrents (RNN) | Intelligence artificielle 46
16:43
Леон киллер и Оля Полякова 😹
00:42
Канал Смеха
Рет қаралды 4,7 МЛН
Enceinte et en Bazard: Les Chroniques du Nettoyage ! 🚽✨
00:21
Two More French
Рет қаралды 42 МЛН
CNN1/ Réseaux convolutifs (CNN)
27:27
CNRS - Formation FIDLE
Рет қаралды 56 М.
Long Short-Term Memory (LSTM), Clearly Explained
20:45
StatQuest with Josh Starmer
Рет қаралды 661 М.
But what is a neural network? | Deep learning chapter 1
18:40
3Blue1Brown
Рет қаралды 18 МЛН
FIDLE / Embedding et et Réseaux de Neurones Récurrents (RNN)
2:16:13
CNRS - Formation FIDLE
Рет қаралды 9 М.
Comprendre les Réseaux de Neurones : LSTM vs GRU
8:24
LeCoinStat
Рет қаралды 1,1 М.
Comment CHOISIR LE BON MODÈLE de Machine Learning ?
20:16
Machine Learnia
Рет қаралды 96 М.
Comprendre les réseaux de neurones récurrents (RNN)
22:42
Thibault Neveu
Рет қаралды 49 М.
Comprendre les LSTM - Réseaux de neurones récurrents
29:29
Thibault Neveu
Рет қаралды 51 М.
What is LSTM (Long Short Term Memory)?
8:19
IBM Technology
Рет қаралды 243 М.