Quel plaisir de revoir une vidéo de ta part sur KZbin !
@FloNocode3 жыл бұрын
En espérant que ce soit le début d'une longue série de vidéo :D.
@elouatimohamed37923 жыл бұрын
En manque bq tes vedio machine learnia
@lucienkahozi33142 жыл бұрын
nous aimerions aussi que tu fasses une video sur le sujet, ta pedagogie et tes animations sont vraiment utile Machine Learnia. Merci
@renemiche7353 жыл бұрын
merci. J'attendais une vidéo sur le sujet en français depuis longtemps et je suis d'autant plus heureux que ce soit toi qui la traite, car tu es un excellent pédagogue.
@arishali92483 жыл бұрын
You deserve more views and more subscribers, I am in love with your channel !!
@joslinmartinez92183 жыл бұрын
Cette vidéo et le live coding que tu as fais sont de grande qualité et m'ont permis de comprendre cette architecture et la façon dont on peut coder ce genre de choses ! Merci beaucoup :)
@jeanpeuplu38622 жыл бұрын
13:17 : ASMR pour penser à nous hydrater ; merci 🥰
@arminsmajlagic29072 жыл бұрын
I'm learning french and deep learning at the same time with you :D Thank you very much, well explained.
@sargan78513 жыл бұрын
Content de revoir des vidéos ... et le son est super bon.
@alh78392 жыл бұрын
c'est si clair, bien dans les détails en expliquant bien des notions complexes, gg
@boukaryouedraogo95543 жыл бұрын
Bon retour Thibault.
@laurentpourchot46493 жыл бұрын
Hello, merci pour cette video. Un exemple avec keras (ou Pytorch) serait top :-)
@alainrieger69053 жыл бұрын
Merci Monsieur pour tout ce que vous rendez accessible
@moussabamba62163 жыл бұрын
Super vidéo et bien expliquée , merci pour ce tuto , on attend le TP
@anthos.8097Ай бұрын
Le mec explique mieux que mes profs au MIT 💀
@MachineLinguist3 жыл бұрын
Merci pour cette vidéo 🙏. C’est super bien expliqué.
@denisbories3 жыл бұрын
Merci beaucoup pour ces explications claires 👏 Les propositions d’une séance de live coding ou une autre vidéo qui rentrerait dans les détails d’autres applications sont aussi intéressantes l’une que l’autre donc l’idéal serait de faire les 2 😬😇😷
@abderrahmanemabroukmerabet92743 жыл бұрын
Ce que tu fais est supe, continue c'est tres bien detaillé
@MsBowner Жыл бұрын
Excellent Thibault !
@Leo-hi3to3 жыл бұрын
Content de te revoir !!
@damienbouchabou13113 жыл бұрын
Superbe vidéo d'introduction aux transfomers. Je suis très intéressé pas le live coding d'un transfomers en keras. Et aussi très intéressé par l'explication d'application de transformer a d'autres domaines
@hamadoumossigarba12016 ай бұрын
Bonjour, Merci pour la qualité de la présentation et de clarté dans vos explications. Est -ce que le transformer peut être utilisé pour enregistrer et distribuer des données (codes imei et imsi)? Pourrai-je si possible avoir ce papier?
@hadjerhamidou15862 жыл бұрын
Merci pour ces explications
@14Tyrion3 жыл бұрын
Très bon travail !! Effectivement un TP pratique serait le bienvenu =)
@bradleyadjileye1202 Жыл бұрын
Merci pour cette vidéo
@vincentb.87433 жыл бұрын
Oui l'application des transformers serait très intéressant
@ahmedel-azharjebbari88063 жыл бұрын
Très bien expliqué !
@arishali92483 жыл бұрын
Amazing video, thanks for the explanation
@hassanaghdaoui51383 жыл бұрын
Sujet très intéressant , super vidéo
@ElMeneniNaima Жыл бұрын
merci beaucoup vraiment 🤍🤍🤍
@cedricmanouan23333 жыл бұрын
Heureux de te revoir TN 😏
@adrien123_3 жыл бұрын
Super vidéo, sujet très intéressant !
@lucienkahozi33142 жыл бұрын
merci pour cette videos tres instructive bro !
@khaberislam89573 жыл бұрын
Merci ..
@bekabd3 жыл бұрын
Merci
@automatescellulaires85432 жыл бұрын
J'adore le premier Transformers. Michael Bay is all you need.
@walidayadi57523 жыл бұрын
BRAVO ! Vidéo TOP !
@soelreza14303 жыл бұрын
Salut ! Tes vidéos sont super ! Merci beaucoup Dis moi est ce que le mécanisme d’attention peut être utilisé non pas pour le traitement de language mais pour prédire des variables numériques continue comme par exemple pour prédire le kwh d’un compteur électrique qui change toutes les 10s
@trucsetastucesia9 ай бұрын
salut Thibault , est-ce que tu aurais un schéma où on retrouve en terme simplifié cette suite d'opérations : prompt - token - vecteur - tête d'attention - décodeur ?
@franklouenkam88202 жыл бұрын
Merci infiniment😍😍😍
@elouatimohamed37923 жыл бұрын
Parfait 😍😍 merci bq
@jean-marcbereder42313 жыл бұрын
excellent
@yacinemamdouh12713 жыл бұрын
Je comprends pas pourquoi on a 8 têtes d'attention à 32:35 ? Merci pour la vidéo
@benoitmialet98426 ай бұрын
une question qui me hante : la masked self attention ne devrait intervenir UNIQUEMENT que lors de l'entrainement, car on place en input de decoder une séquence contenant la réponse (les tokens futurs). donc, en quoi la masked self attention intervient durant un processus de génération (une fois le modèle entrainé), puisque les tokens encore non générés n'existent tout simplement pas ? Merci de tout éclairage !
@ThibaultNeveu6 ай бұрын
En effet, seulement utile a l'entrainement
@benoitmialet98426 ай бұрын
@@ThibaultNeveu merci je me sens moins seul maintenant 🤣
@lz8oo8zl3 жыл бұрын
Je ne comprends pas un truc. A quoi sert réellement le FFN dans l'encoder et le decoder ? Chaque token va passer dans un réseau de neurones mais je ne vois pas ce que ça apporte au modèle. Quel impact ces réseaux ont sur l'information?
@simonarduin86003 жыл бұрын
nice
@elouatimohamed37923 жыл бұрын
Et aussi il faut L'implémentation svp
@samuelhamache1033 жыл бұрын
il a donné toutes les informations pour coder. Pas besoin de plus.
@Saens4062 жыл бұрын
rien compris
@WahranRai2 жыл бұрын
Affreux melange du français et de l'anglais !
@lbognini2 жыл бұрын
Les documents d'origine sont en anglais et ce sont des concepts relativement nouveaux. Que voulez-vous qu'il fasse? Commencer par faire du boulot de traduction avant celui d'explication? On aurait bien aimé que les papers d'origine soit en français. Pour l'heure, souffrons de ce mélange.