Comprendre les réseaux de neurones

  Рет қаралды 31,410

Alexandre TL

Alexandre TL

Күн бұрын

Пікірлер: 26
@alexandretl
@alexandretl 8 ай бұрын
Cette vidéo fait partie d'une série de vidéos : kzbin.info/aero/PLO5NqTx3Y6W6KkZHSzlvAQbJGQxrHErhx C'est un peu de temps à investir, mais si vous voulez avoir une bonne intuition ainsi qu'une bonne compréhension de ce que sont les réseaux de neurones, je vous conseille de vous accrocher
@clementn8793
@clementn8793 Жыл бұрын
Vidéo passionnante. J'ai découvert ta chaine récemment et tu as également fait beaucoup de progrès en qualité et clarté d'expression orale, c'est flagrant par rapport aux vidéos d'il y a plusieurs années, bravo à toi.
@alexandretl
@alexandretl Жыл бұрын
Merci beaucoup pour ton commentaire !
@ChatSceptique
@ChatSceptique 9 күн бұрын
Bien expliqué ❤
@alexandretl
@alexandretl 9 күн бұрын
Merci! :)
@gillesdlg4444
@gillesdlg4444 Жыл бұрын
Vidéo très claire sur les réseaux de neurones, merci
@profmathwahid
@profmathwahid 7 ай бұрын
Merci infiniment pour cette présentation
@miraitrunks4571
@miraitrunks4571 2 ай бұрын
passionnant merci
@aymenmarzak9713
@aymenmarzak9713 7 ай бұрын
je suis tombé sur la vidéo au hasard mdrrrrrr, bravo Alex
@alexandretl
@alexandretl 7 ай бұрын
Ahah merci
@rababslimani9925
@rababslimani9925 Жыл бұрын
Super maître merci beaucoup
@yark9370
@yark9370 Жыл бұрын
La vidéo est super claire merci, tu peux mettre le lien de l'article dont tu parles stp ?
@alexandretl
@alexandretl Жыл бұрын
Merci! Le voici : www.lesswrong.com/posts/aPeJE8bSo6rAFoLqg/solidgoldmagikarp-plus-prompt-generation
@SuperNewPirate
@SuperNewPirate Жыл бұрын
Super propre la vidéo ! Tu as utilisé Manim ?
@alexandretl
@alexandretl Жыл бұрын
Merci! Ouais 👍
@Josette-BM2024
@Josette-BM2024 8 ай бұрын
Bonjour Monsieur Je voulais savoir si c'est possible de faire le réseau de neurone avec le logiciel R Si oui, comment procéder?
@alexandretl
@alexandretl 8 ай бұрын
Bonjour, oui sûrement. Je ne connais pas R donc je ne pourrais pas vous aider, mais il doit y avoir des ressources sur internet.
@abrahamtiecoura3441
@abrahamtiecoura3441 Жыл бұрын
Incroyable mais pour les néophytes comme moi qui débute en IA c'est pas une véritable vidéo d'introduction comme je m'y attendais mais je vais checker les autres vidéos mais par ou commencer
@alexandretl
@alexandretl Жыл бұрын
Oui en effet, cette vidéo fait partie de la série que tu peux retrouver ici : kzbin.info/aero/PLO5NqTx3Y6W6KkZHSzlvAQbJGQxrHErhx
@alexandretl
@alexandretl Жыл бұрын
Tu peux commencer par la vidéo "L'apprentissage supervisé, c'est quoi ?"
@Lxw78e
@Lxw78e 8 ай бұрын
De nouveau merci pour cette vidéo ! Une question pour vérifier si je comprends bien le principe Les fonctions f[k] (les fonctions d'une même couche) sont identiques ? c'est à dire que a une couche "k" est associe une fonction d'activation non linéaire et donc que les neuurones Zi[k] renvoient exactement la même chose si tous les wi,j sont identiques (prennons le pour tout i,j, winj = 1 ? ) Donc au final, ce qui différentie les "features calculés par les neuronnes" sont les wij initialement définis aléatoirement ? D'où la question suivante : La descente de gradiant , s'effectue pour retrouver les coefficients wi,j initiaux ? donc si j'ai 2 features et une première couche avec 2 unités/neur, on va au final optimiser les coefficients w1,1 , w1,2 , w2,1 et w2,2 quelque soit le nombre de couches jusqu'à la sortie ? Et à chaque individus " à prédire " on fait une forward propagation sur le réseaux qui n'est rien d'autre qu'une "composée de graphe de calculs" , avec une condiiton sur la valeur finale ? (j'imagine qu'on renvoie le résultats sous forme de proba pour décider avec >0.5? dans un cas à cible binaire )
@alexandretl
@alexandretl 8 ай бұрын
Oui on applique la même fonction d'activation sur toute la couche. Donc effectivement si les w_i,j sont les mêmes les calculs de chaque neurones seront les mêmes. Je ne vois pas très bien ce que tu entends par "La descente de gradient , s'effectue pour retrouver les coefficients wi,j initiaux" mais non on n'essaie pas de retrouver les paramètres initiaux qui sont définis aléatoirement, mais plutôt de chercher les paramètres optimaux. "on va au final optimiser les coefficients w1,1 , w1,2 , w2,1 et w2,2 quelque soit le nombre de couches jusqu'à la sortie ?" oui chaque paramètre est optimisé indépendamment des autres pour la cible binaire on compare la probabilité de sortie du modèle avec 0 ou 1 en fonction de la vraie classe de la donnée. si la vraie classe est 1 et que le modèle donne une proba de 0.8, c'est pas mal, mais si il donne 0.1, c'est moins bien. c'est cette différence qui est le coût et dont on va prendre la dérivée par rapport à nos paramètres pour les optimiser et réduire cette différence. (note : le calcul du coût est un peu plus subtil que juste faire la différence mais dans l'esprit c'est ça, j'ai aussi fait une vidéo qui en parle)
@Lxw78e
@Lxw78e 8 ай бұрын
@@alexandretl merci pour ta réponse ! Ma question sur les paramètres était très mal posée ! ( désolé ) Je voulais savoir si on ne cherchais qu’à optimiser les paramètres de la première couche mais en fait j’ai compris que non c’est tous . :)
@nassifoukondoou3350
@nassifoukondoou3350 Жыл бұрын
cool
@CelianBaudet
@CelianBaudet 5 ай бұрын
Hello l'explication est top, via quel logiciel tu fais ton motion pour expliquer les concepts ?
@alexandretl
@alexandretl 5 ай бұрын
Merci! J'utilise manim, donc je scripte les animations en Python
Les maths des réseaux de neurones
12:11
Alexandre TL
Рет қаралды 7 М.
Гениальное изобретение из обычного стаканчика!
00:31
Лютая физика | Олимпиадная физика
Рет қаралды 4,8 МЛН
Beat Ronaldo, Win $1,000,000
22:45
MrBeast
Рет қаралды 158 МЛН
Sigma Kid Mistake #funny #sigma
00:17
CRAZY GREAPA
Рет қаралды 30 МЛН
DeepSeek-R1 🐳 : le retour de l'apprentissage par renforcement
14:16
Comment interpréter ce qui se passe dans un réseau de neurones ?
34:25
Algorithme de backpropagation dans un réseau de neurones
8:17
François Schwarzentruber
Рет қаралды 1 М.
CNN1/ Réseaux convolutifs (CNN)
27:27
CNRS - Formation FIDLE
Рет қаралды 55 М.
Prix Nobel de physique 2024 sur l'intelligence artificielle
25:19
Livres et Science
Рет қаралды 438 М.
Le deep learning
20:07
ScienceEtonnante
Рет қаралды 1,6 МЛН
Comprendre les réseaux de neurones récurrents (RNN)
22:42
Thibault Neveu
Рет қаралды 49 М.
But what is a neural network? | Deep learning chapter 1
18:40
3Blue1Brown
Рет қаралды 18 МЛН
Ce qui se cache derrière le fonctionnement de ChatGPT
27:23
ScienceEtonnante
Рет қаралды 1,3 МЛН
Les réseaux de convolution (CNN) | Intelligence artificielle 47
12:53
Гениальное изобретение из обычного стаканчика!
00:31
Лютая физика | Олимпиадная физика
Рет қаралды 4,8 МЛН