4/ Régression et Classification avec un DNN

  Рет қаралды 18,371

CNRS - Formation FIDLE

CNRS - Formation FIDLE

Күн бұрын

Пікірлер: 45
@Ck1357fr
@Ck1357fr 3 жыл бұрын
C'est rare et précieux d'avoir des explications aussi limpides sur des choses aussi complexes, merci mille fois
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup ! :-)
@passionate-dev
@passionate-dev 3 жыл бұрын
waou c'est le meilleur le plus explique depuis le debut que j'ai jamis vu. Tres tres bien explique. courage a vous
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup pour ce retour !! :-)
@fredericvidal6397
@fredericvidal6397 3 жыл бұрын
Très pédagogique. En plus en français. Vraiment top ! Quand je me dis que ce sont mes impôts (pour partie) qui rémunèrent toute l'équipe, je suis bien content d'en payer. Et je ne dis pas ça tous les jours... ;-)
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup pour ce retour :-)
@hamadoumossigarba1201
@hamadoumossigarba1201 Жыл бұрын
Bonsoir, Bravo. Toutes mes félicitations pour la clarté de ce cours. Bonne soirée.
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Merci à vous
@armel1674
@armel1674 Жыл бұрын
Merci vraiment, je vie au Cameroun et c'est important pour moi❤
@CNRS-FIDLE
@CNRS-FIDLE 11 ай бұрын
Merci beaucoup, nous sommes très heureux de savoir que nos contenus sont utiles et appréciés :-))
@nemakolie2013
@nemakolie2013 2 жыл бұрын
merci vraiment fidle vos esplication son claire
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Merci beaucoup !
@bagreaminata6614
@bagreaminata6614 Ай бұрын
merci vraiment
@alexandregazagnes4577
@alexandregazagnes4577 3 жыл бұрын
Bonjour à tous. Un immense bravo à vous. Je fais de la DS depuis 5 ans et je n'ai jamais cessé de bincher des chaînes de vulgarisation / formation pour voir un peu letat de l'art. Votre travail est le plus clair, le plus complet, le plus structuré, le plus accessible et le plus pédagogique que j'ai vu. Un immense bravo pour la qualité de votre travail. Même Andrew Ng et Fast.ai ne sont pas à ce niveau de pédagogie. Encore Bravo
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup pour ce commentaire flatteur ! Toute l'équipe Fidle vous remercie :-)
@DAVIDMOUSSAOUI
@DAVIDMOUSSAOUI 2 жыл бұрын
Super explication ! mais y'a pas une erreur à 21:30 où c'est moi qui ne comprend pas... vous dîtes normaliser les datas de test avec le mean et le std des datas d'apprentissage... (?)
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Les données de test ne doivent en aucun cas influencer l'apprentissage. On n'utilisera donc que les données d'apprentissage pour calculer les paramètres de normalisation. Ces paramètres de normalisation (mean, std) seront ensuite utilisés pour normaliser toutes les données.
@abdogassar9246
@abdogassar9246 9 ай бұрын
C'est genial, merci beaucoup.
@CNRS-FIDLE
@CNRS-FIDLE 7 ай бұрын
Merci à vous !
@quentinquadrat9389
@quentinquadrat9389 3 жыл бұрын
A 30:03 concernant les 448 paramètres : c’est 13 neurones en entrée et non pas 16 comme annoncé : 32 * 13 + 32 = 448
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Oups, effectivement.. merci de cette correction !
@fredericfaguet1607
@fredericfaguet1607 2 жыл бұрын
Bonjour : ne fonctionne pas avec python 3.10 ( bug dès le pip install) donc j'ai essayé avec la V3.9, ça passe. , ensuite, tensorflow est "not found " lors du fid check, donc rien ne fonctionne. J'ai créé un topic dans le gitlab à ce sujet.
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Cela est curieux, car la procédure d'installation a maintenant été utilisée et validée des centaines de fois ;-) ...peut-être devriez-vous essayer d'utiliser la distribution via Docker ? Bonne chance !
@athem2296
@athem2296 2 жыл бұрын
Merci pour tout. Dans le premier notebook, il me semble que a et b sont inversés pour la regression (mettre "theta = np.array([[b],[a]])" au lieu de [a],[b])
@CNRS-FIDLE
@CNRS-FIDLE 2 жыл бұрын
Nous avons y=a.x+b et prenons théta=(a,b) A priori, tout est bon ;-)
@germainsimon1671
@germainsimon1671 Жыл бұрын
Bonjour, merci pour toutes ces explications. J'ai procédé à l'installation de l'environnement fidle sans encombre. Je voulais essayer le premier exemple de régression mais lorsque j'active la cellule step 1, j'obtiens un message d'erreur : "ModuleNotFoundError Traceback (most recent call last) Cell In[1], line 12 9 import pandas as pd 10 import os,sys ---> 12 import fidle 14 # Init Fidle environment 15 run_id, run_dir, datasets_dir = fidle.init('BHPD1') ModuleNotFoundError: No module named 'fidle'" Pouvez-vous m'aider ?
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Bonjour Simon , stp peux-tu, essayer de réinstaller le module fidle dans l'environment fidle. comande : " pip install fidle " . let me know the result. thanks
@TheRocwo
@TheRocwo 3 жыл бұрын
Très bon cours
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci beaucoup !
@quentinquadrat9389
@quentinquadrat9389 11 ай бұрын
Bonjour, les vidéos précédentes (La controverse des neurones, regression, classification ...) semblent avoir disparues, est-il possible de les remettre ?
@quentinquadrat9389
@quentinquadrat9389 11 ай бұрын
Désolé, je viens de trouver les nouvelles versions dans la playlist "Concepts et historique" mais je les trouve moins bien faites (car elles entrent moins dans les maths). Dommage que les anciennes ne soient plus présentes :(
@CNRS-FIDLE
@CNRS-FIDLE 11 ай бұрын
Gros dilemme... ;-) Nous avons essayé de rendre les premières séquences plus accessibles et de rajouté une séquence "Maths"... L'idée est d'essayer de conjuguer une bonne accessibilité et de conserver la substantifique moelle des mathématiques... pas simple !
@quentinquadrat9389
@quentinquadrat9389 11 ай бұрын
@@CNRS-FIDLE Oui vos vidéos sont une bonne entrée pour celles de S. Mallat au collège de France ;)
@mandresyandriantsoanavalon5643
@mandresyandriantsoanavalon5643 Жыл бұрын
Bonjour ! Un nouvelle saison fidle (2023-2024) est-elle prévue ?
@CNRS-FIDLE
@CNRS-FIDLE Жыл бұрын
Bonjour oui debut novembre
@mandresyandriantsoanavalon5643
@mandresyandriantsoanavalon5643 Жыл бұрын
@@CNRS-FIDLE Je vous remercie pour votre retour :)
@passionate-dev
@passionate-dev 3 жыл бұрын
video tres a jour.
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci :-)
@quentinquadrat9389
@quentinquadrat9389 3 жыл бұрын
Bonjour, vos vidéos sont très claires : un grand merci ! Ca pourrait être pédagogique que vous montriez comment on code à la main (sans utiliser de bibliothèque type sklearn, keras), comme pour LINR1 avec la méthode directe des régressions linéaires, un preceptron pour recréer une opération du genre "true AND false" et voir que ça échoue avec un XOR (voir expliquer que l'on a dû faire des centaines d'itérations pour entrainer le réseau à faire un simple ET logique alors que la porte logique est "gratuite" sur un ordinateur (en terme d'énergie ou ratio temps nécessaire pour l'apprentissage)). Même idée pour refaire à la main un réseau de neurones 1 couche : faire explicitement le calcul X W + b et la retro-action voir comment les poids convergent, itérer. Je suis débutant dans ce domaine, mais il est intéressant philosophiquement de voir ce que l'ordinateur a compris. Par exemple, mon seul exemple en deep learning a consisté à faire apprendre sur un échiquier 8x1 à déplacer une pièce d'échec jusqu'à une pièce ennemie donc faire apprendre une simple while (board[i] == 0) { i++ } en langage C ce qui a pris 20 000 itérations à mon réseau pour converger. Un enfant de 5 ans aura compris la logique en quelques itérations. Un humain apprend plus vite qu'une IA même si cette dernière en analysant des millions de parties d'échec sera plus puissante qu'un humain alors qu'il suffira à un humain d'apprendre des centaines de parties pour savoir bien jouer. Supposons une IA avec un taux de réussite de 99% sur l'apprentissage des mouvements autorisés des pièces d'échecs fera de temps en temps un coup illégal (comme les humains). Juridiquement, sur les voitures autonomes, autoriserons-nous 1% d'erreur (donc des accidents) alors qu'un humain, que l'on sait faillible, aura un plus gros taux d'erreur, mais sera plus pardonné ?
@CNRS-FIDLE
@CNRS-FIDLE 3 жыл бұрын
Merci Quentin pour toutes ces remarques et réflexions... Nous pourrions effectivement ajouter une implémentation complète d'un réseau très simple, ce que nous faisons en quelque sorte la régression linéaire... Concernant notre capacité d'apprentissage, vaste débat, mais nous disposons d'un réseau confortable avec (environ) nos 100 milliards de neurones !
@quentinquadrat9389
@quentinquadrat9389 3 жыл бұрын
@@CNRS-FIDLE Oui effectivement je décale mon débat pour le jour où Tesla aura dépassé les 100M de neurones :D
1/ Stratégies d'apprentissage et d'évaluation d'un modèle
19:07
CNRS - Formation FIDLE
Рет қаралды 4,5 М.
Mathématiques pour le Deep Learning et gradients (épisode 7)
2:22:15
CNRS - Formation FIDLE
Рет қаралды 1,5 М.
How to treat Acne💉
00:31
ISSEI / いっせい
Рет қаралды 108 МЛН
Mom Hack for Cooking Solo with a Little One! 🍳👶
00:15
5-Minute Crafts HOUSE
Рет қаралды 23 МЛН
2. De la régression logistique au neurone artificiel...
17:12
CNRS - Formation FIDLE
Рет қаралды 4,2 М.
CNN2/ Classification basique via un CNN (MNIST)
25:27
CNRS - Formation FIDLE
Рет қаралды 26 М.
CNN1/ Réseaux convolutifs (CNN)
27:27
CNRS - Formation FIDLE
Рет қаралды 55 М.
AE2/ Autoencodeur débruiteur
23:33
CNRS - Formation FIDLE
Рет қаралды 6 М.
154 - Understanding the training and validation loss curves
27:47
DigitalSreeni
Рет қаралды 111 М.
RNN1/ Réseaux récurrents (RNN)
31:09
CNRS - Formation FIDLE
Рет қаралды 25 М.
Comment CHOISIR LE BON MODÈLE de Machine Learning ?
20:16
Machine Learnia
Рет қаралды 95 М.