En un seul mot : Parfait ! Merci mille fois, Guillaume, pour ton énergie à nous communiquer ta passion.
@MachineLearnia4 жыл бұрын
Merci c'est un plaisir de vous avoir comme public.
@johnnydelloue5174 Жыл бұрын
il nous faudrait plus de professeur comme vous , très bonne pédagogie pour enseigner les sciences (math, physique, informatique), nos enfants ne sont pas aider, heureusement qu'il existe des personnes passionnées comme vous pour faire ce type de cours en vidéo. Pour ma part, je suis ingénieur en Mécanique et maintenance (gestion de projet) et j'y trouve en grand intérêt à suivre vos vidéos.
@alessandroperta2 жыл бұрын
J'en suis à ma 28ème vidéo de ta chaîne en 2 jours. J'ai beau avoir passé le certificat IBM Data Science sur Coursera, il y a un paquet de trucs qui restaient flous. J'aimerais détruire le bouton like tellement tes explications sont claires et concises - c'est devenu un jeu d'enfant. Je m'attaque pour le moment à un algo génétique, j'espère que dans le futur tu pourras couvrir cette discipline passionnante. En attendant, 1000x MERCI pour ton boulot incroyable 🙏 Toutes les formations devraient renvoyer vers ton contenu - il est imbattable niveau pédagogie 😊 Je te souhaite tout le meilleur !
@MachineLearnia2 жыл бұрын
Salut ! Désolé pour ma réponse tardive, ton commentaire est passé entre les mailles du filet ! Ca me fait tres plaisir de lire ton message, et oui je vais m'attaquer aux alogs génétiques surement en 2023.
@deojuvante1649 Жыл бұрын
@@MachineLearnia Bonjour, attention, il y a une erreur sur la standardisation. Il fallait standardiser Y également !
@julienjacquemont60484 жыл бұрын
Salut Guillaume, Quelle joie de voir la chaîne reprendre de plus belle pour l'année 2020. Cette vidéo a du être le résultat d'un travail monstrueux d'écriture et de montage et ce travail (dans mon cas) paye: Sklearn comporte tellement de fonction, de module,.... que j’étais littéralement perdu dans son utilisation. Ces 37 minutes sur sklearn ont mis de l'ordre dans ma vision du module et du preprocessing en général (souvent peu abordé sur d'autres chaines de ML). Je t'en remercie. Je trouve particulièrement satisfaisant les moments où, quelques choses qui nous apparaît comme complexe, devient d'un coup parfaitement intelligible.En cela je dois dire que, Machine Learnia est une chaîne particulièrement satisfaisante ;)! Merci pour la qualité de ton travail :D
@MachineLearnia4 жыл бұрын
Salut Julien ! Merci beaucoup pour ton super message ! Oui j'ai mis du temps a sortir la vidéo 22/30 (ce qui explique en partie la pause de décembre) car c'est selon moi la vidéo la plus importante de la série ! J'avais donc écrit un texte / code qui couvrait un maximum de choses, tout en essayant de rester a l'essentiel (un peu paradoxal du coup.. ce qui m'a pénalisé en temps). Au final j'avais du contenu qui durait plus d'une heure de vidéos, et je ne voulais pas upload cela sur KZbin, parce que je pense que c'est moins efficace pour vous. J'ai donc mis pas mal de temps a ré-ajuster mes mots, réduire la quantité, et sélectionner le plus important. Au final, j'aurais préféré faire 3 vidéos différentes (Encodage, Normalisation, Pipelines) mais ca ne rentrait pas dans les 30 vidéos de la série. Je suis tres heureux de savoir que la vidéo et le reste de mon contenu te permette de progresser et de mieux comprendre Sklearn. C'est mon but premier sur KZbin, il faut le rappeler : apporter de la valeur aux personnes intéressées par la Data Science / Machine Learning / Deep Learning Merci cher ami et a bientôt pour les prochaines vidéos ! :)
@risiboule55734 жыл бұрын
Je passe juste pour dire que la newsletter est top ! Première fois que j'en lis une à 100% et avec plaisir ;) Je regarderai la vidéo ce soir :o
@MachineLearnia4 жыл бұрын
Merci c'est bien agréable de savoir que vous appréciez la newsletter ! Je m'applique beaucoup dans la création des résumés car j'aime ça et c'est cool d’être en contact avec des gens aussi motivés comme vous !
@jingqingcheng22664 жыл бұрын
Excellente vidéo, je suis stupéfaite par vos explications minutieuses et en même temps concises !! Après avoir parcouru dizaines de vidéos en anglais, qui m'ont rendu plus confuse qu'à l'inverse, avec cette vidéo, tout devient claire ! Merci pour ce beau travail !!
@MachineLearnia4 жыл бұрын
Merci beaucoup, c'est un grand plaisir ! :)
@madaragrothendieckottchiwa86484 жыл бұрын
Bon retour parmi nous ! Au passage bon heureuse année toi comme d'ab belle vidéo !!
@MachineLearnia4 жыл бұрын
Merci beaucoup. J’espère que la vidéo vous plait vraiment, j'y ai passé du temps parce que le sujet est fondamental, mais j’espère également que le rythme n'est du coup pas trop lent.
@samiotmani90929 ай бұрын
c'est en regardant et en écumant les autres vidéos et les autres chaines qu'on peut se rendre compte de ta facilité de vulgarisation , bien joué , et encore merci
@rofaidamerdji42134 жыл бұрын
Merci merci .. Tu m'as donné l'envie d'étuder
@MachineLearnia4 жыл бұрын
Ah ! Quel plaisir quand on me dit ca ! Je vais faire prof ! ahah
@ulrichkarlodjo14574 жыл бұрын
AH mon professeur favoris est de retour Welcome.! Alors la super vidéo très très très instructifs du contenue clair. Je sens que l'étendue de mon ignorance(erreur) se minimise au fur et à mesure que l'on évolue avec les notions(optimisation) à une vitesse d'apprentissage considérable. J'ai très apprécié la fin de la vidéo punch très énorme
@MachineLearnia4 жыл бұрын
Merci mon cher ami, je suis content de savoir que les vidéos t'aident à progresser, c'est le but ! Pas mal la référence ahah ;) Et oui j'insiste le preprocessing c'est la clef, comme d'autres data scientists, j'ai réussi à gagner beaucoup de puissance dans certains projets, en trouvant les bonnes variables à donner au modele de ML, quel degré de PCA (on en parle dans la prochaine vidéo) utiliser, etc.
@Mohamed-Maghrebi4 жыл бұрын
Merci Monsieur Guillaume, Pour la première fois je peux avoir un porsantage de 100% xD. Mon code: model = make_pipeline(PolynomialFeatures(), StandardScaler(), SGDClassifier(random_state=0)) #model params = { 'polynomialfeatures__degree': np.arange(1, 7), 'polynomialfeatures__include_bias': [True, False], 'standardscaler__copy': [True, False], 'sgdclassifier__penalty': ['L1', 'L2'] } grid = GridSearchCV(model, param_grid=params, cv=4) grid.fit(X_train, y_train) best_model = grid.best_estimator_ y_pred = best_model.predict(X_test) confusion_matrix(y_test, y_pred)
@MachineLearnia4 жыл бұрын
Bravo ! :)
@Mohamed-Maghrebi4 жыл бұрын
@@MachineLearnia merci ^^.
@mohammed_yazidcherifi98164 жыл бұрын
Excellente vidéo, merci infiniment, don con peut dire que l'étape numéro 1 dans la vie d'un Data scientist est après avoir collecter les donné appliquer les transformations adéquates aux donnée avant de les passer à la machine. Merci infiniment. Cordialement.
@MachineLearnia4 жыл бұрын
Merci. L'étape 1 est l'exploration de données et leur compréhension, cela mène au pre-processing. A partir de la vidéo 25/30 nous allons faire des projets complets et vous pourrez bien comprendre la méthodologie de travail
@mohammed_yazidcherifi98164 жыл бұрын
@@MachineLearnia Je suis déjà impatient de les voir :) ;).
@mohammed_yazidcherifi98164 жыл бұрын
Excusez moi, j'ai pas compris quelque chose dans le code où vous avez fait iris = load_iris() puis X = iris.data, est ce que load_iris est une fonction de sklearn ? et que si vous faites t = iris.target que va contenir X et y ? genre comment il saura où sont les targets et les features, ? Merci bien. Cordialement.
@MachineLearnia4 жыл бұрын
En effet load_iris est une fonction qui permet de charger un objet "Bunch", c'est-a-dire un objet qui regroupe différents éléments (un peu comme un disctionnaire) je vous invite a lire la documentation sklearn pour bien comprendre ca, ou bien je ferai une vidéo a ce sujet
@penielmmen20882 жыл бұрын
Waouh c'est super bien fait je comprends facilement. J'ai fait plusieurs formations certifiantes mais en tombant sur tes vidéos j'ai mieux compris ce que je codais. Je ne fais plus du copier coller, maintenant je sais ce que je fais. Merci beaucoup
@MachineLearnia2 жыл бұрын
Bravo je suis fier de vous !
@mamadouseydi49994 жыл бұрын
Enfin de retour, comme d'hab belle vidéo, merci a vous.
@MachineLearnia4 жыл бұрын
Merci, content de savoir que la vidéo vous a plu !
@Alierx3 жыл бұрын
Milles merci !! C'est remarquable tout ce que tu offres dans tes vidéos! Encore MERCI !
@MachineLearnia3 жыл бұрын
Milles de rien ! Merci de ton soutien :)
@fardirahani86644 жыл бұрын
sincerement, monsieur Guillaume Saint-Cirgue, je te donne un truc , tu sera meilleur prof en web , you're the best teacher.
@MachineLearnia4 жыл бұрын
Merci beaucoup :)
@aymenessouyah61454 жыл бұрын
c'est vraiment un très bon récap.Merci
@MachineLearnia4 жыл бұрын
Merci beaucoup pour le retour positif
@jawadboujida2713 жыл бұрын
Je fais pas souvent de commentaire, mais ici, je pouvais pas passer sans dire merci. Super clair et concis, vraiment au top cette vidéo !!!
@MachineLearnia3 жыл бұрын
Merci beaucoup je le prends avec une grand honneur alors :D
@bigo0252 жыл бұрын
Bonjour, vous faites des videos KZbin certainement par passion et autres... Mais vous n'avez pas idée de l'aide que vous apportez à des personnes qui retrouvent bloquées dans leurs études, projets, recherches et autres. Un simple MERCI ce n'est certainement pas assez au regard du travail fourni, mais j'espère qu'en précisant qu'il vient du fond du coeur, vous saurez lui attribuer une meilleure portée. MERCI!
@MachineLearnia2 жыл бұрын
Merci pour votre gratitude :) J'ai un compte tipeee si vous voulez me soutenir :)
@bigo0252 жыл бұрын
@@MachineLearnia j'avais pas remarqué. J'apporte au plus vite ma Modeste contribution.
@MachineLearnia2 жыл бұрын
@@bigo025 merci beaucoup !
@khalilrabia-iw6sw Жыл бұрын
C"est la meilleure video que j'ai pu voir sur youtube !!!
@saralagab4036 Жыл бұрын
merci beaucoup je reviens souvant à tes videos ce sont une mine d'or en information
@amyd.28404 жыл бұрын
Merci pour cette super vidéo, c'est vraiment utile ! J'ai aussi hâte de voir le prochain bonus sur Tipeee ! :)
@MachineLearnia4 жыл бұрын
Merci, je sors le prochain bonus demain
@amyd.28404 жыл бұрын
@@MachineLearnia Super ! :)
@LNDev4 жыл бұрын
hihihi
@alfreddemusset62962 жыл бұрын
c'est quoi ces bonus et pour moi Tippee c'est une tante d'indien non?
@aloualassane8674 жыл бұрын
Cette video est ma preferee de toute la serie...chapeau
@MachineLearnia4 жыл бұрын
Merci, ca me fait très plaisir :)
@caumauethjacques-emile31244 жыл бұрын
Le preprocessing c'est la clé de votre réussite. Merci pour la vidéo, j'en pleure de joie
@MachineLearnia4 жыл бұрын
Merci, c'est bon de savoir que je peux vous aider ! :)
@aloualassane8674 жыл бұрын
ah le petit punch qu'il me fallait just pour booster mon debut de semaine ;)
@MachineLearnia4 жыл бұрын
Je suis heureux de pouvoir vous motiver ! :D
@90fazoti4 жыл бұрын
Excellente vidéo on apprend toujours de nouvelles choses avec Machine learnia merci encore
@MachineLearnia4 жыл бұрын
Merci de toujours être fidèle aux vidéos ! :)
@TheRemiRODRIGUES4 жыл бұрын
Super ! Il faudra que je la regarde plusieurs fois, car la vidéo est dense ! Je suis sur que tes vidéos sont diffusées en université, et écoles d'ingénieurs, car elles sont de très bonnes qualité et très riche en information ! Merci !
@MachineLearnia4 жыл бұрын
Merci a toi ;) Oui, cela arrive, et c'est un grand honneur ! Heureux de partager mon travail avec les gens
@-x-dx72954 жыл бұрын
Merci pour ce tuto pratico-pratique. Y a plus qu'à.
@MachineLearnia4 жыл бұрын
Yes, je vais bientôt vous confier des projets sur la chaîne et on les corrigera ensemble !
@aymenlazem20624 жыл бұрын
Merci beaucoup cher Guillaume!! super beau comme vidéo un Grand bravo pour ton travail !!
@MachineLearnia4 жыл бұрын
Merci beaucoup Aymen ! :)
@jimdelsol19414 жыл бұрын
C'est excellent ce que tu fais. Merci ! Continue ! :)
@MachineLearnia4 жыл бұрын
Merci beaucoup, je le fais car c'est ma passion et vous êtes un public génial !
@apollinairedabire28524 жыл бұрын
Merci pour pour la vidéo, elle vient répondre à une question essentielle de mon domaine d'activité.
@MachineLearnia4 жыл бұрын
C'est un plaisir ! A bientôt et bon courage dans vos projets ! :)
@master-tech18154 жыл бұрын
Je vous admire bro vous me permettez de bien comprendre ces notions Merci bcp et bonne continuation et j'ai hâte de suivre votre vidéo sur les réseaux neuronaux et sur l'algorithme de bacprop
@MachineLearnia4 жыл бұрын
Merci beaucoup :) Oui j'ai hâte de faire ces vidéos aussi, j'adore ce sujet et je ferai de mon mieux pour que tout le monde comprenne
@hatemchafik43574 жыл бұрын
j'attends impatiemment tes videos , Merci bcp !
@MachineLearnia4 жыл бұрын
Merci, je fais de mon mieux pour vous :)
@roddymbamba5454 жыл бұрын
C'est super
@MachineLearnia4 жыл бұрын
Merci !
@lamismessaadi38932 жыл бұрын
mercii enormement pour cette video, vous m'a beaucoup aidé sur mon projet de fin d'etude.
@rvstats_ES4 жыл бұрын
Merci! c'était très clair. Super video. Grâce à vous mes modèles de données seront plus efficaces
@MachineLearnia4 жыл бұрын
De rien ! :)
@aminataba842610 ай бұрын
je ne saurait comment vous remercier vraiment chapeaux vos vidéo mon vraiment aidé en tant que débutante. Cependant j'aurais besoin de votre aide pour se connecter a des bases de données MySQL ET PostgreSQL avec python
@Kimiabot4 жыл бұрын
merci beaucoup!!! grace à vous je dis bien grâce à vous que je fais du machine Learning et python pour data science. Avant je ne savais rien faire avec python mais là je me sens balaise hahah
@MachineLearnia4 жыл бұрын
Je suis tres heureux de lire ca ! :)
@Kimiabot4 жыл бұрын
@@MachineLearnia moi je suis très heureux d'être abonné à vous! Alors on se retrouve sur discord!!!
@laurentdorel83543 жыл бұрын
Bonjour Guillaume, j'ai repris la pipeline en testant d'autres transformers (MinMaxScaler et RobustScaler) et j'obtiens de moins bon résultats qu'avec StandardScaler ! Avec StandardScaler Le meilleur score est de 0.975 La meilleure combinaison est {'polynomialfeatures__degree': 4, 'sgdclassifier__penalty': 'l1'} Le test_score est de 0.933 Avec MinMaxScaler : Le meilleur score est de 0.967 La meilleure combinaison est {'polynomialfeatures__degree': 3, 'sgdclassifier__penalty': 'l1'} Le test_score est de 0.867 Avec RobustScaler : Le meilleur score est de 0.975 La meilleure combinaison est {'polynomialfeatures__degree': 4, 'sgdclassifier__penalty': 'l1'} Le test_score est de 0.9
@MachineLearnia3 жыл бұрын
Oui c'est tout a fait possible, tout va bien :)
@mamadoudembele42543 жыл бұрын
Tu expliques vraiment bien. Merci beaucoup
@MachineLearnia3 жыл бұрын
Merci beaucoup :)
@abderazzakmouiha21382 жыл бұрын
Un grand merci Guillaume
@MachineLearnia2 жыл бұрын
De rien !
@gnimdoukao71914 жыл бұрын
Merci Guillaume
@MachineLearnia4 жыл бұрын
De rien :)
@alfreddemusset62962 жыл бұрын
Les deux dernières vidéos au niveau contenu c'est du lourd. Toujours avec cette aisance et cette réthorique didactique de présentation. Je m'accroche je m'accroche à chaque fois je dois faire des fiches pour synthétiser le contenu. Une petite question SVP lorsque vous écrivez model = make_pipeline(PolynomialFeatures(), StandardScaler(), SGDClassifier(random_state=0)) model J'obtient ceci et pas ce qui se produit sur votre écran qui me serait nécessaire pour réaliser le dictionnaire de paramètre :( Pipeline(steps=[('polynomialfeatures', PolynomialFeatures()), ('standardscaler', StandardScaler()), ('sgdclassifier', SGDClassifier(random_state=0))])
@MachineLearnia2 жыл бұрын
Bonjour et merci pour votre compliment :) Je ne comprends pas votre question, ce que vous obtenez est correct ! (parfois d'une version de librairie a l'autre font juste que les choses sont présentées différemment)
@ollie68452 жыл бұрын
c'est vraiment tres puissant!
@MachineLearnia2 жыл бұрын
content que ca vous plaise !
@wafamaatoug91754 жыл бұрын
je suis très intéressante de votre vidéos car ils me aide beaucoup a avancée dans ce domaine
@MachineLearnia4 жыл бұрын
Merci beaucoup je suis heureux d'apprendre ca ! merci pour votre fidélité !
@sylvainballerini2394 жыл бұрын
Ah merci le petit exemple sur la fin avec et sans normalisation donne une bonne idée de l'importance ! ... (et la réponse à la question que j'allais posé ^^')
@MachineLearnia4 жыл бұрын
Je suis content d'avoir pu anticiper ta question :D
@tensianne4 жыл бұрын
Merci pour toutes ces vidéos!
@MachineLearnia4 жыл бұрын
De rien :)
@sanji2254 Жыл бұрын
Salut Guillaume, Tout d'abord un grand merci pour ces cours que tu nous mets à disposition gratuitement, ils n'ont absolument rien à envier a ceux présents dans des formations parfois hors de prix ! Donc c'est littéralement un cadeau d'une très grande valeur que tu fais à toute ta communauté De plus on sent que tu est passioné et c'est communicatif ! En ce qui concerne la vidéo j'ai une remarque à faire, je reproduit toujours le code que tu produis pas-à-pas pour mieux comprendre et mémoriser les approches/méthodes et tips que tu présentes. Hors ici en entrainant le pipeline avec GridSearch j'ai obtenu un score de ... 1.0 ça me paraît beaucoup non ? Est-ce normal ou cela montre que j'ai glissé une erreur dans le code ? D'ailleurs quand je teste sans aucun preprocessing, j'obtiens un score de 0.64 qui la encore n'est pas le même résultat que dans la vidéo. A vrai dire c'est plus le score de 1 qui m'inquiète ;) Merci beaucoup de m'avoir lu, et encore merci pour tout ce que tu fais c'est vraiment impressionnant
@pulsorion4 жыл бұрын
La qualité ✔ 👏🔥
@MachineLearnia4 жыл бұрын
C'est le plus important la qualité ! Merci a toi ;)
@madjidAITMOHAND9 ай бұрын
nous sommes en décembre 2023 est ce que vous êtes toujours la?
@endingalaporte4 жыл бұрын
Merci pour ce contenu de qualité !
@MachineLearnia4 жыл бұрын
De rien !
@abidisoumaya44934 жыл бұрын
Merci énormément pour cette vidéo très enrichissante!
@MachineLearnia4 жыл бұрын
De rien, c'est un plaisir :)
@Kodjo_kam4 жыл бұрын
Simplement super
@MachineLearnia4 жыл бұрын
Merci
@naoureskraiem69813 жыл бұрын
bravo et merci infiniment , prière de faire une formation en deep learning et des vidéo pour la reconnaissance des émotions facials
@MachineLearnia3 жыл бұрын
C'est prévu ! J'ai commencé a le faire !
@naoureskraiem69813 жыл бұрын
Merci et bonne continuation
@yousseffellous81534 жыл бұрын
Merci Merci pour ce cadeaux ;)
@MachineLearnia4 жыл бұрын
Merci c'est un plaisir de faire des vidéos :)
@louaykhammar72682 жыл бұрын
Merci pour cette excellente formation
@fardirahani86644 жыл бұрын
SGDClassifier est importé à partir du module linear_module(from sklearn.linear_model import SGDClassifier), merci
@alexandreverdonck9414 жыл бұрын
Super vidéo ! :D Merci pour ton travail
@MachineLearnia4 жыл бұрын
Merci beaucoup, ca fait super plaisir !
@raphaelollier8048 Жыл бұрын
Bonjour, existe t-il une méthode qui permettrait de lister l'ensemble des valeurs possibles à un hyper paramètres donné ? Merci d'avance et super série de vidéos!
@axelmathieu76274 жыл бұрын
Encore une super vidéo, bravo pour la pédagogie. Des vidéos prévues sur PyTorch, TensorFlow ou Keras ?
@MachineLearnia4 жыл бұрын
Merci beaucoup ! Je prévois de faire des tutoriels sur les 3 ! (des séries même !) On en parle un peu plus tard dans l'année, car pour le moment il faut finir cette série la !
@bairammohamedkheireddine26953 жыл бұрын
Vraiment Merci Pour la Vidéo
@MachineLearnia3 жыл бұрын
De rien ! tout le plaisir est pour moi
@aubam34984 жыл бұрын
Bonjour à toi, Merci pour tes supers vidéos, je me sens beaucoup plus à l'aise dans ce domaine depuis que j'ai commencé à les suivre. J'ai une question qui n'a pas grand chose à voir avec les vidéos mais qui me semble importante. Quelle est selon toi la différence entre un Data Engineer et un Data Analyst ? Et quelles sont les vidéos qui devraient beaucoup servir pour chacun de ces deux métiers ? Merci d'avance et vivement la prochaine vidéo 😊
@MachineLearnia4 жыл бұрын
Bonjour et merci je suis content de savoir que mes vidéos t'ont permis de progresser ! :) Pour répondre a ta question, les vidéos de cette séries sont surtout utiles pour un Data Scientist / Data Analyst. Un Data Engineer devra plus apprendre a maitriser des outils comme Spark, Hadoop, et SQL. Son role est de s'occuper du ETL (Extract, Transform, Load) des données. Je ferai également des vidéos a ce sujet a l'avenir. Merci pour ton soutien et j’espère lire d'autres commentaires de ta part un de ces 4 ;) A+
@ndesilulrich35232 жыл бұрын
Bonjour M. Saint-Cirgue, je vous remercie pour vos vidéos qui représentent une mine d'or pour l'apprentissage efficace du machine learning et une prise en main rapide de Python. J'ai une question : est-ce que la valeur moyenne d'une variable normalisée (MinMax, RobustScaler) est plus robuste (représentative des observations qu'elle résume) que la valeur moyenne de cette variable non normalisée?
@aureliendeside47784 жыл бұрын
Super intéressant comme d’habitude !! Petite question : Est-ce que cette série va parler des réseaux de neurones et de TensorFlow ? **je suis débutant donc je ne sais pas si Sklearn inclut déjà des réseaux de neurones**. Merci !
@MachineLearnia4 жыл бұрын
Merci. Sklearn permet de développer des réseaux de neurones (dans le module sklearn.neural_network) mais je ne conseille pas de l'utiliser. Pour développer des réseaux de neurones, on va en effet utiliser Keras, TF, ou Pytorch. Je ne le ferai pas dans cette série mais dans une série spécialement dédiée a cela.
@ediangonebadji79644 жыл бұрын
@@MachineLearnia Voilà une très bonne nouvelle; je peux allez au lit rassurer avec un rêve...
@denisg_photographies2 жыл бұрын
Excellent!
@YOUCEFBENMOHAMMED-y7p Жыл бұрын
Bonjour, merci pour ces explications, J'ai une question, par rapport au dataset iris étant les variables ont été mesuré avec même unité donc même echelle, donc initialement c'est un exemple d'un dataset ou la normalization n'est pas nécecssaire, Or comme nous pouvons la normalization a améliorée considérablement l'accuracy, + est-ce la normalization augumente toujours l'exactitude du modèle ? + à part la différence des echelles entre les features, et la distirbution des individus qu'est ce qui permet de dire les données ont besoin d'être normalisés, Merci
@jmbdeblois4 жыл бұрын
super travail une nouvelle fois. Pas trouvé mieux que 0.9736842105263158 pourtant avec d'autres transformer et une GridSearch plus étendue.
@MachineLearnia4 жыл бұрын
Merci pour ton analyse. Si tu veux, tu peux partager ton code avec la communauté ici-même et sur discord, tu aideras ainsi les gens qui cherchent eux-même a faire l'exercice. Ainsi tout le monde s'entre-aide et c'est magnifique :D Tu as utilisé quel Estimateur ?
@jmbdeblois4 жыл бұрын
@@MachineLearnia j'ai utilisé standardscaler, robustscaler et minmaxscaler comme transformeurs. et un SGDClassifier comme estimateur, avec le code ci-dessous. J'ai également essayé avec un RidgeClassifierCV comme estimateur mais pas mieux !
@jmbdeblois4 жыл бұрын
import numpy as np import matplotlib.pyplot as plt from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler, PolynomialFeatures,MinMaxScaler, RobustScaler from sklearn.linear_model import SGDClassifier, RidgeClassifierCV from sklearn.pipeline import make_pipeline from sklearn.model_selection import GridSearchCV from sklearn.datasets import load_iris iris=load_iris() X=iris.data y=iris.target Xtrain,Xtest,ytrain,ytest=train_test_split(X,y) model=make_pipeline(PolynomialFeatures(),StandardScaler(),SGDClassifier(random_state=0)) params={ 'polynomialfeatures__degree':[2,3,4], 'sgdclassifier__alpha':[0.0001,0.001,0.01,0.1,1,10], 'sgdclassifier__penalty':['l1','l2','elasticnet'], 'sgdclassifier__loss':['hinge', 'log', 'modified_huber', 'squared_hinge'], 'sgdclassifier__max_iter':[100,1000] } grille=GridSearchCV(model,param_grid=params,cv=4) grille.fit(Xtrain,ytrain) grille.best_params_ grille.score(Xtest,ytest) avec StandardScaler résultat grille.score est 0.9736842105263158 model3=make_pipeline(PolynomialFeatures(),RobustScaler(),SGDClassifier(random_state=0)) avec RobustScaler grille.score donne : 0.8947368421052632 model2=make_pipeline(PolynomialFeatures(),MinMaxScaler(),SGDClassifier(random_state=0)) avec MinMaxScaler grille.score donne : 0.9210526315789473
@MachineLearnia4 жыл бұрын
@@jmbdeblois Merci de la part de la commu :)
@jmbdeblois4 жыл бұрын
@@MachineLearnia merci à toi surtout
@yohanbensoussan13152 жыл бұрын
Merci pour ces videos! Petite question technique, j'ai tenté un pipeline (OrdinalEncoder et KNeighbors) sur le dataset titanic et je tombe sur l'erreur - Found unknown categories ['1'] in column 0 during transform. La catégorie existe bien. titanic = titanic[['survived', 'pclass', 'sex', 'age']] titanic.dropna(axis=0, inplace=True) y = titanic['survived'] X = titanic.drop('survived', axis=1) model = make_pipeline(OrdinalEncoder(),KNeighborsClassifier(n_neighbors=3)) model.fit(X, y) model.score(X, y) model.predict(np.array([1, 'male', 26]).reshape(1, 3)) une idee?
@MachineLearnia2 жыл бұрын
Bonjour, il y a surement une fautes de frappe, avez vous bien mis handle_unkown ?
@Hicham-pz2em2 жыл бұрын
Bonjour et merci pour cette super vedeo ! j'ai un question à la mintute 18:15 pourquoi la transform de x_test elle a donné 0.4 et ne pas 0
@madanisaid12472 жыл бұрын
excellent...
@landrynoulawe15654 жыл бұрын
Merci pour cette vidéo aussi riche que d'habitude J'aurais deux questions cette fois ci. -1) Concernant l'encodage des variables catégorielles, notamment l'encodage OneHot, tu nous as bien fait comprendre que sklearn avait développé des techniques de stockage des matrices creuses qui permet de gérer le problème d'espace, mais j'aimerais savoir, d'un point de vu logique notre dataset à quand même autant de dimensions en plus qu'il y avait de catégories dans la variable de départ. Ne risquons nous pas de souffrir de la malédiction de la dimension si nous avons beaucoup de catégories dans nos variables et éventuellement beaucoup de variables catégorielles ? -2) Ma deuxième question est de savoir si les opérations de preprocesssing, notamment de normalisation peuvent s'appliquer aussi sur des variables catégorielles encodées? Est-ce que ça aurait du sens ?
@MachineLearnia4 жыл бұрын
il n'y a pas la suite de la question ^^
@landrynoulawe15654 жыл бұрын
@@MachineLearnia La question n'a pas de suite
@landrynoulawe15654 жыл бұрын
@@MachineLearnia Désolé d'insister, mais j'ai l'impression que tu m'as oublié Guillaume
@elijoelessononzoghe35858 ай бұрын
J'aurais une question: pourquoi tu n'as pris que les penalty de SGDClassifier?
@therenceladys6314 жыл бұрын
je suis impatient quand tu vas commencer la série sur le deep leraning
@MachineLearnia4 жыл бұрын
En septembre :)
@benjaminmassoteau70427 ай бұрын
J'ai une question sur la standardisation. On m'a vendu ça comme un moyen d'avoir toutes les données se rapprochant les unes des autres et ainsi devoir utiliser moins d'epoch dans mon algo de deep learning, étant donné que les poids n'auraient pas à compenser les distances entre chaque valeur des variables. Seulement, je ne suis pas certains de comprendre pourquoi standardiser en fonction de X_train uniquement et utiliser cette moyenne et cet écart type sur le X_test plutôt que de standardiser l'ensemble des données,puis diviser en train et test, ou tout standardiser,diviser et restandardiser, ou encore standardiser X_train et X_test mais en fonction de leur moyenne et écart type respectifs (jusque là, seul la seconde méthode m'a donné de plus mauvaise résultat). Y a t il une raison théorique ?
@GassCode174 жыл бұрын
Bonjour Guillaume, encore une fois merci beaucoup pour tes videos,je suis un certificat professionnel en python machine learning et data science avec ibm sur edx que j'ai presque fini mais c'est surtout grace à tes videos que j'arrive à cerner les choses.Pour aller encore plus loin j'aimerai avoir des exercices à traiter!ou si tas des conseils en particulier à donner aussi.Merci
@MachineLearnia4 жыл бұрын
Merci, ça me fait toujours très plaisir quand on me dit que mes vidéos gratuites sont aussi bien que certains cours payants ! :) Pour t’entraîner avec des exercices, tu peux te rendre sur le site Kaggle.com, ou sinon attendre un peu car je vais faire des séries de projet et d'exercices dans pas longtemps sur la chaine !
@GassCode174 жыл бұрын
@@MachineLearnia sans aucun problème, je vais my rendre attendant que tes exercices soient dispo,encore une fois châpeau,.merci
@LaurentD903 жыл бұрын
J'avais regardé les pipeline dans un bouquin, c'était pas super clair. Dans cette vidé, c'est limpide ! Merci 1000x
@MachineLearnia3 жыл бұрын
Je suis content d'avoir pu vous aider dans cette vidéo !
@oumarndiaye324 жыл бұрын
merci pour les postes intéressants, je vous suis .....
@MachineLearnia4 жыл бұрын
Merci a bientôt !
@ediangonebadji79644 жыл бұрын
Encore Merci!!!!!!!
@MachineLearnia4 жыл бұрын
de rien :)
@neliamehani6026 Жыл бұрын
Pour la partie de la normalisation transforme scaler, imaginez qu'on veuille rajouter une nouvelle variable comme vous l'avez fait avec 80, mais qui soit supérieure au max (en l'occurrence dans cet exemple supérieure à 120) ça ne va pas fausser l'information sur les variables ?
@Jihaoui Жыл бұрын
merci prof
@hb6507223 жыл бұрын
Bonjour Guillaume, je viens de m'abonner à votre chaine que je trouve super! j'ai déjà une question: dans la video 22, vous présentez fit comme une méthode de transformation, parle-t-on du même fit qu'on a vu dans les Modèles LinearRegression, SVM...? ou s'agit -il d'un autre fit?
@MachineLearnia3 жыл бұрын
Oui c'est exactement le meme fit ! Il a pour but d'estimer les parametres de transformation (mais pas de prédiction) d'un modele de transformation (mais pas de prédiction). Mais c'est le meme principe ! :) Désolé pour la réponse tardive, votre commentaire était tombé dans la boite "review" de l'algorithme KZbin, je ne sais pas pourquoi.
@severinedubuisson2 жыл бұрын
A la fin de la vidéo, la différence entre 97% et 84% n’est pas juste due au pre-processing, mais également à la sélection des meilleurs paramètres du modèles, je me trompe ? Bravo pour cette vidéo, plus dense que les autres, mais très pédagogique, comme d’habitude !
@MachineLearnia2 жыл бұрын
Tu as raison, mais c'est beaucoup la normalisation qui entre en compte tout de meme !
@summary_bestseller70372 жыл бұрын
Bonjour à l'execution du code final j'ai une erreur stipulant que polynomialfeatures___degree,et 'sgdclassifier__penalty ' ne sont pas des parametres de sgdclassifier
@gregoiredelahaye9203 жыл бұрын
Salut, superbe vidéo, toujours un plaisir de t'écouter Guillaume. J'ai une petite question sur le transformer et le pipeline. Tu as montré qu'on réalisait le fit_transform sur les données d'entrainement, et qu'on pouvait ensuite transformer les données de test. Si des données de validation interviennent, est-ce qu'il faut les séparer des données d'entrainement avant d'utiliser le fit_transform?
@MachineLearnia3 жыл бұрын
Bonjour, désolé pour ma réponse tardive (j'ai deménagé). Si c'est une cross_validation, tu n'as rien a faire, tout est pris en charge par Sklearn. Si ce sont des données de Validation, alors oui il faut les séparer en 3 set : Train, Val, Test, et faire le fit_transform uniquement sur le Train. Ensuite le Transform() sur le Val, puis Le test aussi aura un Transform.
@sylvainhansen74633 жыл бұрын
Bonjour Guillaume, merci pour toutes ces videos très pédagogiques et très intructives. Je suis un débutant en data analytics avec Python. Je traite principalement des données de spectroscopie. Je me demandais si il existait un moyen de tester différents pre-processing (par exemple différentes normalisation, différentes dérivées, ...) en plus des hyperparamètres? Et d'automatiser tout ça? Merci
@MachineLearnia3 жыл бұрын
Bonjour, oui c'est possible et c'est une chose que l'on fait souvent. Je crois que je montre comment dans les vidéos suivantes (de souvenir) Mais attention cela demande beaucoup de ressources et beaucoup de temps de calcul. On ne peut pas aveuglément tester des millions de configurations possibles, et il faut faire des choix.
@nabilatallah1471 Жыл бұрын
Est-ce que R fonctionne de la même manière que python? avec la notion de transformer et estimator? c a d est ce qu il va transformer le test de la meme manière que le train?
@Matharendre2 жыл бұрын
Bonjour. Le problème d'encoding pour les modalités encore jamais "vues" par l'algo semble avoir été résolu entretemps avec le paramètre handle_unknown, réglé sur "ignore". (Si j'ai bien compris et interprété le souci. Bravo pour vos vidéos!
@MachineLearnia2 жыл бұрын
Oui, mais c'est pour l'encodage OneHot, pas pour l'encodage ordonal. Il me semble l'avoir dit dans la vidéo a l'époque, mais je me trompe peut-etre
@Michael-vi5ch4 жыл бұрын
Merci beaucoup pour vos excellentes vidéos! Lors du preprocessing, est-il possible d'inclure un traitement des outliers, notamment avec une méthode provenant de sklearn?
@MachineLearnia4 жыл бұрын
Bonjour ! Oui c'est posible avec l'algorithme Isolation Forest que je recommande vivement, et qui est présent dans sklearn. Pour apprendre a l'utiliser, je vous conseille la vidéo 24/30 sur l'apprentissage non-supervisé
@Michael-vi5ch4 жыл бұрын
Parfait. Merci pour la réponse et bravo pour le suivi.
@martinemond12073 жыл бұрын
Très bien expliqué! A la minute 33:38 je n'arrive pas à obtenir les details du modèle, comme toi , afin d'élaborer le dictionaire de params pour le GridSearchCV. En voyant les details du modèle je trouve que ça aide à bien couvrir les params que je veux explorer avec le GridSearchCV. Merci!
@MachineLearnia3 жыл бұрын
Hm c'est peut-etre une nouvelle mise a jour de sklearn qui ne montre plus les hyper-parametres. Pas grave tu peux toujours te rendre sur la documentation de sklearn : voici par exemple la page qui décrit les parametres d'un SVC : scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
@naimaboubaker92562 жыл бұрын
Excellente chaîne merci énormément Est ce qu'il y a des algorithmes ML pour la conformité des données et le format incohérente (inconsistant) Cordialement
@programmesandgames58074 жыл бұрын
Salut Guillaume, Merci tout d'abord pour ce super travail, pour l'effort et l'explication. j'ai deux questions : 1- est-que vous pouvez faire un video pour expliquer le principe de SGDclassifier comme vous avez fait pour le gradient de descent ?? 2 - Est que vous pouvez faire une autre série des videos pour le Deeplearning ou bien NLP ?? et Merci encore une fois !!!
@MachineLearnia4 жыл бұрын
Salut. Alors pour aller droit au but : J'ai prévu de faire tout ca ! :D (et je suis en train de faire la série de vidéos sur le deep learning aujourd'hui meme)
@laurambia88314 жыл бұрын
Bonjour @MachineLearnia , merci pour cette belle vidéo. J'ai une question à cet effet, si mon dataset contient des variables qualitatives et quantitatives et que j'y applique le transformer onehitencoder, la transformation va t-elle affecter les variables qualitatives? Si oui, comment contourner le problème lorsqu'on veut juste transformer les variables qualitatives.
@MachineLearnia4 жыл бұрын
Merci beaucoup. Tres bonne question ! J'y réponds justement dans la prochaine vidéo qui sort dans quelques jours ! Il faut soit traiter chaque colonne indépendamment avec pandas et sklearn, soit construire une pipeline avec la Classe ColumnTransformer (le sujet de la prochaine vidéo)
@Lulu-sj4sp3 жыл бұрын
Bonjour, tout d'abord un grand merci pour vos vidéos ! J'aurai une petite question. Sur mon notebook les détails du 'pipeline' ne s'affichent pas. J'ai seulement Pipeline(steps=[('polynomialfeatures', PolynomialFeatures()), ('standardscaler', StandardScaler()), ('sgdclassifier', SGDClassifier(random_state=0))]) Pourtant j'ai bien pris votre code sut Github et cela semble quand même très pratique d'avoir les détails pour faire son dictionnaire... Merci d'avance, et surtout encore merci pour ces vidéos !
@MachineLearnia3 жыл бұрын
Bonjour, avez vous essayé print(grid) ? C'est peut-etre parce que vous n'utiliser pas Jupyter Notebook, mais un autre IDE, auquel cas un print() fera l'affaire !
@nicolasoubda69174 жыл бұрын
Bonjour Guillaume, merci pour les merveilleuses explications, très claires, nettes. J'ai une question, elle est la suivante: Pour la phase d'encodage nous pouvons utiliser la méthode de transformation des données catégorielles en numérique à travers df['column'].astype('category').cat.codes? Si oui quel est l'avantage par rapport à la méthode données dans sklearn.preprocessing? Quelle méthode préconiserez-vous? Merci.
@MachineLearnia4 жыл бұрын
Bonjour et merci beaucoup :) Les 2 méthodes se valent. Celles de sklearn ont l'avantage de pouvoir être intégrées aux pipelines, je les conseille pour faire du machine learning. Quand on fait juste une analyse de données (sans développer de modeles) alors pandas suffit.
@dalila04853 жыл бұрын
Salut, je voulais vous remercier pour la clarté et la qualité de votre vidéo comme d'habitude. je voulais par contre vous poser une question au sujet de l'utilisation du pipeline au niveau de gridsearch, lorsque j'exécute votre code; la réponse est la suivante: Pipeline(steps=[('polynomialfeatures', PolynomialFeatures()), ('standardscaler', StandardScaler()), ('sgdclassifier', SGDClassifier(random_state=0))]) sans donner les paramètres de ce model. Est ce que il y a une étape que j'ai raté?. Meri encore une fois.
@MachineLearnia3 жыл бұрын
Il n'y a aucun probleme dans votre code, c'est juste que python vous indique ce qui a été passé dans gridsearch.
@nidhalderbali46364 жыл бұрын
Bonjour, merci pour cette vidéo. Juste une question stupide. Pourquoi vous avez pas fait la normalisation des données y_train avant de développer le modèle?
@MachineLearnia4 жыл бұрын
Il n'y a pas de question stupide :) Il n'est pas utile de "normaliser" y la plupart du temps
@nidhalderbali46364 жыл бұрын
@@MachineLearnia merci beaucoup.
@jcambert903 жыл бұрын
Bonjour, Super vidéos Cependant j'aurais une petite question comment utiliser "proprement" un predict avec OneHotEncoder ? J'ai crée 2 pipelines. Un pour des valeurs numeriques et un autres pour des valeurs textuelles. tout se passe bien (Fit et score) mais lors du predict j'ai bien sur ces valeurs textuelles a encoder Merci
@MachineLearnia3 жыл бұрын
Bonjour, je ne suis pas sur de comprendre votre situation. Beaucoup de gens me posent parfois la question du OneHotEncoder en Production, lorsqu'il y a une valeur nouvelle a encoder. Si c'est le cas de votre question, alors il faut activer le handle_error = unkown dans le OneHotEncoder.
@KeyvanTajbakhsh2 жыл бұрын
Merci pour cette vidéo ! c'est très clair et bien expliquée! Juste une question; Quand tu dis qu'on ne perd pas d'information en appliquant la normalisation. Est ce que la variance n'est pas perdu en appliquant la méthode MinMax scaler? Peace
@MachineLearnia2 жыл бұрын
Non elle n'est pas perdue, et on peut toujours faire marche arriere (revenir aux parametres de base)
@jordanmolet38564 жыл бұрын
Merci pour cette vidéo riche en contenu! Apparemment ici le test_size est laissé à 0.25 (par défaut), ce qui donne 97% avec pre-processing et 84% sans pre-processing. En passant par une boucle, on se rend facilement compte qu'en faisant varier test_size entre 0.25 et 0.50 (avec random_state=0), on obtient des précisions qui oscillent entre 92 et 98% avec pre-processing, et de 45 à 98% sans pre-processing. Du coup, le pre-processing nous garanti une stabilité de la mesure de précision quelque soit la taille du Test set et donc réduit le coût total de données nécessaires ?
@MachineLearnia4 жыл бұрын
Non, le preprocessing ne permet pas cela. D'une maniere général, on met dans le test set juste le nombre de donnée nécessaire pour se dire : "ok, mon modele a une performance de 97% sur le test set et je suis quasi sur que la performance va etre la meme a l'avenir car j'ai suffisamment de donnée dans le test set pour faire une généralisation". C'est un peu comme les tests statistiques : on essaie de savoir si les résultats qu'on observe peuvent etre raisonnablement étendus a la réalité
@tezkrattroza50083 жыл бұрын
Bonsoir .. merci pour cette vidéo . J'ai quelques questions : Pourquoi on normalise pas nos donnés Y . Pour être honnête . J'ai pas bien pigé. On normalise que une partie de notre data . 2 ème question : la différence entre .fit();;. .fit_transform(). ;;; Et .tranform(). 3 eme question . La partie polynomial .. cette étape est t - elle recommandé pour tous types de modèle . Pour être clair ,si je connais à l'avance que la prédication de mon data ne suit pas une régression linéaire .. que dois faire dans ce cas-là Svp des réponses les plus simple possible ( vraiment débutante en programmation ). Merci bcp encore une fois
@MachineLearnia3 жыл бұрын
Bonsoir, 1) -> on ne normalise pas y parce que ca n'intervient pas dans les calculs (c'est X qui intervient dans les calculs) 2) -> fit() développe les parametres de la classe, transform() utilise la classe pour transformer des données et fit_transform permet de faire les 2 précedent en une seule ligne de code. 3) Non il ne faut pas l'utiliser partout, mais dans votre cas vous pouvez l'utiliser oui.