Super présentation ! Avec l'explication du code python en plus pour l'interface de l'API, génial !
@pierrebittner10 ай бұрын
Merci beaucoup!
@jeremietoussaint408510 ай бұрын
Mixtral est vraiment très bon et Mistral medium encore meilleur
@pierrebittner10 ай бұрын
On a hate d'en savoir plus sur ce nouveau modèle.
@Marcus_6139 ай бұрын
1:17 Le modèle mistral 7B tourne sans aucun problème sur un simple raspberry
@dembasy671710 ай бұрын
Bravo pour la présentation très claire.
@pierrebittner10 ай бұрын
Merci.
@ludos214011 ай бұрын
Arrivée ici par la grâce de l algo KZbin. Bilan : un abonné de plus ;)
@pierrebittner11 ай бұрын
Merci et bienvenue
@Iskaabuyahya11 ай бұрын
Merci pour votre contenu. Abonné immédiatement
@pierrebittner11 ай бұрын
Merci à vous
@Iskaabuyahya11 ай бұрын
La valeur que vous apportez est priceless. Faites vous des consulting? En tout cas, j’ai partagé votre compte, et je pense qu’elle va grossir très vite car votre travail est très propre
@pierrebittner10 ай бұрын
Merci pour votre intérêt. N'hesitez pas à me contacter sur mon linkedin.
@Iskaabuyahya10 ай бұрын
@@pierrebittner ok super merci et à très bientôt
@AlexandreCastanet11 ай бұрын
Toujours de bon sujets bien expliqués
@pierrebittner11 ай бұрын
Merci!
@FrançoisPARMENTIER-j4e10 ай бұрын
Merci beaucoup pour la vidéo. Avez-vous prévu de parler de la partie amont de l'entraînement ou fine-tuning de modèle qui est la préparation des data. J'avoue avoir un peu de mal avec cette partie-là et je n'arrive pas à trouver des explications satisfaisantes... Nous sommes bien d'accord que sur le cas d'un appel à une API, toutes les données renvoyées sont issues de l'entraînement initial du modèle et que nous ne pouvons pas influencer avec un jeu de données personnelles ? Cela est-il réservé au fine-tuning uniquement ? Merci d'avance
@pierrebittner10 ай бұрын
Avez vous regardé la vidéo "Comprendre ChatGPT et les LLMs (kzbin.info/www/bejne/bXyWhHeOptaShc0) ? Le LLM utilise les données de son entrainement et du fine-tuning. Il est possible d'influencer la réponse en ajoutant de l'informations personnelles dans le context (paramètre d'appel) avec la méthodologie RAG (Retrieval Augmented Generation) que je présente dans cette vidéo : kzbin.info/www/bejne/aJOtmYedbqtgeNk Le fine-tuning n'est requis que dans des cas spécifique de spécialisation et requiert beaucoup de données bien structurées et de qualité (cas positif et cas négatif) afin d'améliorer les performances initial du modèle.
@FrançoisPARMENTIER-j4e10 ай бұрын
Merci beaucoup. Je vais en effet me tourner vers le RAG avec votre tutoriel. Bonne continuation@@pierrebittner
@tetuaoro11 ай бұрын
Merci de nous partager ces nouveautés et usages. Le seul soucis que beaucoup de youtubeurs font, c'est que le texte est trop petit. Superbe vidéo.
@pierrebittner11 ай бұрын
Merci pour le commentaire. Je vais trouver comment faire le texte plus grand. 👍
@BackupSte11 ай бұрын
Super JOB 👍
@pierrebittner11 ай бұрын
Merci!
@fryldupont265510 ай бұрын
Bonjour Je suis très intéressé par le sujet de l’extraction des données Pourriez-vous svp m’indiquer comment trouver votre github que vous mentionnez ? Merci beaucoup
@fryldupont265510 ай бұрын
Super contenu en tout cas
@pierrebittner10 ай бұрын
Merci, le repo est (enfin) disponible sur GitHub : github.com/BittnerPierre/mistralai-decouverte/ merci pour votre patience.
@dembasy671710 ай бұрын
Est ce que tu offres des formations sur le développement d'IA? dans l'affirmative, je serais très intéressé.
@pierrebittner10 ай бұрын
Merci pour l'intérêt. Quel type de formation ? En présentiel ? En ligne ?
@NicoR-Co10 ай бұрын
Je suis intéressé par des formations également si vous en proposez, plutôt en ligne
@Noshiru10 ай бұрын
Vidéo très intéressante! Le chatbot - streamlit que tu montres, c'est quelque chose que tu as crée toi même ou c'est de l'existant ? Car quand j'ai cherché "streamlit", je n'ai pas du tout eu de visuel semblable ^^
@pierrebittner10 ай бұрын
Merci pour le commentaire. J’utilise les api de streamlit pour le chat docs.streamlit.io/library/api-reference/chat
@Noshiru10 ай бұрын
@@pierrebittner Merci pour l'info je vais regarder ça! :) Merci pour la vidéo :)
@maloukemallouke973511 ай бұрын
Nickel
@pierrebittner10 ай бұрын
Merci.
@Noshiru10 ай бұрын
Désolé j'ai une autre petite question, je ne trouve pas la réponse.. Sais tu s'il est possible d'apprendre des choses à un Mistral installé en local via LM Studio ? Car le but pour pas mal d'entreprises (même si je teste pour l'instant en tant que particulier), ça sera de lui faire manger de la doc pour potentiellement aider derrière ? Merci d'avance pour ta réponse! :)
@pierrebittner10 ай бұрын
Bonjour, je ne suis pas sûr de bien comprendre la question. Il est tout à fait possible de fine-tuner les modèles Mistral. On trouve facilement des tutoriaux sur internet pour cela : towardsdatascience.com/fine-tune-a-mistral-7b-model-with-direct-preference-optimization-708042745aac ou kzbin.info/www/bejne/oZ7OlIGMq6qtY80
@djcaesar911410 ай бұрын
Merci pour cette vidéo. En revanche attention à ton argument "en Suède donc en UE". Non: c'est Azure donc Microsoft donc la souveraineté des données n'est pas garantie. Pour des données sensibles (i.e. toutes ses données quand on est une entreprise) je préconise de ne pas passer par l'API.
@pierrebittner10 ай бұрын
Merci de votre commentaire. Je donne juste des informations importantes pour permettre à chacun de prendre des décisions selon ses contraintes réglementaires et de sécurité. Pour les données sensibles, je préconise de ne pas les mettre en format numérique. ;)
@djcaesar911410 ай бұрын
@@pierrebittner Oui, vos vidéos sont très intéressantes, d'ailleurs, merci pour votre travail!
@fryldupont265510 ай бұрын
@pierrebittner je suis très intéressé par votre cas d’illustration sur le kbis mais je ne trouve pas votre github que vous mentionnez Pourriez-vous svp m’aiguiller pour que je puisse m’en imprégner et comprendre comment vous avez procédé ? Merci par avance
@pierrebittner10 ай бұрын
Bonsoir, j ai ajoute le lien du repo github dans la description. Desole pour l attente.
@fryldupont265510 ай бұрын
@@pierrebittnermerci beaucoup
@Den-io6ju11 ай бұрын
Je vois que tu as succombé aux vignettes youtube avec les expressions faciales 😂😂. Mais t'as raison il n'y a que ca qui marche. Ta chaîne devient de plus en plus intéressante. Bravo
@pierrebittner11 ай бұрын
Merci beaucoup! Si on ne s'amuse pas en faisant les thumbnails ;)
@adelbylka56419 ай бұрын
Mixtral il y a pas langue maternelle : Je suis un modèle de langage entraîné par l'intelligence artificielle, je n'ai pas de langue maternelle. Cependant, je suis conçu pour comprendre et générer du texte en plusieurs langues, dont le français. GPT-4 il y a déjà : Oui, je suis conçu pour comprendre et communiquer dans de nombreuses langues. Ma "langue maternelle" pourrait être considérée comme l'anglais, car c'est la langue dans laquelle j'ai été principalement formé et pour laquelle j'ai le plus de données. Cependant, je peux interagir dans d'autres langues également, y compris le français, bien que ma compétence puisse varier en fonction de la complexité de la langue et des nuances culturelles impliquées. Comment puis-je vous aider aujourd'hui ?
@pierrebittner9 ай бұрын
GPT serait plus honnête que Mistral? La majorité du contenu d apprentissage disponible est quand meme en anglais. Ce n’est pas la faute aux créateurs de LLM. Nous sommes moins prompt à partager nos données.
@adelbylka56418 ай бұрын
@@pierrebittner Il est vrai que la langue anglaise domine souvent dans le domaine de l'apprentissage automatique. Cependant, cela ne signifie pas nécessairement que les créateurs de LLM sont responsables de cette situation. Chacun a ses propres raisons de choisir une langue spécifique pour ses projets.
@ELECOEST11 ай бұрын
Hello, possible de partager tes bouts de codes stp ? Grand merci
@pierrebittner11 ай бұрын
Hello, je les mets au propre et je les mets sur mon github. Je fais ça courant de semaine prochaine.
@ELECOEST11 ай бұрын
@@pierrebittner super grand merci car beaucoup de doc en anglais et trop peu en français. Ça demande un ticket d’entrée assez conséquent pour s’y mettre et les GitHub ou notebook aide grandement. À bientôt
@pierredavy11 ай бұрын
Oh le bout de code de parsing de kbis me fait rêver. 🤩. On peux le faire avec la version de mistral qui tourne en local tu penses?
@ELECOEST11 ай бұрын
@@pierredavy je pense que pui
@pierrebittner11 ай бұрын
En local avec Mistral 7b, mon GPU a bloqué au 2e test (requête BdD). Je peux essayer l'extraction. Par contre, pour faire tourner Mixtral, il faut 100Gb de RAM GPU mini selon la doc.