Cours #3 - IA et chatbots : principes, risques et bonnes pratiques

  Рет қаралды 169

Savoirs en Société

Savoirs en Société

Күн бұрын

Dans cette vidéo, troisième épisode d'un cours en 8 parties pour les étudiant·es des différents masters de la HES-SO (Suisse), Richard-Emmanuel Eastes présente le fonctionnement des chatbots, leurs principes et bonnes pratiques d'utilisation, sur la base de nombreux exemples d'outils et d'usages.
Testez vos connaissances sur la vidéo avec Wooflash : app.wooflash.c...
Résumé du cours par ChatGPT :
o Fonctionnement des Chatbots : Richard-Emmanuel a expliqué le fonctionnement des chatbots, en particulier celui de ChatGPT, en détaillant le processus de génération de texte basé sur des modèles de langage et des réseaux de neurones.
o Modèles de langage : Les chatbots comme ChatGPT utilisent des grands modèles de langage basés sur des réseaux de neurones artificiels avec un nombre de paramètres très élevé, comparable au nombre de synapses dans le cerveau humain pour GPT-4.
o Processus de génération : Le processus de génération de texte commence par la saisie d'un prompt, qui est découpé en tokens. Ces tokens sont transformés en vecteurs numériques, envoyés dans le réseau de neurones pour prédire le mot suivant, et ainsi de suite, jusqu'à ce que le texte soit complété.
o Prédiction des mots : Le chatbot choisit des mots basés sur leur probabilité de suivre le contexte donné, ce qui permet de générer un texte cohérent. Cependant, le mot choisi n'est pas toujours le plus probable, mais doit être raisonnablement probable pour que le texte ait du sens.
o Réponses plausibles : Les chatbots produisent des réponses qui semblent plausibles mais ne sont pas toujours vraies. Richard-Emmanuel a donné des exemples où ChatGPT a fourni des réponses incorrectes mais plausibles, comme des rimes incorrectes ou des références d'articles inexistants.
o Exemples de biais : Il a montré comment ChatGPT peut être influencé par le contexte et les prompts donnés, ce qui peut conduire à des réponses biaisées ou erronées. Par exemple, en demandant des arguments pour des positions controversées, le chatbot peut fournir des réponses biaisées tout en prenant des précautions pour indiquer que ces arguments ne sont pas scientifiquement soutenus.
o Adaptation aux prompts : Richard-Emmanuel a expliqué que les chatbots s'adaptent aux prompts et peuvent dire ce que l'utilisateur veut entendre, ce qui peut être problématique pour des sujets sensibles ou controversés.
o Coloration politique des modèles de langage : Richard-Emmanuel a présenté une étude sur la coloration politique des modèles de langage, montrant que certains chatbots ont des tendances politiques, influencées par leurs créateurs et les données d'entraînement.
o Utilisation Sécurisée des Chatbots : Richard-Emmanuel a proposé trois méthodes pour utiliser les chatbots de manière sécurisée : limiter l'utilisation à son propre seuil d'expertise, utiliser le prompt engineering, et nourrir les chatbots avec des bases de connaissances spécifiques.
o Limitation à l'expertise : Il est recommandé de limiter l'utilisation des chatbots à des domaines où l'utilisateur a une expertise suffisante pour vérifier la véracité des réponses. Si la véracité est cruciale et l'utilisateur n'a pas l'expertise nécessaire, il est dangereux d'utiliser le chatbot.
o Prompt engineering : Le prompt engineering consiste à structurer les requêtes de manière à obtenir des réponses plus précises et fiables. Cela inclut la fourniture de contexte, la demande de réponses dans un rôle spécifique, et la décomposition des tâches complexes en étapes plus simples.
o Nourrir avec des bases de connaissances : Une autre méthode consiste à nourrir les chatbots avec des bases de connaissances spécifiques, comme des documents ou des articles, pour rapprocher la courbe de plausibilité de la courbe de véracité. Cela permet d'obtenir des réponses basées sur des sources fiables et pertinentes.
o Structuration des requêtes : Richard-Emmanuel a expliqué l'importance de structurer les requêtes en fournissant un contexte clair, en demandant des réponses dans un rôle spécifique, et en décomposant les tâches complexes en étapes plus simples pour obtenir des réponses plus précises et fiables.
o Utilisation de chaînes de pensée : Richard-Emmanuel a mentionné l'utilisation de chaînes de pensée, où l'on montre au chatbot comment résoudre un problème étape par étape, ce qui améliore la précision des réponses pour des tâches similaires.
o Utilisation de Notebook LM : Richard-Emmanuel a démontré l'utilisation de Notebook LM, un chatbot de Google qui répond uniquement sur la base des documents fournis, en montrant comment il peut être utilisé pour extraire des informations précises et référencées.
o Conclusion et Prochain Cours : Richard-Emmanuel a conclu la séance en rappelant les rôles pertinents des chatbots comme assistants et partenaires de réflexion, et en annonçant que le prochain cours portera sur les enjeux éthiques et sociétaux de l'intelligence artificielle.

Пікірлер
1 сквиш тебе или 2 другому? 😌 #шортс #виола
00:36
龟兔赛跑:好可爱的小乌龟#short #angel #clown
01:00
Super Beauty team
Рет қаралды 70 МЛН
😜 #aminkavitaminka #aminokka #аминкавитаминка
00:14
Аминка Витаминка
Рет қаралды 1,9 МЛН
Миллионер | 2 - серия
16:04
Million Show
Рет қаралды 1,7 МЛН
Самый длинный айфон в мире!
0:20
По ту сторону Гугла
Рет қаралды 667 М.
Вот что будет, если купить WINRAR
0:23
Энди Нюрров
Рет қаралды 209 М.
Магия цифр в айфоне🤯
0:18
FilmBytes
Рет қаралды 1 МЛН
Samsung mocking Apple 😂💀 #blowup #apple #samsung #edit
0:31
skullmaxx
Рет қаралды 33 МЛН
Проверил, как вам?
1:01
Коннор
Рет қаралды 7 МЛН