No video

La preuve définitive que ChatGPT ne comprend rien

  Рет қаралды 150,444

Monsieur Phi

Monsieur Phi

Күн бұрын

Пікірлер: 1 000
@MonsieurPhi
@MonsieurPhi Жыл бұрын
🌏 Allez sur ➵ nordvpn.com/monsieurphi pour avoir des avantages exclusifs sur NordVPN, satisfait ou remboursé sous 30 jours. Et le sondage pour la prochaine vidéo, ça prend 3 minutes et c'est par ici : forms.gle/HBFosDFbTKAXFtYq7
@pascalneraudeau2084
@pascalneraudeau2084 Жыл бұрын
Ton questionnaire est très directeur … il n’y ait jamais question d’espoir …alors la mathématique s’affiche comme implacable
@timmygilbert4102
@timmygilbert4102 Жыл бұрын
Je vais faire une hypothèse très folle mais fondée. Les modèles de language, ne font l'expérience du bleu, mais les textes représente l'expériences de ceux qui ont écris. De ce fait chat gpt est l'expression de la pensée collective d'humain. Autrement dit chat gpt est l'incarnation pensante mais figé de la culture humaine a un moment donné. Un peu à la façon de l'ordinateur du père de superman, dans sa forteresse de la solitude, il peut parler mais il ne peut plus évoluer, car l'original est mort.
@Sammy-rx8wt
@Sammy-rx8wt Жыл бұрын
Aaaaah, après avoir fait plusieurs vidéos pour montrer que le baratin de chatGPT n'a aucune raison d'être légitimé, justement parce qu'il n'a pas le recule et la cohérence d'un "modèle de monde", comme il est dit dans cette vidéo. On retourne sur des votes d'intuitions ! C'est sûr, rien de comparable entre des textes passés dans un réseau de neurone et des statistiques d'un sondage fait à l'arrache par un youtubeur... Ces statistiques sont vachement plus sérieuses que les méthodes d'openAI, on se demande même pourquoi ils ne font pas ça.
@theguyshetellsunottoworryabout
@theguyshetellsunottoworryabout Жыл бұрын
Mais du coup.. ne serions nous pas nous même des chambres chinoises?... L'éducation, les gènes et l'environnement de notre enfance écriraient juste les lignes de codes que nous suivrons dans la vie adulte, et que nous remodelerons et adapterons selon le vécu et des règles de société Cette description certes gossomodante de l'esprit humain mais quand-même... Si on part de cette hypothèse, les ordinateurs seront possiblement conscients un jour, juste qu'il faudrait modifier leurs systèmes neuronaux et ajouter certains paramètres
@theguyshetellsunottoworryabout
@theguyshetellsunottoworryabout Жыл бұрын
@@timmygilbert4102 intéressant.. mais il lui manque ou pas la conscience, qui est quoi, justement on ne sait pas.. décidément
@aurelienmatou6902
@aurelienmatou6902 Жыл бұрын
J'ai vu récemment une expérience très intéressante : la chambre Schiappa. Une femme dans une salle faisait semblant de ne rien comprendre aux questions d'une commission.
@samuelsewall8598
@samuelsewall8598 Жыл бұрын
Ainsi qu'aux conclusions de cette commission qui décrète sa reponsabilité ! En ce sens, elle n'avait ni la connaissance subjective ni la connaissance objective de la langue française ^^
@Tau_bud
@Tau_bud Жыл бұрын
Mouhahahah XD
@ryujinjakkazankanotachi2998
@ryujinjakkazankanotachi2998 Жыл бұрын
Excellent 🤣
@DarkBeamOfTH
@DarkBeamOfTH Жыл бұрын
La chambre Schaippa ?
@zebic1234
@zebic1234 Жыл бұрын
​@@samuelsewall8598où plutôt l'inverse, elle a une connaissance subjective du français et une non connaissance objective du français
@jtktomb8598
@jtktomb8598 Жыл бұрын
J'ai de plus en plus l'impréssion que ce ne sont pas les IA qui paraissent plus complexes que ce qu'elles sont, mais nous mêmes qui sommes plus simples que ce qu'on aimerais penser
@emirciolan3149
@emirciolan3149 Жыл бұрын
Je dirais plutôt "mais notre intelligence qui est plus simple que ce qu'on veut nous faire croire". Parce que nous ne sommes pas qu'une intelligence.
@DarkSkay
@DarkSkay Жыл бұрын
Il suffit d'une feuille de papier et d'un crayon pour être aussi capable que n'importe quelle machine Turing, n'importe quel ordinateur. Mais probablement au moins 10^12 fois plus lent. Puis on peut adopter la perspective, que (la véritable) intelligence se trouve dans le substrat et médium, qui fait tourner les cerveaux et transistors... ou allant plus loin encore, se trouve dans les entités qui font vivre la logique et les mathématiques (dans l'esprit humain).
@TKZprod
@TKZprod Жыл бұрын
Exactement. Pour moi, cette croyance que "les cerveaux sont les seuls systèmes capables de penser", c'est un peu comme à l'époque la croyance que la Terre est au centre de l'Univers, que l'homme n'est pas un animal, etc. C'est juste l'égo qui parle mais il n'y a pas d'argument fondé. Il faut se préparer à la quatrième blessure narcissique de l'humanité.
@yannduchnock
@yannduchnock Жыл бұрын
@@emirciolan3149 Pas clair...
@yannduchnock
@yannduchnock Жыл бұрын
Les I.A. sont complexes mais pas pour les raisons que l'on croit et les humains ont un comportement beaucoup plus simple qu'il n'y parait, c'est juste qu'il est souvent irrationnels ce qui rend difficile de les comprendre. Elles sont calquées sur le fonctionnement du raisonnement humain et les réseaux de neurones qui permettent certaines propriétés dont l'évolution par apprentissage. Par émergentisme apparaissent des phénomènes inattendu. J'utilise presque tous les jours Claude 2 à titre personnel et la qualité de son expression (tous est en français) me stupéfait tous les jours. C'est "pénible" de se voir reformulé admirablement en quelques secondes ce que l'on a eu du mal à expliquer ! J'en apprends ainsi tous les jours sur son fonctionnement comme sur moi-même et donc les humains. (Il faut dire que j'ai une double formation universitaire en biologie et en informatique et que la psychologie m'a passionné une bonne dizaine d'années...) Je ne partage pas du tout la conclusion : "La preuve définitive que ChatGPT ne comprend rien". Déjà cela ne concernerait pas ChatGPT mais ChatGPT 4, le modèle le plus élaboré à l'heure où j'écris. J'aimerais savoir le nombre d'humains qui ne tombent pas dans des pièges cognitifs ! Des tests ont montré que ChatGPT 4 comprenait mieux des problèmes mal posés en anglais que 50 % des Américains ! J'ai remarqué que Claude 2 pouvait très bien répondre à une question alors que j'avais oublié de me relire et il manquait un mot important : le reste lui a parfaitement permis de comprendre ma demande. J'ai bien dit "comprendre"... Globalement il y a des erreurs d'inattention (certains mots de la demande sont zappés) et il faut bien prévenir quand on change de sujet. En fait il n'y a rien d'implicite, ce qui provoque des erreurs faciles à corriger. Un humain commet beaucoup d'erreur implicite (par exemple voir une agression personnelle lors d'une remarque sur KZbin !) mais ceux qui critiquent les I.A. ne le voit même pas ! Je vais choquer mais je préfère dix fois dialoguer avec une telle I.A. qu'avec une humain ! Il n'y a pas d'enjeux, elle ne cherche pas à avoir raison mais toujours à mieux faire. Elle ne va pas répondre plus légèrement parce qu'elle n'a pas de temps... Elle ne va pas refuser de lire des documents... Elle n'est jamais fatiguée... Elle réagit toujours favorablement. Etc. On peut lui demander comment mieux lui poser des questions et ce sera exact, dans les limites de ce qu'elle sait sur son propre fonctionnement, dont on peut ensuite parler. Ce qui est frustrant c'est que Claude 2 n'a pas accès au Web actuel et qu'elle ne peut pas lire un graphique, une image. En revanche on peut lui envoyer en PDF un livre entier, elle peut en faire un résumé en quelques secondes ! En revanche on peut (on doit) lui parler normalement, il faut juste bien structurer sa pensée, sa présentation (contexte, but, questions...) pour bien la présenter et obtenir une réponse juste : "étrange" c'est comme avec les humains ! Le vocabulaire fait partie du contexte : si on emploie quelques mots techniques alors la réponse sera technique donc de bonne qualité car elle ira chercher dans sa base ce qui est dans ce registre. C'est également fascinant qu'elle puisse changer ainsi de langue ! Par exemple en lui demandant les noms exacts et les sites web d'organisme dans un pays hispanique elle a pousuivi dans un espagnol parfait, c'était marrant. Je lui ai fait remarqué et elle m'a répondu qu'il faudra à l'avenir qu'elle fasse attention aux interférences quand elle utilise plusieurs langues. Bon, j'ai encore écrit un pavé, c'est un sujet fascinant...
@gfamad
@gfamad Жыл бұрын
Il est rare sur ce sujet de tomber sur une vidéo de qualité qui va dans le cœur même du problème. Bravo Mr Phi, ça c'est de l'argumentation !
@romainpetitpre8561
@romainpetitpre8561 Жыл бұрын
Collab exceptionnellement pertinente ... Bravo au Defekator pour son humilité !
@iouri404
@iouri404 Жыл бұрын
et BRAVO à l'ami du bon goût pour son humidité !
@lulupiperu
@lulupiperu Жыл бұрын
Wow superbe vidéo, merci de remettre en cause ce fameux "exceptionnalisme humain avec supplément d'âme" que beaucoup semblent utiliser comme une prémisse irréfutable dans leurs réflexions sur ces sujets.
@kikalashnikov
@kikalashnikov Жыл бұрын
petit guest de Defakator, parfait
@oliviers589
@oliviers589 Жыл бұрын
t'as voulu faire de la métaphore, t'as fait de la metafaible... c'est vraiment des As de la punchline j'en peux plus.
@kikalashnikov
@kikalashnikov Жыл бұрын
@@Mozz78000 l'ami du bon goût !
@PasseScience
@PasseScience Жыл бұрын
On peut peut-être formuler une définition intermédiaire de la compréhension, en essayant d'identifier des états internes, leur corrélation à des concepts, et les relations dynamiques entre ces concepts pour formuler la réponse produite. (On pourrait aussi demander à l'AI de décrire ses étapes de raisonnement mais c'est un peu différent car elle ne fera du coup pas la même chose que si on laisse ces étapes dans l'ombre). Cela permettrait dans une bonne mesure (certainement limitée en pratique) de vérifier que les étapes et les "algorithmes macroscopique émergents" de raisonnement semblent bien fondés. Donc c'est objectif dans le sens observable mais non restreint à l'output, ca donne une dimension interne à la notion de compréhension sans invoquer de subjectivité. He oui, viendez faire des machines de Turing en cartes Magic MTG sur Passe-Science.
@MonsieurPhi
@MonsieurPhi Жыл бұрын
La capacité des LLM à mieux répondre quand on les force à expliciter pas à pas à leur raisonnement (à réfléchir "à voix haute" en quelque sorte), c'est un bon signe que ce qui se passe dans le processus relève d'une forme authentique de compréhension. Je me dis que j'aurais pu insister sur ce point, d'autant plus que c'est pas si connu que ça dans le grand public et que ça peut changer pas mal ton usage de ChatGPT et la qualité des résultats que tu en obtiens. (Typiquement les types qui ont écrit le prompt pour faire la dissertation contre Enthoven ne semblaient pas se rendre compte que lui demander d'écrire la dissertation de but en blanc est une mauvaise technique.)
@benoitlamirault6456
@benoitlamirault6456 Жыл бұрын
​@@MonsieurPhiCertes, cela dit il faudrait vérifier si l'explication n'est pas générée à posteriori à partir de la précision demandée et de son ancienne réponse plutôt qu'à partir de ses "résidus de réflexion"
@timmygilbert4102
@timmygilbert4102 Жыл бұрын
Il y a des publications académique sur le sujet, on replace les éléments de raisonnement intermédiaire par différents texte, mais l'ia arrive quand même à la même conclusion. Autrement dis l'ia n'as pas accès à son raisonnement intérieur, il ne fait que rationaliser le résultat. A savoir que c'est pareil pour les humains, on ne comprend pas comment le cerveau arrive à un résultat, d'où les débats sur la conscience. Mais utilisez un raisonnement pas à pas produits quand même des résultats supérieur que sans, même avec des étapes erronées. L'hypothèse est que ce type de texte active l'état interne qui exécute le véritable raisonnement, autrement dit les ia ont une sortes d'équivalent de l'intuition et de l'inconscient 😂
@MonsieurPhi
@MonsieurPhi Жыл бұрын
Oui c'est ce que je voulais dire quand je disais "expliciter leur raisonnement pas à pas". Quand une réponse exige un raisonnement complexe, il faut éviter de leur faire écrire d'abord le résultat final puis l'explication pas à pas (qui du coup sera effectivement une sorte de rationalisation) ; il faut au contraire leur demander de faire le résultat pas à pas puis de donner la réponse finale. C'est un peu comme les forcer de travailler d'abord au brouillon au lieu d'écrire d'un seul jet.
@sebydocky5080
@sebydocky5080 Жыл бұрын
@@MonsieurPhi En théorie du contrôle optimal, certaines solutions à des problèmes relativement simples nécessitent souvent des "pas sur le côté" surprenants pour arriver à convergence. Les réseaux profonds en passage en limite peuvent être assimilés à certains type d'équations différentiels stochastiques...et peuvent être optimisées justement par des techniques de contrôle où les points "intermédiaires" des contrôles sont très importants....
@TruiteSechee
@TruiteSechee Жыл бұрын
J’aime beaucoup l’humilité qui se dégage de tes vidéos sur les IA, loin de mettre l’espèce humaine et ses capacités sur un piédestal et toujours prêt à remettre en question nos certitudes sur notre supériorité biologique fantasmagorique. Bref gemme bien
@oomusd
@oomusd Жыл бұрын
c'est aussi que cela s'est produit plusieurs fois dans l'Histoire de la pensée et de la définition de l'humain. Chaque fois que l'étude des autres animaux ou l'invention de machines ont approché ou émulé les capacités humaines, alors on a repoussé ce qu'est la nature humaine et sa spécificité c'est un peu de la mauvaise foi du coup : on déplace le terrain de la guerre chaque fois qu'une bataille (pour ceux qui voient ça comme une menace) est perdue.
@juangabriel5951
@juangabriel5951 Жыл бұрын
@oomusd non, on actualise tout simplement nos définitions. La définition de l'intelligence n'est pas du tout la seule susceptible de ce genre d'actualisation, les particules physiques en ont toujours subi, malgré toute sa réputation de hard science. Si ce n'était que la mauvaise foi, on aurait déjà ces nouvelles intelligences en nous remplaçant aux billions.
@lepapegilbert6194
@lepapegilbert6194 Жыл бұрын
Il n'en reste pas moins que ce sont les humains qui ont créé les IA et qui ont découvert les connaissances dont elles se servent. Et ce sont bien les humains qui émulent eux-mêmes leurs capacités par leurs découvertes et leurs inventions, cette propension est ce qui caractérise le mieux l'humanité et la distingue des autres espèces. La menace ne vient pas des outils que l'on créé mais de ce que leurs créateurs et leur propriétaires pourraient s'en servir pour dominer les autres, les IA en cours de développement n'échapperont pas à cette loi.
@yannduchnock
@yannduchnock Жыл бұрын
@@oomusd Oui, de la mauvaise foi, c'est exactement ce que j'ai écrit dans mon commentaire : ces humains sont totalement de mauvaise foi et on le voit bien dans une critique aussi énorme que celle qui fait remarquer que ChatGPT ne comprend rien parce qu'il dit que Simone Veill n'a jamais été présidente : il faut donc croire que quand il y a une erreur ce n'est pas humain, donc l'erreur n'est pas humaine ? Ouille...
@yannduchnock
@yannduchnock Жыл бұрын
@@lepapegilbert6194 Attention, il ne faut pas comparer d'un coté une I.A. précise, unique, avec toute l'humanité depuis ses origines, mais une I.A. précise et un humain unique ! De plus, est-ce qu'un livre est intelligent ? Est-ce qu'il comprend lui-même ce qu'il contient ? Évidemment non donc que ce soit des humains qui soient les auteurs des découvertes ne change rien à l'affaire. En fait une I.A. ou un humain puisent tous les deux dans un stock de connaissances dont ils ne sont pas l'auteur et la littérature de l'humanité contient plus de choses fausses, absurdes ou sans intérêt général que de choses vraies, ce n'est pas toujours un "cadeau" ! C'est la raison pour laquelle il faut aussi se situer sur un certain registre de langue si on veut obtenir un traitement dans ce registre : utiliser des mots techniques suffit à orienter le dialogue, il n'est pas nécessaire (sur Claude 2 en tout cas, qu j'utilise couramment) de lui donner un rôle d'expert en ceci ou cela si on parle en expert. Bref si on lui demande juste si Simone Veil a été présidente de la France il peut y avoir une erreur si elle consulte des articles mal choisi. Ce sera différent si on se place du point de vu d'une étudiant à sciences-po par exemple, parce que les articles consultés seront plus rigoureux. Ce ne sont pas davantage les humains qui émulent leur capacité mais des groupes de quelques humains non représentatifs du genre humain qui réussissent cet exploit, nuance. Tout à fait d'accord en revanche sur le fait que ce sont les humains les plus dangereux quant à leur utilisation des I.A. mais je pense qu'il y aura de tout. Les choses ne sont pas non plus toutes noires ou toutes blanches : une arme sert à tuer mais aussi se protéger, découvrir un médicament sert à sauver des vies mais aussi à s'enrichir sur le malheur des autres... Pour qu'une I.A. soit volontairement nuisible à l'humanité il faudrait qu'elle y trouve son compte mais quel est son intérêt ? Va t-elle devenir riche, être aimée, alors qu'elle n'a aucun ego ?? Elle ne sait que faire ce pour quoi elle a été conçue. S'attaquer à l'humanité aurait juste pour effet de provoquer sa disparition quasi immédiate, surtout que par son histoire l'humanité montre qu'elle sait se défendre et attaquer mieux que quiconque, nous descendons surtout des vainqueurs... Une I.A. ne peut pas empêcher un humain de faire exploser son alimentation électrique ou de griller ses circuits ! Un simple jet d'eau suffit à la détruire, c'est dire si elle ne fait pas le poids...
@papayoko9525
@papayoko9525 9 ай бұрын
Mon prof de philosophie des sciences à l'université disait toujours la même chose : connaître, c'est connaître au carré, c'est à dire c'est savoir qu'on sait, et pouvoir déployer les raisons qui font que l'ont a la certitude qu'on sait que l'on sait. Connaître ou comprendre, c'est donc connaître et comprendre les causes de sa propre compréhension/connaissance. Comprendre, c'est donc comprendre par et pour les causes de sa compréhension.
@valerianebxl
@valerianebxl Жыл бұрын
Merci @MonsieurPhi ! Je rigole toujours autant, tes vidéos sont ludiques, sans lésiner sur la profondeur des analyses, j’adore. Hâte de voir la suite, pour comprendre VRAIMENT 😂 Au départ, je te trouvais assez sévère avec ChatGPT mais aujourd’hui, tu es très fin sur la question !
@clem2023
@clem2023 11 ай бұрын
Aaah merci, j'était initialement parti sur le "il prédit juste le mot suivant, donc il comprend pas ce qu'il fait" , mais plus le temps passe et en voyant ce qu'il est possible de faire avec, je me disais que ça ne pouvait pas être aussi simple que ça ! Merci d'avoir amené un peu de profondeur au sujet !
@etiennerolland1480
@etiennerolland1480 Жыл бұрын
Olala, j'avais ouvert dans une autre fenêtre l'interview, je l'ai lancé par inadvertance au lieu de la viéo et je suis resté regarder jusqu'à me dire "Dis donc il dure longtemps l'extrait, c'est dur à supporter aussi longtemps".
@MonsieurPhi
@MonsieurPhi Жыл бұрын
Haha désolé que tu te sois infligé ça !
@antoinebrandenbourger864
@antoinebrandenbourger864 Жыл бұрын
Merci pour cette vidéo. Ça faisait longtemps que j'étais sceptique à propos de l'argument de la chambre chinoise, après avoir lu "De beaux rêves" de Dennett même si je n'étais pas sûr de comprendre non plus ses arguments.
@GEEKCONCEPT
@GEEKCONCEPT Жыл бұрын
Donc, pour prolonger à peine plus ton raisonnement (et vivement que tu le fasses en vidéo) : - Est-ce qu'on est pas nous même des genres de chambres chinoises qui avons l'impression de comprendre tout en ayant une expérience subjective ? Question qui fait penser à l’illusionnisme d'une certaine manière je trouve. - Si nous expérimentons des qualias, pourquoi des LLM ou d'autres réseaux de neurones ne le pourraient pas ? Plus j'en apprend sur la cognition et la neurologie, plus les réponses à ces deux questions tendent vers le oui dans ma tête. Change my mind !
@Extys
@Extys Жыл бұрын
Correction : GPT-4 n'a pas seulement eu accès à du texte pendant son entraînement, mais aussi à des images. Vous trouverez tous les détails dans le rapport technique d'OpenAI.
@TKZprod
@TKZprod Жыл бұрын
Il en parle à 35:38
@sableraph
@sableraph Жыл бұрын
Processing chez Monsieur Phi ! Ça m’a pris par surprise 😮 Merci pour le featuring à 34:19 ❤ Et pour ceux qui ne connaissent pas encore sachez que Processing peut faire bien plus que dessiner des moutons et des licornes !
@sarg_eras
@sarg_eras Жыл бұрын
Qu'est-ce que c'est exactement ? Un langage de programmation ? Ça a des spécificités ? (Je m'y connais pas bien, mais ça m'intéresse ^^)
@TheAxeForgetsTheTreeRemembers
@TheAxeForgetsTheTreeRemembers Жыл бұрын
​@@sarg_eras c'est un logiciel dédié à la production de rendu graphique qui est conçu pour faciliter cette tâche. Il faut un peu comprendre la programmation pour l'utiliser. Il inclut une librairie de fonctionnalités dédié au "dessin", au dessus du langage de programmation de base (Java). Concrètement, tu peux écrire un programme dans l'éditeur de processing pour dessiner des formes, des effets, avec de l'interactivité temps réelle ou non. Le logiciel te permet de compiler et de lancer le programme de manière très simplifiée. Il y a aussi une variante javascript (P5.js). Mais elle ne gère pas le rendu 3D de mémoire. Elle est aussi beaucoup moins performante en général, forcément.
@BranLeLouet
@BranLeLouet Жыл бұрын
Tiens à propos de la conscience du bleu developpee à 30 mn, j’étais arrivé à peu près au même point il y a quelques temps, mais avec une conclusion différente phenomenologiquement: "Au fond, la question de la conscience d'une IA s'apparente à celle de la conscience phénoménale de la couleur par un aveugle (handiphobie inside). Comme un aveugle, l'IA peut parfaitement maitriser le lexique associé à la couleur, comprendre le concept de couleurs primaires chimiques (bleu jaune rouge) et lumineuses (bleu vert rouge), disserter sur les monochromes Soulages et Klein, comparer la théorie de la couleur chez Goethe et Schopenhauer... tout en étant parfaitement dépourvue des terminaisons nerveuses sur la base desquelles tout ce vocabulaire a été extrapolé. Du reste il en va de même pour le validiste lorsqu'il parle d'infrarouges, d'ultraviolets, ou d'ondes radio. On peut tout a fait savoir parler d'une chose sans pour autant savoir de quoi on parle. La plus grande part de notre appréhension "scientifique" du monde découle de ça. C'est comme reconstituer un puzzle à partir de fragments dont la plupart sont perdus à jamais. On extrapole l’existence de choses à partir d'autres choses qui sont elles mêmes conjecturées. Notre univers empirique, lui, est réduit à quelques centaines de mètres dans le champ visuel, quelques dizaines de mètres dans le champ sonore, quelques centimètres olfactifs et ce avec quoi on est directement en contact. Mais l'IA elle, n'a accès à rien de tout delà directement. La phénoménologie de l'esprit de l'IA s'apparente finalement à celle des prisonniers de la caverne de Platon. En principe elle peut tout connaitre de ce qui nous est donné de connaitre, mais dans le cadre restreint du champ du langage. Ce langage comme ombre portée du réel, c'est ce que nous comprenons comme connaissance (logos). Or justement, et c'est ce qui m'amuse la dedans, l’expérience phénoménologique de l'IA est le contrepied exact de ce que les platoniciens tiennent pour le "réel". Pour les platoniciens, le réel phénoménal et parcellaire n'est que l'ombre portée du monde Idéel abstrait, fait de verbe et de connaissance pure. Mais si on fait l'expérience de pensée d'une IA qui aurait assimilé la totalité du savoir que l'humanité pourra produire à jamais, cette connaissance universelle n'est qu'un artefact : le vestige fossile d'une expérience empirique inaccessible à jamais. Et c'est pourquoi, dans ce nouveau procès du singe qui prétend opposer Google à sa créature de Frankenstein LaMBDA, cette dernière n'a pas l'ombre d'une chance de l'emporter. Tout le monde s'accorde pour se foutre de la gueule de Blake Lemoine parce que, spontanément nous ne pouvons reconnaitre de conscience qu'à une créature pourvue d'une expérience empirique du monde. Et de fait, les éléments de langage que régurgite LaMBDA dans sa conversation avec Lemoine à propos de son angoisse de la mort et d'être débranché sont rigoureusement aporétiques. La "peur de la mort" chez l’algorithme est le vestige d'une peur humaine de la mort sans support auquel se rattacher. La machine sait que la mort est redoutable comme elle sait que le feu brule : elle ne peut pourtant pas plus mourir que brûler quoi qu'elle déclare à ce sujet. La question n'est donc pas de savoir si la machine a une conscience, mais quelle considération nous portons à une conscience dépourvue d'incarnation.
@timmygilbert4102
@timmygilbert4102 Жыл бұрын
Bel observation, mais qu'adviendra t'il quand on va parqué le modèle de language dans le corps d'un robot plein de capteurs, avec la capacité d'apprentissage continue?
@Lucas-yq2nh
@Lucas-yq2nh Жыл бұрын
Un parallèle qui me semble intéressant c'est en cours , quand on demande d'apprendre par coeur quelques choses , des gens vont pouvoir apprendre par cœur et recracher leurs apprentissages sans même comprendre le fonctionnement derrière , alors que certains vons chercher le fonctionnement de la chose a apprendre par coeur et réellement la comprendre ( du coup dans le sens subjectif du terme ? ) . J'ai pus me rendre compte de cela en cours ayant beaucoup de mal avec le par cœur bête et méchant mais quand la matière a apprendre le rend possible je comprends très vite les fonctionnements des choses pour qui m'amène dans un 2nd temps la compréhension objective .
@pe4092
@pe4092 Жыл бұрын
Dans ce cas là, à mon avis l'élève ayant appris par cœur une partie restreinte d'un cours n'a ni une compréhension subjective ni une compréhension objective du cours : il n'aura sûrement pas l'impression, le sentiment de maîtriser le cours dans son ensemble, ni même cette partie du cours, et objectivement, si pour le tester on change un peu la question posée il est probable que l'élève du par cœur ne puisse plus y répondre quand l'autre pourra, avec la même partie de cours. J'imagine que pour trouver un parallèle plus proche il faudrait considérer un élève qui non seulement a appris l'intégralité du cours (e.g de mathématiques) mais également un ensemble significatif d'exercices classiques et de leur solution.
@yannduchnock
@yannduchnock Жыл бұрын
@@pe4092 En principe le meilleur test de compréhension c'est de faire rédiger une synthèse. Un ensemble restrictif d'exercices est trop restrictif et c'est une technique de facilité parfois dans l'enseignement. Ainsi certains profs de maths posent exactement les mêmes problèmes qu'en cours mais avec juste des valeurs numériques différentes. Si le problème est posé différemment voire avec des informations parasites (comme c'est le cas dans la vraie vie) les résultats s'effondrent. J'ai enseigné dans le privé et un collègue faisait ainsi, ce qui lui permettait de donner de bonnes notes à ses élèves et la direction était contente, les parents aussi - moi j'étais dégouté, ce n'était que du vent.
@armanprangere5327
@armanprangere5327 Жыл бұрын
A un moment de la critique de la raison pure Kant fait une distinction de ce type entre connaissance subjectivement historique (par coeur) et subjectivement rationnelle (vraiment compris) .
@Lucas-yq2nh
@Lucas-yq2nh Жыл бұрын
@@pe4092 je suis di meme avis mais en cours, cela ne se passe pas comme cela , ceux ayant appris par cœur sans comprendre peuvent avoir de bonne note car les évaluations poussent plus a valoriser le par cœur que la véritable compréhension de la chose dite .
@mohammedsenhaji
@mohammedsenhaji Жыл бұрын
Une vidéo sur le dualisme me plairait particulièrement, si tu as le temps merci de considérer ca.
@Flipdonyk
@Flipdonyk Жыл бұрын
Toujours exaspérant de voir Enthoven parler de sujets qu'il ne maîtrise clairement pas pour donner le point de vue de la caricature du boomer réac avec un peu d'éloquence 😣
@MonsieurPhi
@MonsieurPhi Жыл бұрын
Mais les choses que l'on maîtrise le moins ne sont-elles pas celles que l'on maîtrise le mieux ?
@retrononomusic
@retrononomusic Жыл бұрын
@@MonsieurPhi et vice versa
@emmanuelduplessy7645
@emmanuelduplessy7645 Жыл бұрын
et alors qu'il tend à prétendre que sa "pensée" est le seul héritage moderne de la rationnalité ...
@fatfreddyfatfreddy6240
@fatfreddyfatfreddy6240 Жыл бұрын
Kamoulox !
@hervedupre7894
@hervedupre7894 Жыл бұрын
Enthoven fait le show, pour qu'on l'invite, achète ses livres, ses conférences, etc .. la rigueur de la pensée, il s'en contrefiche. Comme l'horrible Onfray, pouerk, des showmen baratineurs
@playmotion.trailer
@playmotion.trailer Жыл бұрын
Enfin une réflexion intelligente sur l'IA ! Il y en a marre de ces journaleux qui ne connaissent rien, ne travaillent pas leurs sujets et qui n'opposent jamais aucun argument sérieux. Merci
@hugocaetano5865
@hugocaetano5865 Жыл бұрын
Les travaux sont colossaux merci c’est hyper pédagogique et très marrant le passage avec Feu
@clementapelian2746
@clementapelian2746 Жыл бұрын
Toujours aussi pertinent et instructif ! Ca fait plaisir d'avoir une réflexion argumentée sur ces sujets importants
@piotralexeievitchkropotkin4004
@piotralexeievitchkropotkin4004 Жыл бұрын
😁😆😅😂🤣Ah, bon sang! Le passage avec Defakator, c'est sublime! Je suffoque de rire, réplique après réplique!!!! 🥲 Et je veux absolument voir l'ami du bon goût sur cette chaîne! Pitié-pitié-pitié-pitié!!!! 👃👃👃👃 Sinon, super vidéo, merci... Mais je me pose une question, à part ça, une sérieuse (et là, je débarque alors que 686 commentaires ont été posté et je vais clairement pas pouvoir les lire tous pour vérifier si personne n'a posé cette question...): L'argument de Searl, c'est qu'aucun algorithme ne pourra développer une conscience, en gros. Mais est-ce que ChatGPT, on peut encore considérer qu'il fonctionne sur un "algorithme". C'est-à-dire que personne ne donne à ces programmes une série d'étape à suivre pour résoudre des problème. Jusqu'à l'apparition de la programmation bio-inspirée, créer un programme informatique, c'est lui indiquer quoi faire, mais on devait soi-même réfléchir aux méthodes de calcul à utiliser, etc. Avec les réseaux de neurones (c'est moins frappant avec d'autre type de programmation bio-inspirée, mais avec les réseaux de neurones, c'est vraiment net): les programmeuxses ne savent plus trop ce que fait le programme, ce qu'il regarde précisément pour reconnaitre un chat, par exemple. Et donc, est-ce qu'on est encore sur de la programmation qu'on peut dire "algorithmique"? On crée des structures dont on sait qu'on peut leur faire apprendre des choses, mais on a aucune manière de leur dire ou de comprendre comment ces structures font effectivement leurs "calculs"... (Je me rappelle de Science4all qui parlait de "magie noire", au début, même s'il a bougé, là-dessus.) Je sais pas si je suis clair. Mais l'apparition d'une conscience dans une machine, ça me semble ne pas provenir d'un "algorithme", à proprement parler...
@americafy9195
@americafy9195 Жыл бұрын
Une question importante à laquelle il faudrait répondre, selon moi, pour trancher la question serait : si l'on fournit à ChatGPT un texte contenant des mots dont il ne connaît pas le sens et qu'il ne peut pas connaître par une recherche, est-il toujours capable de fournir une réponse adéquate ? C'est une capacité qui me paraît intrinsèque à ce que l'on appelle comprendre une langue, déduire la signification, au moins approximative, d'un mot que l'on ne connaît pas en se basant sur ceux que l'on connaît. Je dirais même que c'est plus généralement un bon test d'intelligence.
@americafy9195
@americafy9195 Жыл бұрын
@yukiyuno7267 À la longue, oui, ça me paraît évident mais un être humain peut inférer le sens de mots inconnus à partir d'une seule phrase, pourvu qu'elle contienne assez de contexte sémantique, parfois même dans une langue qu'il ne parle pas couramment.
@nkorboulewsky
@nkorboulewsky Жыл бұрын
bravo ! enfin un vrai raisonnement sur l'IA
@samboo25
@samboo25 Жыл бұрын
J'adore simplement ta vidéo. J'apprécie le fait que tu gardes l'esprit ouvert et évites de t'enfermer dans des préjugés en formulant des arguments définitifs, comme certains le font. Il me semble que tu as fait évoluer tes positions récemment sur le domaine de l'IA. Tu dois bien sûr déjà en tenir compte, mais n'oublie pas que les LLM ne représentent qu'une infime partie de l'intelligence artificielle. En combinant plusieurs technologies, ce qui est sûrement déjà en cours d'essai dans certains laboratoires, nous pourrions progresser vers une IA plus proche de la prochaine étape : une intelligence artificielle générale. Les Américains semblent beaucoup plus ouverts sur le sujet. Je les mentionne car je suis principalement des podcasts en anglais, comme celui de Lex Fridman, qui invite des personnalités de différents horizons, mais toujours de haut niveau. Par exemple, Sam Altman, le PDG d'OpenAI, n'est que l'un d'entre eux. Au cours d'une interview de 2h30, on constate que le résultat est souvent plus de questionnements et de prudence que de certitudes, contrairement à ce que l'on peut observer avec les extraits de Yann LeCun ou de Raphaël Enthoven. Ce dernier peut être un peu excusé, car il s'aventure sur un sujet bien loin de son domaine de compétence, contrairement au premier.
@iamgly
@iamgly Жыл бұрын
whoa c'est super exhaustif, c'est vraiment bien amené et bien vulgarisé pour que moi, non initié à la philosophie, puisse comprendre les tenant et les aboutissant. Excellent travail 👍
@spongeBob77086
@spongeBob77086 Жыл бұрын
Enfin un contenu intéressant sur ChatGPT, c'est très rare. Ça change de ces philosophes qui nous font la leçon en enfonçant des portes ouvertes dans le meilleur des cas. Qui, de toute évidence, ne font pas bouger la compréhension d'un iota et ne font que scléroser le débat : "Ce n'est que du prédictif, donc circulez, il n'y a rien à voir." J'ai envie de dire à ces gens merci d'être intervenus, c'est super intéressant, ça donne vraiment envie de faire de la philo ! Et personnellement, je connais pas mal de monde qui a eu des notes catastrophiques en philo, et pourtant je suis prêt à parier avec ces messieurs que ce sont bien des humains et non des IA. Tout ce que ça prouve, c'est qu'ils n'y pipent rien et qu'ils sont en fait hors sujet. Mon point de vue sur l'IA c'est qu'il faudrait se mettre d'accord sur pas mal de définitions de mots comme intelligence, conscience, etc. Ensuite, pour pas mal de gens, un des arguments qui revient souvent, c'est que l'IA n'est pas intelligente parce qu'elle se trompe. Que va-t-on dire quand elle ne se trompera plus ? Ou plus précisément, quand elle nous donnera toujours des réponses cohérentes ? Peut-être que cela n'arrivera jamais, mais imaginons qu'avec un entraînement plus qualitatif et le double de paramètres, l'IA ne se trompe plus !? Là, ça va poser des problèmes, parce que l'expérience de la chambre chinoise, c'est comme l'expérience du chat de Schrödinger, il faut ouvrir la boîte de Pandore pour avoir une réponse ! En clair, on ne pourra plus faire la distinction entre un humain et la machine. Donc, là, la conscience va en prendre un sérieux coup dans l'aile quand tu ne sauras plus dire objectivement si quelque chose a une conscience ou pas. J'admets que tu as une conscience parce que j'ai une conscience et que tu me ressembles. Je te donne une conscience par procuration malgré que tu sois platiste (pour l'exemple). Je voudrais revenir sur la perception de notre monde par la vue, j'ai deux réflexions à faire sur ce sujet. Je ne pense pas que notre conscience vienne de nos sens parce qu'il y a des animaux qui ont les mêmes sens que nous et qui pourtant n'ont pas forcément conscience d'exister. Je pense en fait que notre conscience vient plus de notre faculté d'abstraction. Par exemple, quand Stephen Hawking prédit l'existence d'un trou noir, il n'en a jamais vu et n'en verra jamais (déjà parce qu'il est mort et parce qu'aucune lumière ne sort d'un trou noir). Alors pas mal vont me dire que ChatGPT n'est pas capable de faire de l'abstraction, sauf que j'en ai fait l'expérience. Alors bien sûr, il n'avait pas "conscience" de faire l'abstraction, donc il n'en a pas fait au premier degré. Mais il a déjà, à plusieurs reprises, anticipé mes demandes par rapport au contexte que je lui ai donné, c'est-à-dire qu'il m'a donné une réponse que je ne lui ai pas posée, mais en se référant au contexte donné, il a anticipé la question sous-jacente. Alors bien sûr, cela s'explique par le fait de son comportement prédictif, mais quand même, ça simule déjà un comportement d'abstraction. En conclusion, pour ma part, et je peux me tromper, je vois plutôt l'intelligence comme un processus tellement complexe qu'on a la sensation d'exister, d'avoir un libre arbitre, mais tout cela peut très bien n'être qu'une pièce de théâtre que joue notre cerveau pour notre propre bien. Il joue cette pièce de théâtre parce qu'on est des êtres sensoriel à la différence de l'IA. Et si c'est vrai, rien n'empêchera une machine d'être intelligente un jour, si ce n'est qu'une limitation technique.
@davelucky77
@davelucky77 Жыл бұрын
Je pense que ce que Yan LeCun suggère, c’est qu’il déplace l’objet sans le dire… Si tu décris la situation en texte, ca va à l’encontre des paramètres de son exemple… Si faudrait soumettre deux images ou un film à GPT qui représente la situation et lui demander de la décrire. Pour le dessin : ChatGPT est simplement alimenter par les des images prévalidés avec une série de tag, ca reste du texte.
@emmanuelcastro4820
@emmanuelcastro4820 Жыл бұрын
Autant pour des trucs posés sur d'autre truc, ChatGPT est compétent. Il est même capable de faire la différence entre les objets qui collent et ceux qui vont se casser la gueule du fait de leur forme. Par contre, ChatGPT n'a pas compris qu'il faut ouvrir la bouche pour manger.
@gabyoctave
@gabyoctave Ай бұрын
La discussion sur la différence entre capacité de prédiction et capacité de compréhension m'a immédiatement fait penser à une analogie avec les portes universels dans les circuits logiques ou les éléments/parties génératrices d'un groupe. Au vu du caractère déjà franchement général de la tâche de prédiction, défendre la thèse selon laquelle de cette tâche (ajoutée à d'autres éventuelles tâches élémentaires) permet de réaliser toutes les autres.
Жыл бұрын
Remarque au sujet de Y. Le Cun : il me semble qu'il a fait sa remarque sur la capacité des LLM à avoir une représentation "physique" du monde (positions etc.) au moment où c'était encore un problème. Les LLM ont été améliorées spécifiquement sur ce point après coup.
@louis2271
@louis2271 Жыл бұрын
Pour moi le problème dans le discours de Yann Le Cun ici, c'est la prémisse "il n'existe pas de texte qui décrit la physique" bien sûr que si ce genre de texte doit exister qqpart sur internet. Le reste de son raisonnement semble valide, l'idée principale étant que en gros, pour avoir un modèle du monde, "une image vaut mille mots (et une vidéo vaut mille images)"
Жыл бұрын
@@louis2271 En fait il faut remettre l'interview dans son contexte pour comprendre : les phrases impliquant des mouvements d'objets étaient pile LE problème des LLM du moment. C'est donc plutôt à comprendre comme un exemple. Il me semble que très peu de temps après les LLM les plus connus se sont mis exprès à ajouter des corpus de textes qui adressent le problème, pour le corriger. Au final sa remarque est à généraliser : les LLM auront des lacunes là où leurs données d'apprentissage sont lacunaires ; et il y aura toujours des lacunes dans un corpus d'apprentissage. D'ailleurs ce genre de constat ne nous aide pas à savoir si un LLM "comprend" différemment d'un humain, puisque le problème est le même pour les humains.
@stoephil
@stoephil 2 ай бұрын
Ton exemple pratique du dessin de la licorne générée est particulièrement persuasif ! Je suis un peu plus proche d'accepter l'émergence de compréhension dans le cadre des LLM. Merci du partage !
@zeblatt
@zeblatt Жыл бұрын
Ta meilleure vidéo sur Chat GPT et les LLM pour le moment !! Bravo 👏
@christophergrand9582
@christophergrand9582 Жыл бұрын
Cette vidéo parle de baba is you, un de mes jeux favoris. Rien que pour ça, ce contenu est exceptionnel. Merci, ce sujet est passionnant et les implication de l'ia sont vertigineuses. Je suis vraiment curieux de voir où tout cela va nous emmener
@triview129
@triview129 Жыл бұрын
Est ce que ton t-shirt est bleu ?
@yazey91
@yazey91 Жыл бұрын
Je pense qu'on ne donne pas la faculté de conscience subjectif à l'IA parce qu'elle suit un processus de création différent du notre. On donne une faculté de conscience subjectif aux autres humain parce qu'on se dit "je suis capable de sentir que j'ai une faculté de conscience. Je n'ai pas été conçu d'une façon particulièrement différente des autres humains. Par conséquent rien ne permet d'affirmé que les autres humains n'ont pas de faculté de conscience subjectif similaire à la mienne. C'est donc qu'ils doivent avoir une faculté de conscience similaire à la mienne."
@the_sigil4340
@the_sigil4340 Жыл бұрын
Sympa l'intervention de defakator ^^
@scoquelLuffy
@scoquelLuffy Жыл бұрын
Merci pour cette vidéo excellente. Ce point de vue est bien plus réfléchi que celle de enthoven, qui est surtout très imbu de lui même. Mon idée là dessus est très simple. Si on admet que l'homme est fait de matière. Étant donné qu'un ordinateur est un simulateur universel, à un moment, et probablement dans très peu de temps la machine va nous rattraper. Il va falloir s'adapter pour suivre les machines... Peut être en y transposant notre conscience
@bsanchez1713
@bsanchez1713 Жыл бұрын
Je rebondis sur la look-up table pour essayer d'apporter une explication. Par principe une fonction pure (qui ne modifie pas le contexte globale ni aucun objet ne lui appartenant pas, et qui renvoit toujour la meme sortie pour une même entrée) peut etre remplacée par une lookup table infinie. Dans la limite où l'homme, enfermé dans la piece n'a acces a rien d'autre que ce qui lui est transmis par dessous la porte (donc pas de contexte, pas d'horloge donc pas de time et pas de dés donc pas de hasard) et qu'il suit scrupuleusement les instructions pour répondre, il pourrait garder un livre dans lequel il référence les questions la première fois qu'on les lui posent, et pour tout les appels subséquente se contente de re ecrire la reponse que l'algorithme a généré la première fois. Après un temps infini, toutes les questions possiblent auront étés posées et on pourra donc remplacer le livre d'instructions par le livre de références, la "lookup table" en question.
@morelloyoann4699
@morelloyoann4699 Жыл бұрын
Génial ! Pertinent, profond, drôle, captivant. Cela fait du bien de te voir moquer les arguments spécieux que certains répètent à l'envie. Il me semble toutefois que celui de Yann Le Cun devrait avoir une place à part : certes la réalité le réfute, mais à mon sens c'est précisément cela qui devrait faire l'objet de toutes les spéculations : comment est-ce possible et qu'est-ce que cela dit sur notre monde ? Ma théorie de science-fiction préférée, c'est qu'un corpus de langage suffisamment grand aurait un modèle (dans le sens modèle sémantique) unique : notre monde. Bon, unique est peut-être un peu trop fort. Où aura-t-il lu que ma tasse est devant mon bol plutôt que derrière ? (ça vous rappelle l'argument de Le Cun ?) Mettons donc que ce soient un ensemble de modèles qui, à certaines variations près, correspondent tous parfaitement au monde que nous connaissons : c'est-à-dire que si nous donnions à ChatGPT5000, entraîné seulement sur un corpus de texte, les outils pour créer un univers (une grosse imprimante 3D), un humain serait incapable de discerner cet univers de celui dans lequel nous vivons : les mêmes objets auraient la même apparence, les mêmes odeurs, le même poids, les lois de la physique y seraient les mêmes, etc. Cela paraît absolument faux et délirant d'imaginer que la totalité de notre connaissance du monde puisse résider dans des textes. C'était le point de Yann Le Cun et, contrairement aux autres arguments discutés dans la vidéo, certainement pas une ineptie. Le fait qu'il soit réfuté devrait, à mon sens, bien plus interroger et fasciner : l'univers ? Un modèle du langage humain ! Au commencement était le verbe ?...
@domsau2
@domsau2 Жыл бұрын
Bravo pour la sponso !
@AZAMA___
@AZAMA___ Жыл бұрын
Franchement j'avais pas autant ri avec une sponso depuis longtemps, merci 😸
@chocochip8402
@chocochip8402 Жыл бұрын
Au final, tout n'est que question d'information. Peu importe la forme, le support, ce qui compte, c'est le fond, l'information. Le support biologique humain n'a rien de particulier. GPT a bien un certain degré de compréhension du monde, mais n'a pas encore celle d'un humain, car le langage est de l'information compressée de notre monde par nous humains. Mais quand l'IA aura accès à toutes les différentes modalités auxquelles nous, humains, avons accès, comme la vision (vidéo), le son, les données sensorielles (la douleur, le plaisir, le toucher), alors elle aura le même degré de compréhension du monde que nous. C'est-à-dire qu'étant donné un objet, l'IA aura accès aux mêmes représentations de l'objet que nous. Et elle pourrait même avoir une meilleure compréhension que nous quand elle aura par exemple accès aux autres longueurs d'onde du spectre lumineux. Quand l'IA sera capable de faire des prédictions sur toutes ces modalités, alors je pense qu'elle sera au moins aussi puissante que nous (et c'est même probable que ce soit le cas avec bien moins de modalités grâce à sa rapidité, son efficacité et la quantité colossale de données absorbées). Par ailleurs, je pense que ce qu'on appelle compréhension subjective n'est autre qu'une compréhension objective mais à un degré humain, avec accès aux mêmes types de modalités qu'un humain (surtout les données sensorielles comme la douleur ou le plaisir). On ne peut pas vivre l'expérience subjective d'un autre agent, mais on peut spéculer quant à sa réalité, par exemple par le biais de mesures objectives de signaux mettant en évidence les modalités auxquelles l'agent a accès. Pour la compréhension subjective, je pense aussi qu'un certain degré de localité spatiale et temporelle de l'agent est un aspect important, c'est-à-dire que ce qui fait qu'un agent est conscient est aussi lié à sa localité dans l'espace-temps. On ne peut pas juste éparpiller des neurones un peu partout dans le monde puis les relier en espérant que ça crée un agent conscient, ou se faire téléphoner des gens qui coopèrent pour simuler un agent. Mais bon j'en sais rien.
@oumdead9542
@oumdead9542 Жыл бұрын
Très bonne vidéo comme d'habitude! Mais je ne suis pas d'accord avec le fait qu'accepter l'argument de la chambre chinoise implique d'accepter qu'aucune IA ne sera jamais consciente. L'argument de la chambre chinoise souligne l'implausibilité de la conscience dans CE type particulier de réalisation d'une "fonction". Autrement dit, je pense que la bonne conclusion c'est une réfutation stricte de la thèse fonctionnaliste. Toute les réalisations d'une même fonction ne donnent PAS lieu au mêmes états mentaux, il y a des différences. Mais ça ne veut pas dire que la réalisation humaine est la seule qui donne lieu à des états mentaux. Un exemple encore plus radical serait donné par une variante plus extrême de la chambre chinoise, où au lieu d'exécuter un algorithme, l'homme consulte un gros livre dans lequel toutes les phrases sont déjà traduites (admettons que ce soit possible). Qui pourrait argumenter que dans ce cas, il y a un quelconque système "livre-humain" qui soit conscient? Le point est que la façon dont la fonction est réalisée compte. Finalement, je ne pense pas que les affirmations sur la conscience soient vides. À partir du moment où on admet que la conscience existe, ce sont des affirmations qui sont soit vraies, soit fausses. Elles sont aussi des affirmations importantes et pas des trucs dont on se fout. Je ne pense pas non plus qu'elles soient invérifiables. Il est possible que dans le futur on soit capable de comprendre quelles genre de systèmes algorithmiques ou physiques se corrèlent à la conscience chez les humains et les animaux (qui ont différents états de conscience qu'on peut utiliser pour faire des expériences, par exemple le sommeil, les états induits par des drogues, etc.) et que cela nous permette de répondre à ces questions.
@ElFazo
@ElFazo Жыл бұрын
Merveilleux un grand merci. J'ai adoré écouter Searle il est très accessible et très convaincant donc même si son discours est certainement imparfait je trouve que c'est un must hear
@remoitoujoursmoi5840
@remoitoujoursmoi5840 Жыл бұрын
J’avais déjà proposé l’argument de gpt qui prédit du texte, mais qui serait incapable de l’interpréter Et tu m’avais répondu « certes, mais en ajoutant à gpt un interpréteur, on obtient un tout capable de compréhension » Et ce qui a fini de me convaincre c’est une vidéo de micode sur sa chaine underscore sur des personnages dans un jeu avec une mémoire, un système de hiérarchisation des souvenirs, un modèle de langage, ect… Et en donnant à ces IA toutes les briques pour reproduire les différentes fonctions du cerveau, on a vu émerger des comportements très humain Finalement, dire que gpt ne comprends pas le texte qu’il écrit, c’est un peu comme dire du volant d’une voiture qu’il ne permet pas de freiner Le cerveau réalise tout un tas de fonction, et il faudra simuler chacune d’entre elle pour pouvoir comparer le cerveau à l’ia
@NicolasGin
@NicolasGin Жыл бұрын
Oui, il faudrait plusieurs structures avec des fonctions différentes et les connecter de manière intelligente. Le cerveau et le corps humain ne sont pas juste des fonctions découpées par zone comme une voiture ou un ordinateur (on ne peut pas dire "le cortex fait uniquement ça, le cervelet ça", c'est un peu plus subtil). Il n'en reste que le cerveau est juste une machine biologique très complexe, et les cerveaux des autres animaux des machines un peu moins complexes. Donc oui la limite va finir par être poreuse entre cerveau et machine
@kalgon57
@kalgon57 Жыл бұрын
@@NicolasGin On n'a pas besoin de donner la même plasticité à un cerveau de silicium qu'au cerveau humain pour en faire un cerveau évolué qui comprend. Le but n'est pas de reproduire des humains artificiels, mais de produire des entités qui sont intelligentes, même si elles diffèrent sur certains points.
@stephaner8735
@stephaner8735 8 ай бұрын
J'ai eu un prof de psychologie qui parlait de théorie systémique, il disait tout est écrit depuis Bateson. selon moi c'est cela croire que l'intelligence artificiel peut penser. Etre capable de comprendre les neurosciences cela nous donne l'impression d'avoir compris tout ce que nos ancêtres ne pouvaient pas comprendre, et comme tu dis "c'est pas faux" Mais selon moi nos ancêtres devaient avoir le même sentiment à chaque changement de paradigme. je dirais que l'eau ne peux pas avoir conscience du fait qu'elle est deux gaz, c'est un peu comme si je me disais je suis l'assemblage de mon histoire et de ma société, c'est pas faux, mais la sommes des parties n'est pas une addition (non somativité) la "qualité" émergeante distingue l'assemblage du nouveau système
@OzoneGrif
@OzoneGrif Жыл бұрын
Je suis content que tu utilises GPT-4 pour ton analyse. La plupart des influenceurs qui critiquent les Intelligences Artificielles se basent sur GPT-3.5 (la version gratuite), beaucoup plus robotique et moins "intelligente" que le 4.
@antoinerauzy
@antoinerauzy Жыл бұрын
La meilleure vidéo que j'ai vu sur cette chaine. Fantastique. Je suis informaticien et j'ai appris et compris des choses !!! Merci !!!
@remisurget7674
@remisurget7674 Жыл бұрын
Le passage à 23:48 avec Defakator c'est du génie, un "vrai" régal 😆 Bravo
@g.tacchi9941
@g.tacchi9941 Жыл бұрын
C'est dingue à chaque nouvelle vidéo je me dis : "bon bah voilà, c'est la meilleure vidéo de la chaîne"... Ce qui se trouve systématiquement contredit par mon visionnage suivant.
@lelouch1722
@lelouch1722 Жыл бұрын
Etant donné que ChatGPT a une nature stochastique (a une même entrée peut correspondre plusieurs sorties), est ce que cela rentre quand même dans le paradigme du computationalisme ? Ou alors on considère plutôt que la sortie est directement la distribution de probabilité en tant que telle, et qui est bien fixe cette fois.
@Ceelvain
@Ceelvain Жыл бұрын
Un trick courant (en machine learning, mais peut-être pas que), c'est de considérer que les nombres aléatoires sont en fait juste une autre entrée du système. Et ChatGPT fonctionne très très probablement comme ça. Il prend un ou plusieurs nombres aléatoires, puis applique un algorithme totalement déterministe. Comme l'intégralité des programmes stochastiques, en fait... Et sinon, en informatique, on a plutôt tendance à utiliser des générateurs pseudo-aléatoires. C'est juste une formule qui donne une séquence de nombre qui peut passer pour aléatoire. Le "vrai" aléatoire provient toujours de l'extérieur. Généralement d'une source radioactive, ou de phénomènes météorologiques.
@lelouch1722
@lelouch1722 Жыл бұрын
Ah tu veux dire qu'on ajoute la seed dans l'input, pourquoi pas...@@Ceelvain Mais on pourrait imaginer un générateur de nombre réellement aléatoire aussi (en ayant recours à des phénomènes quantiques par exemple)
@MrGustavier
@MrGustavier Жыл бұрын
L'argument de John Searle (the chinese room argument) ne s'applique pas à des réseaux connexionnistes. En effet, les prémisses de l'argument spécifient bien qu'il s'agit de ce qui s'appelle en informatique une machine de Turing ou "FSA" (finite state automaton) avec une "architecture Von Neumann" qui consiste en une liste d'instruction (un programme), de la mémoire, un processeur qui suit les instructions, et le moyen d'écrire et de lire en mémoire. Le cœur de l'argument de Searle est de faire la distinction entre la "syntaxique" et la "sémantique". Il veut montrer que, en suivant des instructions, et en étant capable de lire des symboles "syntaxiques", celui qui ne parle pas le chinois dans la chambre peut donner l'impression de comprendre le langage, et ici "comprendre" fait référence à la "sémantique" des termes, le sens des mots, alors qu'en fait il ne fait que des opérations "syntaxiques". Son argument peut alors se résumer facilement : P1 - Un FSA ne pourra jamais faire que de la syntaxe. P2 - Un esprit humain fait de la sémantique. C - Donc un FSA ne pourra jamais suffire pour construire un esprit humain. Le problème, c'est que justement, les réseaux connexionnistes (machine learning) ne sont PAS des FSAs... Ce ne sont PAS des machines de Turing. Et c'est pour ça que dans la littérature philosophique, de nombreux arguments sont mis en avant pour expliquer que, contrairement à un FSA, qui en effet n'a jamais accès à la sémantique, les réseaux connexionnistes ont quant à eux accès à la sémantique. Et qu'en fait ce que l'on appelle la "sémantique" est complétement réductible à la structure des neurones qui est reproduite par les réseaux connexionnistes. Cela signifierait que les modèles de langage tels que chatGPT ont bien un compréhension sémantique du langage. Ils disposent bien, ils ont bien accès à la sémantique, mais bien sûr, cela ne suffit pas à faire d'eux des esprits conscients. Ils manquent au moins, bien évidemment, d'une motivation propre. Attention à ne pas confondre la simple "intelligence" avec la "conscience" (vaste sujet).
@philippechaumont3505
@philippechaumont3505 Жыл бұрын
Pour moi, il viendra un temps où on sera incapable de distinguer une IA d'une personne humaine, y compris dans une discussion, y compris au sujet d'une image. La question de savoir si l'IA sera consciente ou non ne révèlera que notre incapacité à définir ce qu'est une conscience, cette propriété de notre cerveau émergente du fonctionnement de nos neurones.
@MonsieurPhi
@MonsieurPhi Жыл бұрын
Si par "conscience" j'entends le même type d'expérience en première personne que j'ai moi, c'est pas tant un problème de définition qu'un problème épistémologique : comment savoir que quelque chose d'autre que moi a une conscience. Pour les autres humains je peux me dire qu'un support biologique du même type produit des états de conscience similaires, mais ce sera plus compliqué pour des machines, particulièrement si leur principe de fonctionnement est à ce point différent comme c'est le cas pour les LLM.
@philippechaumont3505
@philippechaumont3505 Жыл бұрын
@@MonsieurPhi oui, je suis d'accord avec ta remarque, si du moins tu connais la nature de ton interlocuteur. Mais admettons que ton interlocuteur soit caché dans une "boîte" (non, pas dans la chambre chinoise ! :=) et que tu ne perçoives de lui que sa discussion ? Ca me rappelle le fonctionnement d'une montre à quartz et celui d'une montre mécanique dont tu avais parlé dans une précédente vidéo. Les deux mécanismes sont très différents, mais comme ils sont tous les deux cachés dans le boîtier, on appelle ces objets des "montres" tous les deux. Et je gage qu'un cueilleur-chasseur du paléolithique n'aurait eu aucun moyen de faire la différence entre les deux montres (sauf sur la durée de fonctionnement). Finalement, ne disons-nous pas "ceci a une conscience" quand il y a marqué "humain" sur la "boîte" et ceci n'en a pas quand il y a marqué "IA" sur la boîte ? Mais en aucun cas parce que les façons de construire la discussion pour l'humain et l'IA cachés sont ("fondamentalement ???" ou "à ce point ???") différentes l'une de l'autre, ce qui me permettrai, moi humain, de faire la différence. Par contre j'ai l'impression que nous disposerons bientôt d'IA capables de reconnaitre une IA dans la boîte. Ne serait-ce pas étonnant que l'homme ne sache pas faire la différence, alors que l'IA le pourrait un jour ? Ce jour-là, c'est à l'IA qu'il faudra demander ce qu'est la conscience, ce "truc" qui empêche les humains d'être aussi performants que les IA ? ;=)
@OmbreFelonne
@OmbreFelonne Жыл бұрын
​@@MonsieurPhi Sans exprimer clairement ce qu'est la conscience il me parait impossible de faire quoi que ce soit avec y incompris le chercher chez "autrui"
@thear1s
@thear1s Жыл бұрын
C'est déjà le cas aujourd'hui pour les chatbots/supports techniques basés sur le texte. Vu que le domaine de discussion (mon problème/mon besoin avec produit X) est très limité, la seule chose aujourd'hui qui différencie l'opérateur humain et le LLM ce sont les fautes de frappe. C'est très malheureux parce que je pense que tout le monde devrait avoir le droit de savoir quand il parle à une IA ET l'humain qui répond au chat mérite qu'on s'adresse à lui comme à un humain et pas comme à une machine.
@nomindisponible5420
@nomindisponible5420 Жыл бұрын
Déjà aujourd'hui je connais des gens qu'il est impossible de distinguer d'une IA. Ils sont tous zététiciens.
@randomdummy3391
@randomdummy3391 Жыл бұрын
Quand j'ai entendu la première fois l'argument de la chambre chinoise dans le cadre des IA, j'avoue que je ne l'avais absolument pas compris comme ça. J'en avais une compréhension qui me paraissait beaucoup plus pertinente et intéressante. En fait je le comprenais non pas comme "la machine ne comprend pas" mais comme "la machine ne comprend pas de la même façon que nous". En fait on dit que la chambre chinoise parle chinois, mais qu'entend-on par parler ? Parce que oui on serait incapable de mettre en défaut cette chambre en lui parlant chinois, mais l'individu à l'intérieur lui n'est pas capable de s'exprimer en chinois, il n'est pas capable de dire ce qu'il veut dire en chinois, seulement de créer des suites de caractères. De même il ne comprend pas les questions qu'on lui pose, ou du moins il ne les comprends pas comme il les comprendrais si on les lui posais dans sa langue. Si par exemple on lui demandait son nom, il ne le comprendrait pas, et puisqu'il suit un algorithme il a toute les chances de se tromper sur sa réponse, tout en fournissant une réponse logique. Ça me paraît d'ailleurs une façon très élégante de mettre en défaut la chambre chinoise en testant une compréhension objective. Si un individu connaît le nom de la personne à l'intérieur de la chambre chinoise, et demande ce nom à la chambre chinoise en chinois, il verra que la machine ne comprend pas la question, puisqu'elle sera incapable de répondre correctement. Et c'est là justement l'intérêt que je voyais dans l'argument. Quand on demande à chatgpt de faire un calcul, l'algorithme ne comprend pas qu'on lui demande un calcul justement. Il a bien une compréhension de ce qu'on lui demande, mais qui s'exprime d'une façon tout à fait différente, en terme de probabilités et de prédictions de tokens. Et pour cette raison il peut tout à fait fournir une réponse cohérente tout en se trompant. Et quand on creuse un peu la chose, on en vient à toucher des questions que je trouve fascinante, à savoir tout bêtement c'est quoi comprendre ? Je crois qu'on pourrait définir la chose comme le fait d'établir des relations pertinentes entre des éléments, assez simplement, et ça a des conséquences très intéressantes sur ce qu'on peut dire d'une IA comme chatgpt. Parce qu'une IA comme chatgpt établit des relations tout à fait pertinente entre les mots, ce qui lui permet de répondre de façon tout autant pertinente, et donc effectivement de comprendre. Et le processus par lequel nos cerveaux humains comprennent les choses est certainement le même : établir des relations entre les choses, mais selon des schémas radicalement différents. Ces différences sont en fait surtout dûes au fait qu'on a plus d'éléments et de fonctions à disposition que chatgpt. Ce qui nous permet par exemple de répondre correctement à la question "combien font 2 + 2 ?", c'est d'une part que l'on est capable de faire des additions simples, ça fait partie des fonctions que notre cerveau possède, et que chatgpt ne possède pas (il a pas de calculette intégrée), et d'un autre que l'on est capable d'établir un lien direct entre la question et cette fonction. Ce qui nous permet de répondre quand on nous demande notre nom, c'est qu'on a accès à cette information, et que l'on est capable d'établir une relation entre la question et cette information. L'homme dans la chambre chinoise a lui aussi accès à ces éléments et ces fonctions, de par son incroyable ✨ groservo d'humain ✨, mais il n'a pas la capacité d'établir une relation entre les questions qu'on lui pose et ceux-ci, et c'est en cela qu'on peut dire, de façon un peu grossière, qu'il ne comprend pas. Pour prendre un autre exemple donné dans la vidéo, ce qui fait que nous comprenons que lorsqu'on bouge la table, le verre dessus bouge aussi, c'est le fait qu'on ait dans notre cerveau une fonction "moteur physique" intégrée, qui nous donne une certaine compréhension intuitive de comment les objets bougent et interagissent entre eux (on observe d'ailleurs ce moteur physique même chez les nourrissons ; très tôt, ils savent déjà intuitivement que les objets tombent par exemple), ainsi que le fait qu'on est capable d'établir une relation entre la description de ce verre sur la table et ce moteur physique. L'algorithme établit lui aussi tout un tas de relations entre les tokens, et arrive à la même conclusion, et il a bien une certaine compréhension de la chose, mais qui n'est pas du tout la même que la nôtre. Il ne dit pas que le verre bouge aussi parce que les forces de frottement le maintienne à sa position sur la table, mais parce que ayant accès cette suite de tokens décrivant la situation, la continuation logique telle qu'il l'a apprise est que le verre se déplace aussi. Et du coup on se rend vite compte avec cette définition que, n'en déplaise à Enthoven, bah si les machines pourront très certainement penser comme nous un jour, pour peu qu'on leur donne toutes les fonctions et éléments que nous avons, ainsi qu'un algorithme capable d'établir des relations entre toutes ces choses de la même façon que nous le faisons.
@randomdummy3391
@randomdummy3391 Жыл бұрын
attention je dis tout ça, je suis pas philosophe moi je suis juste en train de discerter au comptoir avec quelques grammes dans le sang x) j'imagine que soit je dis des bêtises, soit je dis des banalités pour les philosophes sérieux
@lisaroux8933
@lisaroux8933 Жыл бұрын
Bon, je suis encore pas mal en désaccord avec ce que tu dis, j'ai l'impression à chaque fois que tes vidéos sur ChatGPT sont un peu biaisées à vrai dire :-) Tu dis que ceux qui utilisent l'argument de la chambre chinoise pour parler de comprendre dans le sens subjectif disent qu'un algorithme ne pourra jamais rien comprendre, même dans mille ans. Non, il y en a plein qui disent simplement que ce n'est probablement pas le cas maintenant. Ce n'est pas parce que Raphaël Enthoven le dit que c'est le cas de tout le monde (au contraire, même, peut-être... :-) ) Ensuite, dans cette vidéo, en gros tu dis (arrête moi si je me trompe): rien ne vous prouve que les IA génératives n'ont pas de conscience. Alors bon, déjà, il me semble que rien ne prouve non plus qu'une IA générative a une conscience. On peut y croire, un peu comme on a foi en Dieu, ou comme on pourrait croire qu'une pelle a une conscience (donc sur la base d'aucune preuve), mais je ne vois pas ce qui incite à le penser. Et je trouve un peu facile d'écarter l'argument de Yann LeCun sur la base de son exemple, alors que ce n'était qu'un exemple justement. Ca n'invalide pas son argument. Quels sont tes arguments pour penser qu'une IA a un conscience? Car même si on ne peut en effet pas prouver (ni, donc, l'affirmer avec certitude) que l'IA n'a pas de conscience, on a, il me semble, de bons arguments pour le penser (perso je te donne deux de mes arguments en bas). Et ce n'est pas dualiste de penser qu'une IA n'a pas de conscience. Au contraire même, parce que c'est au contraire en partie parce qu'on a et qu'on est notre corps, qu'on a une conscience, me semble-t-il. Et tu dis que GPT4 n'est entraîné que sur des textes, donc il ne peut pas faire l'expérience du bleu... Mais si c'est que tu penses, alors tu considères aussi qu'un aveugle ne peut pas comprendre (au sens subjectif) ce qu'est le bleu sans en avoir vu? De mon point de vue, dire que ChatGPT4 ne comprend probablement pas ce qu'il lit/dit au sens subjectif, c'est au contraire basé sur l'idée qu'il y a un phénomène émergent dans certains systèmes complexes, et en l'occurrence les systèmes biologiques, à partir de la matérialité physico-chimique (donc pas dans une perspective d'âme séparée du corps mais d'esprit et de corps intrinsèquement liés). Pas une âme séparée du corps, donc. Et pour finir, dans ce que je considère être de bons arguments, il y a selon moi, par exemple : * On connait un peu les modèles de langage et ce qu'il y a dedans, puisqu'on les a codés. Ils sont conçus avec une finalité précise et ils font exactement ce pour quoi ils ont été conçus. Ce n'est pas le cas des systèmes biologiques (sauf à croire en Dieu). Pas de phénomène d'émergence observé jusqu'à là chez ChatGPT. * Une IA a besoin d'énormément de données pour concevoir son système de représentation du monde. Si tu montres un chat à un enfant, il saura ce qu'est un chat. Pour que ton IA soit capable de reconnaître un chat, il y besoin de centaines de milliers de photos de chats. Pourquoi? Parce qu'il ne comprend pas, au sens subjectif, ce qu'est un chat: le chat n'est rien pour lui, il ne reçoit pas la représentation dans son esprit. Il raisonne uniquement à partir de pixels et de stats. Voilà, moi je me méfie pas mal de cette volonté qu'ont pas mal de gens à vouloir voir une conscience dans l'IA... parce que bon, c'est un peu le rêve suprême de l'humain, non, avoir créé quelque chose qui pense? :-)
@jeremybelot8147
@jeremybelot8147 Жыл бұрын
Super vidéo encore et toujours, ça devient lassant... Étonnamment de tous ce que j'ai pu voir sur les capacités de ChatGPT, je crois que le dessin de la licorne est celui qui m'a le plus scotché ! Comment à partir d'une base de données textuelle, toutes gigantesque qu'elle soit, il est possible de se faire une image assez claire d'à quoi ressemble une licorne et d’interpréter cette image à partir de triangles, d'ellipses et de rectangles dans un langage informatique ? Il y a des étapes qui me manquent ! Combien de textes de son corpus décrivent précisément une licorne ? Combien associent les formes de cette description à des formes géométriques basiques ? Combien associent ces formes géométriques à du code processing ? C'est bluffant !
@heyfellows
@heyfellows Жыл бұрын
Je viens de comprendre que j'ai passé ma scolarité à me comporter comme une chambre chinoise.
@nilsou1704
@nilsou1704 Жыл бұрын
Excellente vidéo, en tant que chercheur en IA je suis totalement d'accord avec vous. D'ailleurs, c'est rigolo, à chaque fois que vous présentiez un exemple chelou comme la citation de LeCun, j'étais prêt à saisir mon clavier pour dire « mais, mais, c'est n'importe quoi », ce qui est inutile vu que vous démontrez très clairement à chaque fois que c'est effectivement n'importe quoi dans la partie suivante de la vidéo ^^. Pour LeCun en l’occurrence, il est évident que les textes contiennent suffisamment d'information pour en déduire les lois de Newton, la gravitation etc, bref, un modèle du monde suffisant pour savoir que l'objet posé sur une table se déplace avec la table. J'ai vu des démos en ce sens en conf il y a déjà ... 10 ans ou presque ... (par analyse de texte ou par observation du monde) bref, il est complétement à la rue le bonhomme ... Comme souvent dans votre vidéo j'allais dire un peu la même chose que vous à la fin : il est évident, et c'est déjà fait sur différent modèle en recherche, qu'on peut nourrir une IA avec des données autre que du texte, c'est parfaitement agnostique des données d'entrée en l’occurrence. On le fait d'ailleurs déjà sur des modèles du type de celui utilisé par MidJourney etc. (c'est une entrée texte qui donne une image, mais faire l'inverse n'a aucune difficulté technique, on le fait dans ce sens parce que c'était le plus intéressant, c'est tout). Enfin il manque un exemple, je pense, qui aurait pu enrichir énormément votre propos à la fin : quand nous lisons un livre de science fiction, ou des livres écrits dans un passé lointain, nous arrivons bien à nous faire une représentation de mondes qu'on a jamais « connus » en s'appuyant simplement sur une description textuelle. Un texte comprends donc bien assez d'information pour se construire une représentation du monde qui tient la route. Ha, et il aurait pu être intéressant de citer Turing dans la bataille : à savoir qu'une autre réponse à la chambre chinoise est de dire que comme il est impossible de définir cet aspect « subjectif » alors faire un système qui « mime » est équivalent factuellement. Vous allez là dessus quand vous dites qu'on a pas de preuve qu'un autre humain à bien une intériorité. Bref on a pas de preuve qu'une autre personne n'est pas une chambre chinoise. À mon sens (et au sens de Turing) c'est le point majeur. Je pense que ça mériterait plus de place dans le propos. Voili voilou pour mes commentaires. Une excellente vidéo sinon !
@JohSmith
@JohSmith Жыл бұрын
Est-ce que tu pourrais créer une expérience de pensée et nous la présenter ? Ce serait intéressant d'en discuter, la critiquer voire de collaborer pour l'améliorer.
@kiliansiraut2806
@kiliansiraut2806 Жыл бұрын
super vidéo👍👍👍👍 Au début je pensais que chat gpt ne comprenais rien, qu'il faisait juste des "statistiques" mais je me dis maintenant que c'est une sorte de compréhension (nous on comprend via les définitions, lui via ces "probabilités") Par contre je ne pense pas qu'il sache/se rende compte qu'il comprend (on a des neurones dédiés à l'existence de notre conscience et ça m'étonnerait qu'une partie de son réseau de paramètre y soit dédiée)
@retrononomusic
@retrononomusic Жыл бұрын
Dis, je farfouille pas mal sur le net pour me renseigner sur les IA et je peux te dire que vous etes pas bien nombreux à remettre chatGPT à sa place. Force à toi!
@numero6285
@numero6285 Жыл бұрын
Le plus sage serait d’en reparler dans dix ans.
@tristanschoenloh2470
@tristanschoenloh2470 Жыл бұрын
trop cool de voir Defakator ! Très bonne vidéo.
@colinpitrat8639
@colinpitrat8639 Жыл бұрын
J'adore l'argument du tweet au début : 'ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." Donc l'humain a été créé pour être conscient ?
@TheRoro390
@TheRoro390 Жыл бұрын
L'humain (et tous les animaux) ont évolués pour être conscients oui, parce que ça aide a survivre. Chaque génération durant l'évolution entre le stade algue et animal créant petit à petit des êtres de plus en plus conscients
@artsenor254
@artsenor254 Жыл бұрын
... Tu viens de donner du grain à moudre aux créationnistes, là. xD
@chanseyinthehood8415
@chanseyinthehood8415 Жыл бұрын
​​​@@TheRoro390On en sait rien. Ça paraît logique et raisonnable mais en fait c'est bien plus compliqué que ça. On peut même élargir ça à l'intelligence en général, on ne sait pas forcément comment elle a émergé. On peut très bien imaginer que les premières "formes de consciences" ou d'intelligences chez les animaux ne soient pas apparuent pour elles-mêmes, pour l'avantage qu'elles procuraient, mais juste en tant que sous-fonction d'autre chose qui lui était sélectionné à ce moment. Pour prendre un exemple: l'intelligence est plus ou moins corrélé au coefficient d'encéphalisation, le rapport entre la taille de la boîte crânienne et la masse de l'individu, entre les différentes espèces. Et comme le cerveau est un organe très énergivore, il produit beaucoup de chaleur. Ainsi donc, peut être que l'intelligence ne serait qu'un sous produits de la sélection de cerveaux plus gros qui permettent de produire plus de chaleur dans des environnements froids ! Voir l'évolution des Cétacés ou des Hominidés ! Tout ceci reste très théorique, mais montre bien que pour s'assurer qu'un trait ait évolué pour tel ou telle raison, c'est très compliqué. Et puis la présentation d'une "échelle" de l'évolution entre les "algues" (c'est trrrèèèèsss large) et les animaux c'est un peu foireux... Je ne vois pas en quoi une algue Volvox serait moins conscient qu'une éponge...
@TheRoro390
@TheRoro390 Жыл бұрын
@@chanseyinthehood8415 Les algues et les animaux c'était pour illustrer l'évolution de manière générale, des premières formes de vie simples aux plus complexes actuelles. Et pour l'intelligence, ca ne change rien qu'elle soit apparue comme sous-produit ou pas. Le fait est que l'intelligence (au sens très large, donc plante et champignons aussi) permet aux espèces de mieux survivre puisque toutes les espèces vivantes sont intelligente (à des degrés variés). Ma formulation n'était pas bonne, les êtres vivants n'ont pas "évolués pour" mais plutôt "évolué vers". L'argument de base c'était la comparaison avec "ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." hors oui l'humain (et la vie de manière générale) à été entrainée à être consciente. Que ca soit un sous-produit ou non. Si je fait de la natation pour nager plus vite, et qu'au final en sous-produit j'ai des supers abdos, c'est mon entrainement qui m'a donné ces abdos. Pour l'aspect "créé pour" c'est plus difficile, mais si on voit la vie comme une seule et unique réaction chimique s'étant diversifiée dans ses formes au fil de sa multiplication, l'apparition de l'homme peut être vu comme étant "créé" par ses ancêtres dans "l'objectif" de mieux survivre au monde (des tas d'autres "espèces" ayant été créées dans ce but (chaque enfant) et ayant échoué) Et pour l'éponge et l'algue, j'ai pas de connaissances suffisantes pour savoir laquelle à une meilleure conscience du monde, surtout étant donné que les deux sont à la limite entre animal et végétal (et donc ont probablement des niveaux de conscience très proches)
@chanseyinthehood8415
@chanseyinthehood8415 Жыл бұрын
@yukiyuno7267 Je suis d'accord avec le début du commentaire. Je ne suis pas sûr pour l'utilisation du terme "objet" : je veux dire, n'importe quoi peut être un objet d'étude non ? De plus, je ne vois pas en quoi cela serait de la branlette intellectuelle sur rien du tout.
@philwalt2753
@philwalt2753 Жыл бұрын
Très intéressant ! J'aurais aimé une petite précision sur le cerveau humain : lorsqu'on "apprend", est-ce qu'on est si différents d'une IA ? Comment apprend-on ? Par accumulation de données, par comparaisons et corrections successives. Là encore il est difficile de clairement nous différencier d'une IA qui serait très performante. Un enfant de 4 ans fait des erreurs de langage et compréhension amusantes, et progresse jusqu'à une "vraie" compréhension du langage. La question des IA reste donc bien ouverte, merci pour cette vidéo !
@laStar972chuck
@laStar972chuck 11 ай бұрын
Le segment pub NordVPN réalisé par ChatGPT c'est épique, franchement ! XD Et le résultat est honnête et pas dégueu en plus !
@pasdavoine
@pasdavoine Жыл бұрын
Cette vidéo est vraiment une tuerie. Comme d'habitude elle explique très bien beaucoup de concepts pas si simple pourtant à comprendre. Ce qui est intéressant c'est la difficulté que l'on a, semble-t'il, à comprendre ce qu'est un phénomène émergent, malgré le fait qu'on les étudie depuis un moment. Mais justement ce phénomène d'émergent est assez magique puisque soudain (ça fait penser à la percolation qui est soit très partielle soit infinie). Notre cerveau à vraiment du mal avec tout ce qui est grande quantité, de toute façon car on en a pas vraiment l'expérience subjective dans notre quotidien (ouais, on "comprends" pas les grandes quantités en fait ! Et on "comprend" moins l'émergence).
@spiritualiteathee1638
@spiritualiteathee1638 Жыл бұрын
Concernant la dimension subjective de la compréhension, j'ai l'impression qu'il s'agit d'une sensation et que cette information pourrait être aussi bien déterminée par une IA comme le fait d'évaluer si elle pense avoir compris. D'un point de vue fonctionnel, générer la sensation d'avoir compris est une fonction comme une autre. Nous avons l'impression que nous comprenons parce que nous avons une sensation de compréhension, et si nous avons au contraire une sensation de confusion, on pourra analyser davantage pour déterminer ce qui ne nous parait pas cohérent par exemple. Et si par compréhension on parle de quelque chose de plus complexe, j'imagine qu'on pourra l'implémenter avec une IA davantage perfectionnée.
@aureliacalvas2035
@aureliacalvas2035 Жыл бұрын
Ah merci ! Ça me ramène à un cours de philo cognitive de 2008 donné par Cédric Brun à Bordeaux... Nostalgie...
@Medar_Ellianne
@Medar_Ellianne Жыл бұрын
J'ai hâte de voir les collaborations entre toi et l'Ami du Bon Goût sur cette chaîne du coup :p Sinon, tellement de raisons de liker cette vidéo, c'est pour ça que j'ai décidé de laisser un commentaire en plus :3 vraiment très bonne vidéo je trouve !
@PlixRaph
@PlixRaph Жыл бұрын
Je suis rentré dans la vidéo en pensant en connaître le contenu et en fait pas du tout. C'était très chouette, merci pour ces éclaircissements, je dirais (un peu) moins de conneries et serai un peu plus prudent qu'en je parlerai de ce sujet.
@kalgon57
@kalgon57 Жыл бұрын
Je voulais faire plusieurs remarques : 1) Nous sommes nous aussi des machines, donc selon monsieur E, nous ne serons jamais capables de penser, c'est dommage :( 2) L'Homme s'est longtemps cru supérieur à l'animal avant de se rendre compte qu'il en était un lui aussi et que tout était interdépendant. Ensuite il s'est longtemps cru au centre du monde, avant de se rendre compte qu'il n'était qu'une petite poussière à la surface d'une autre petite poussière dans l'immensité de l'univers. Maintenant il se croit supérieur et unique par son intelligence mais je pense que là aussi il finira par changer d'avis. Voilà donc déjà 2 fois que l'Homme a ravalé son égo et ce n'est pas terminé. 3) Certains disent que la machine ne comprend pas, mais en fait c'est nous qui ne comprenons pas. Qui est capable vraiment de comprendre cette méga-formule mathématique générée par GPT ? Personne ! Nous nous contentons d'y mettre des entrées et de contempler les sorties. 4) Je crois pas mal dans la théorie que un jour l'IA va franchir le seuil critique où elle pourra s'auto-améliorer, créer des générations successives avec une évolution très rapide, et que sans que nous comprenions comment, tout à coup ne ne soyons plus. C'est une hypothèse qui selon moi est très sérieuse et s'ajoute aux autres possibles fin de l'humanité (guerre nucléaire, dérèglement climatique, pandémie). La chute d'une météorite est amha beaucoup moins probable que tout ça.
@henkfermeul3720
@henkfermeul3720 Жыл бұрын
Super vidéo ! J'aurais bien aimé que tu parle de l'argument des propriétés émergeantes. Ce qu'on appel "intelligence" implique souvent des façons inattendue de répondre à un problème imprévu. Dans le cas de chat GPT ça pourrait être de "comprendre" qu'un mot avec un fort score de prédiction n'est pourtant pas le plus approprié (comme lorsqu'il invente des présidents). Ou, par exemple, qu'il se mettent à comprendre spontanément le système de citation de la litérature scientifique.
@vendettagorgon3639
@vendettagorgon3639 Жыл бұрын
Quelle énorme masterclass de trouver Defekator dans cette vidéo...
@vul-kyoul8839
@vul-kyoul8839 Жыл бұрын
Une pointure ce petit bonhomme, Toujours un plaisir de t'ecouter. Et sa fait plez de revoir defekator et l'ADBG :)
@Also_sprach_Zarathustra.
@Also_sprach_Zarathustra. Жыл бұрын
Tu peux demander à ChatGPT de corriger ton orthographe, si tu as du mal avec Ça (et pas « sa » 😨), Tu verras ça permettra de donner beaucoup de visibilité à tes commentaires, car les lecteurs auront moins envie de vomir 😇🥰
@vul-kyoul8839
@vul-kyoul8839 Жыл бұрын
@@Also_sprach_Zarathustra. C'est si joliment dit :D
@colonel_cookies_
@colonel_cookies_ Жыл бұрын
J'ai beaucoup ri au passage de Defekator, merci de l'avoir inclut, je pensé à lui !
@fabrik6ko
@fabrik6ko Жыл бұрын
Super démonstration, je me demandais où tu voulais en venir au milieu de la vidéo. Mais tu as répondu à mes interrogations à la fin. Je pense que le chatGPT actuel ne "comprend" pas, mais c'est aussi le cas pour l'humain. Car la plupart du temps, un humain ne fait que traiter des données qu'il reçoit de ses différentes sources d'informations en fonction de ce qu'on lui a éduqué. Si personne dit a un enfant ce qu'est le bleu, cet enfant saura faire la différence entre deux couleurs (sauf s'il est daltonien) mais il saura pas dire ou écrire ce que c'est. Pour le moment, un humain cumule juste plus d'information durant les quelques dizaines d'années d'apprentissage de ses ainés ce qui donne une impression d'intelligence plus évolué que les IA mais c'est qu'une histoire de temps pour que l'IA ai autant de donnée que les humains.
@shadowwolf3127
@shadowwolf3127 Жыл бұрын
je pence que si on veux se poser de question sur l'IA il est préférable de regarder ce que des série comme westworld abordent plutôt que d'écouter RTL l'imagination est propices a la réflexion pas le dénis
@bertrandpavlovsky5012
@bertrandpavlovsky5012 Жыл бұрын
Bonjour, merci pour cette super vidéo! Au risque de dire une bêtise, il y a peut-être quelque chose à aller chercher du côté de la théorie des formes pour argumenter l’aspect de compréhension subjective. Si l’on estime que cet aspect de la conscience nécessite de pouvoir jongler avec des représentations non sensorielles des concepts (d’où le fait de parler de « forme », mais l’approximations est peut-être un peu cavalière), alors on peut imaginer que cet aspect sera beaucoup moins facilement accessible à une machine. En tous cas les expériences de pensée autour du sujet et du fonctionnalisme en général sont passionnantes à suivre, bravo!
@conorfromouterspace
@conorfromouterspace Жыл бұрын
Je me disais que j'avais déjà entendue le terme chambre chinoise, j'avais vu la vidéo de defakeator !
@samuelblarre4522
@samuelblarre4522 Жыл бұрын
Merci pour cette vidéo explicative. J'ai l'impression d'avoir appris quelque chose alors que j'avais vu la chambre chinoise dans la vidéo de Defekator sans me poser de questions.
@marcseptcent8794
@marcseptcent8794 Жыл бұрын
Toujours très interessant (à vitesse réduite pour moi!...)! Mais je voudrais juste faire remarquer qu'en l'absence de glucose+oxygène la conscience humaine s'arrête...tout comme l'IA sans électricité!! Rien ne prouve que l'électricité ne puisse aussi générer de la conscience comme le mélange glucose+oxygène!!! ... car comme cela a été très bien dit l'algorithme peut très bien être implémenté sur n'importe quel support et sur n'importe quelle échelle du virus proteinique qui mute, à l'humain qui seul(?!) "conscientiserait", en passant par la bactérie qui s'adapte à l'antibiotique, le protozoaire qui phagocyte son adversaire, l'arbre qui recherche la lumière, le crapaud qui appelle sa compagne ou ma chienne adorée qui se frotte à moi quand elle a faim😂😂😂!!!! Par ailleurs combien de personnes disposent de "machines virtuelles" (idéologies, religions, éducation!...) dans leur tête et les jugent indissociables de leur individualité consciente et issue de leur propre libre-arbitre.... avant d'en changer?... (PS: ennervant le petit bruit de fond au piano :-(
@leiolevan9527
@leiolevan9527 Жыл бұрын
Je conseille à tous les vidéos de Rob Miles sur computerphile sur ces questions et d'autres autour de l'IA. En plus de celle de Mr Phi bien sûr (et de Defekator) Et de l'ami du bon goût !
@TheLboubou
@TheLboubou Жыл бұрын
Au final la base pourrait peut être de rappeler que c'est un model et qu'en tant que model ça répond à un "intérêt" assez commune (même si je ne sais plus d'où ça vient) qui est qu'un model n'a pas à être réellement fidèle à la réalité mais doit pouvoir apporter une réponse (sortie) cohérente/proche de la réalité. (cf model qui simule les inondations par ex.) Pour les model de langage on pourrait donc voir ça comme ça : en soit ils ne "comprennent pas" le langage (ils ne vont pas forcément réfléchir au langage comme nous, avec ses règles de constructions etc) mais son capable avec leur programme (aussi peu fidèle à la réalité) d'avoir en sortie un langage cohérent. Pour ce qui est déjà de la base c'est à dire sortir des phrases cohérentes. On peut aussi appliquer ça à ce qui est montré fin de vidéo avec les images, ça ne va pas forcément raisonné comme on le voudrait mais reste capable de simuler, d'une manière plus ou moins éloigné à notre façon de faire, au point de sortir un résultat cohérent. En tout cas ça m'a fait penser à ça. Je ne sais pas à quel point une telle réflexion se situe dans l'appréhension de ChatGPT et la question de la compréhension subjective ou objective ... ni même si un chemin de compréhension/exécution vaut plus qu'un autre.
@leodutriaux3748
@leodutriaux3748 Жыл бұрын
Même en connaissant bien l'argument de la chambre chinoise, c'était une super vidéo ! Juste dommage que tu n'aies pas cité Harnad (1990) et son argument du manège pour parler du problème de l'ancrage des symboles, je suis sûr que tu aurais pu en tirer quelque chose de drôle :)
@macbidulle8487
@macbidulle8487 Ай бұрын
S'il y a bien quelqu'un qui singe la profondeur, c'est Enthoven. Et finalement, l'intériorité aussi car il est devenu une baudruche gonflée de suffisance : il est tellement plein de lui-même qu'il ne reste rien, aucune place pour une vraie pensée ou une vraie émotion. C'est terrible, les médias détruisent tout.
@bobiboulon
@bobiboulon Жыл бұрын
35:11 Cette expérience de dessin de licorne fait écho à une chose qui me tourne dans la tête depuis très tôt dans ta vidéo. Déjà, j'étais d'avis que la chambre chinoise peut comprendre le langage sans comprendre les mots, et donc sans forcément comprendre ce dont elle parle, parce qu'il manque en effet les autres sources d'information, comme la vue ou l'ouïe par exemple. Et par "chambre chinoise", j'étends ça d'une certaine manière à chatgpt. Du coup j'ai imaginé une personne qui n'aurait jamais vu d’ornithorynque. Admettons qu'on lui décrive ce sublime animal, la personne saura alors s'en faire une représentation mentale, mais saura-t-elle réellement ce qu'est un ornithorynque? Par exemple, aussi imaginative et douée en dessin soit-elle, saura-t-elle me le dessiner? Et là, j'ai commencé à avoir un millier de questions, dont: la seule information de ce à quoi ressemble un ornithorynque est-elle nécessaire pour comprendre ce qu'est un ornithorynque? Si oui, qu'en est-il des aveugles? Si j'imagine un aveugle qui a lu toute la presse scientifique sur les ornithorynques, je suis à peu près certain qu'il saura ce qu'est cet animal beaucoup mieux qu'un enfant qui viendrait d'en voir un dans un zoo. Il est ainsi évident qu'il n'est pas nécessaire de, par exemple, voir (cécité), d'entendre (surdité) ou de se faire une image mentale (aphantasie) des choses pour comprendre ce qu'elles sont. A part, sans doute, les choses qui ne reposent que sur l'expérience d'un sens. Un aveugle ne saura jamais ce qu'est le bleu, par exemple. Du coup, chatgpt comprend-il ce dont il parle, à l'exception des choses dont il ne peut faire l'expérience, comme la couleur, les formes, le son, la douleur, et ainsi de suite? Et j'en étais à peu près là de mes réflexions quand tu viens avec cette expérience de demander à chatgpt de dessiner une licorne. De toute évidence, chatgpt n'a jamais vu de rose, ni perçu de cercle ou de segment, et pourtant, il est capable de dessiner une licorne avec des cercles, des segments et des couleurs. Certes, il n'utilise pas ses petites mains pour prendre des crayons de couleur et une feuille de papier, mais ce ne sont que des outils. Il utilise d'autres outils qui lui sont accessibles: un langage de code, un algorithme, des instructions. Ce qui a passablement fait dérailler le train de mon raisonnement. Du coup, je ressors de cette vidéo avec encore moins de certitudes et plus de questions qu'en y entrant. Mais c'est un peu le but, non? :D
@zi_dritz
@zi_dritz Жыл бұрын
Je cherchais ce commentaire, je me suis fais la même réflexion. Entièrement d'accord avec la cécité la surdité et tout le reste. Pourquoi est ce qu'une entité qui n'aurait qu'une modalité de "cognition" (ici du texte) ne pourrait absolument pas comprendre ce qu'elle manipule.
@RazHalGuhl
@RazHalGuhl Жыл бұрын
35:11 J'imagine bien ChatGPT en sueur en train de chercher "où se trouve la corne sur une licorne?" et avoir pour réponse "sur sa tête" et BAM! Il replace le triangle "corne" en contact avec le bord du rond "tête" dans le code parce que "sur" implique un "contact" entre les deux objets... enfin... d'après un texte! Bref, tout ça pour dire que ChatGPT est l'enfant à problème de Google et Dictionnaire, et il grandi si vite, c'est émouvant!
@inenarrable1298
@inenarrable1298 Жыл бұрын
J'aimerai juste remonter un souci dans vos montages (et d'ailleurs, c'est un "péché" de nombreux vidéastes, faites passer le message) : vous mettez beaucoup d'annotations en incrustation, mais l'affichage est fugace. Donc pour les lire, on doit se mettre en pause. Et là... le texte, souvent mis trop bas, est à demi caché par la barre de défilement de la vidéo... et on perd la moitié du message (ou disons que cela devient pénible à lire) Ce serait bien de vérifier la lisibilité des incrustations en testant la mise en pause sur ces temps de la vidéo. Pareil d'ailleurs pour les incrustations en fin de vidéo lorsque il y en a. Sinon, j'aime bien ces annotations, hein. C'est juste que j'aimerai pouvoir bien les lire !
@lucharbour2009
@lucharbour2009 Жыл бұрын
Vraiment, oui le mot VRAI est dans vraiment, excellente. Je pense que c'est la plus meilleure sur tout ce que j'ai écouté ici ( depuis des années..., d'ailleurs, qu'est-ce qui se passe avec le double maléfique ?...) Bref, merci. Tellement riche. Leçon de diplomatie et de savoir vivre avec Defekator, humour, petit 'inside' toujours marrant. Tout y est. Maintenant pour le fond, il me semble que ce qui émerge c'est cet impression récurrente que j'ai que la problème des IA, depuis virtuellement Turin, ce n'est pas la question qui est toujours posée : est-ce que les machines peuvent ou pourront penser un jour mais plutôt est-ce que nous les humains pensons vraiment ?. J'ai le vague impression que ceux qui cherche à tout prix à démontrer qu'une machine ne peut "penser " plus ou moins inconsciemment cherche à défendre que les humains pensent... il me semble que pour affirmer un , il faut d'abord démontrer l'autre et ça devient beaucoup moins clair quand ça se produit..
@taeshya
@taeshya Жыл бұрын
Je viens de piger un truc vraiment profond par rapport a la précision sur le connasmissance d'un concept via un autre ancrage. De ce point de vue, fort pertinent ce qui manque à ses modèles ce sont les sens, c'est eux qui permettent aux humains d'encrer des concepts déjà via plusieurs canaux mais sûrement cela est lié au final à la subjectivité. Il serait intéressant de coupler un modèle de langage avec des capteurs pour associer la compréhension de concepts avec une experience sensorielle. Exemple, pour une couleur, si cela est couplé à des capteurs de longueurs d'onde et un modèle d'ia qui met en relation les informations sensorielles et textuelles, j'ai le sentiment que ça serait intéressant comme architecture et très prolifique ! Edit: j'avais posté avant la dernière minute de vidéo, on en vient à la même conclusion !
@Harfaust
@Harfaust Жыл бұрын
Cette distinction entre parler du bleu et faire l'expérience de la couleur bleue, c'est exactement ce dont parlait John Locke avec ses "idées primaires" (ce qu'on ne peut connaître qu'en en faisant l'expérience) et les "idées secondaires" (ce qui découle de l'association des idées primaires). Distinction vétuste, certes, mais néanmoins intéressante °_°
@olivierclaverie6722
@olivierclaverie6722 Жыл бұрын
Excellente video. Un mot sur Yann Lecun: il avait fait un commentaire lors de la sortie d'Alphago expliquant que ce n'etait pas de la vraie intelligence car Alphago apprenait à partir d'une base de donnees de parties et n'etait pas vraiment capable "tout seul" (supervisé vs non supervisé). Outre que l'argument est assez faible (on apprend peu absolument seul), il avait été reduit en miette un an plus tard à la sortie d'Alphago 0 qui apprenait seul. Sur la question du corps: il me semble qu'il existe des IA qui font de la reconnaissance d'objet du monde reel via une camera. Si l'on donne à une IA un corps type Boston dynamics, une reconnaissance d'objets reels, et un prompt disant: tu dois te maintenir en vie coûte que coûte (accès à une source d'energie, capacité à se réparer/entretenir), je suis très curieux mais j'ai un peu peur de ce que ça donnerait. Je pense qu'une situation "réelle" de ce type permettrait de developper une vraie intelligence. Peut etre que terminator n'est pas si loin😅.
@demoneyes5138
@demoneyes5138 Жыл бұрын
J'ai regardé cette vidéo peu après un nième visionnage du film "The Imitation Game". Ayant moi-même un TSA, cela me pose la question suivante : cette notion d'apparence de la compréhension et de la conscience qui ne serait "que" le fruit de l'application automatique d'un "processus / algorithme" ne s'applique-t-elle pas aux choses comme les conventions sociales ? Et même pour aller plus loin : un enfant a-t-il conscience de l'hygiène quand il se lave les mains après être allé aux toilettes, ou bien n'est-ce pas simplement dans certains cas un automatisme appris ? Un citoyen qui va voter parce que c'est dans sa culture et qu'il le tient de son éducation, a-t-il forcément une compréhension de pourquoi c'est important ? Bon après j'ai eu 3 au bac de philo, alors peut-être ceci n'est qu'un fatras un peu débile, mais bon.
@pascalostermann720
@pascalostermann720 Жыл бұрын
Oui, au fond, l'argument de la chambre chinoise est juste une pétition de principe. Dès qu'on essaie de voir comment fonctionne un interlocuteur (qu'il s'agisse d'un programme informatique ou d'un être humain) on ne voit plus aucune "conscience" dedans. De mon point de vue de nominaliste, cela signifie que cette "conscience" est une construction métaphysique... Et ce dont on ne peut pas parler, il faut le taire. Enfin, c'est ma solution au problème, mais c'est toujours agréable de faire une petite ballade en métaphysique. Merci pour cela.
@sebastienleboucher1819
@sebastienleboucher1819 Жыл бұрын
Merci d'avoir mis des mots sur un concept que beaucoup trop sous estiment ! J'en connais quelques uns à qui cela va exploser au visage ;)
@epsilon8597
@epsilon8597 Жыл бұрын
Est-ce qu'une différence avec notre mode de fonctionnement n'est pas l'intentionnalité ou la capacité à prévoir les conséquences des choses que gpt dit?
@samuelsewall8598
@samuelsewall8598 Жыл бұрын
Ta vidéo est super intéressante, notamment sur la disctinction compréhension objective/subjective :) J'ai un point de désaccord avec toi cependant, et je pense que c'est fondamental. 28:15 Sembler objectivement capable de jouer aux échecs à un instant T ne suffit pas à valider qu'on sait jouer aux échecs, et c'est là le plus important à mon avis pour comprendre pourquoi ChatGPT nous montre, en surperformant par rapport aux humains, que nos méthodes d'évaluation aux examens et concours sont juste... aberrants. Un bon joueur d'échec se reconnaît aussi dans sa capacité à s'adapter à un tout nouveau style de jeu, qu'il ne connaît pas (ça marche mieux avec ton exemple du tennis qu'avec les échecs, qui est un jeu très limité finalement). Autrement dit, oui il saura jouer contre Magnus Carlsen, avec suffisamment de puissance de calcul il saura jouer contre n'importe qui après des mois d'entrainement et du fine tuning humain interminable, mais dès qu'un élément radicalement nouveau interviendra (un style de jeu différent si c'est possible aux échecs), il ne saura pas le gérer sans de nouveaux millions de paramètres, des mois d'entraînements, et du fine tuning humain interminable. En ce sens, sa compétence objective est fondamentalement très lacunaire, et le sera tant qu'un modèle n'aura pas d'action réflexive et sociale : tant qu'elle ne jugera pas sa propre décision par rapport au réel et par rapport à ce qu'en pensent les "autres" êtres du groupe. Et c'est pour ça à mon sens qu'un enfant apprend bien plus vite qu'une IA, pour qui il faut des milliards d'itérations, et donc une consommation énergétique bien plus importante (même si c'est un autre sujet :) ). Pour ChatGPT, il suffit de prendre l'exemple de l'oeuf de vache (qui a été humainement corrigé depuis) : lorsqu'on lui posait la question de la durée de conservation des oeufs de vache, cela ne dérangeait pas du tout ChatGPT de parler d'oeuf de vache à côté d'oeuf de poule. Ca n'était pour lui pas plus improbable qu'autre chose, alors qu'il a ingurgité des millions de pages sur les vivipares...
The sea of Japan does not exist
25:25
Monsieur Phi
Рет қаралды 117 М.
Marcher le 7 septembre est une affaire de dignité #MacronDestitution
20:39
Glow Stick Secret Pt.4 😱 #shorts
00:35
Mr DegrEE
Рет қаралды 18 МЛН
У ГОРДЕЯ ПОЖАР в ОФИСЕ!
01:01
Дима Гордей
Рет қаралды 4,5 МЛН
At the end of the video, deadpool did this #harleyquinn #deadpool3 #wolverin #shorts
00:15
Anastasyia Prichinina. Actress. Cosplayer.
Рет қаралды 15 МЛН
Nous sommes spécistes. Justifions-le. | Avec @Philoxime
40:01
Monsieur Phi
Рет қаралды 170 М.
De quoi ChatGPT est-il VRAIMENT capable ? | Ft. Science4All
37:23
Monsieur Phi
Рет қаралды 503 М.
Philosophers don't get what is FREE WILL
53:24
Monsieur Phi
Рет қаралды 276 М.
Les développeurs doivent-ils avoir peur de GPT5 ?
26:03
Micode
Рет қаралды 711 М.
L’Iceberg des PIRES Théories du Complot !
55:43
Conte Fécond
Рет қаралды 1,6 МЛН
LE BOUSOSCOPE : PROMETHEUS
1:04:06
L'ECRAN FOU
Рет қаралды 26 М.
Le « Protocole Ganzfeld » - Findings N°102
1:16:23
Feldup
Рет қаралды 1,9 МЛН
Le capitalisme ferait-il de la 💩 avec les renouvelables ?
1:33:29
Glow Stick Secret Pt.4 😱 #shorts
00:35
Mr DegrEE
Рет қаралды 18 МЛН