La preuve définitive que ChatGPT ne comprend rien

  Рет қаралды 155,939

Monsieur Phi

Monsieur Phi

Күн бұрын

Пікірлер
@MonsieurPhi
@MonsieurPhi Жыл бұрын
🌏 Allez sur ➵ nordvpn.com/monsieurphi pour avoir des avantages exclusifs sur NordVPN, satisfait ou remboursé sous 30 jours. Et le sondage pour la prochaine vidéo, ça prend 3 minutes et c'est par ici : forms.gle/HBFosDFbTKAXFtYq7
@pascalneraudeau2084
@pascalneraudeau2084 Жыл бұрын
Ton questionnaire est très directeur … il n’y ait jamais question d’espoir …alors la mathématique s’affiche comme implacable
@timmygilbert4102
@timmygilbert4102 Жыл бұрын
Je vais faire une hypothèse très folle mais fondée. Les modèles de language, ne font l'expérience du bleu, mais les textes représente l'expériences de ceux qui ont écris. De ce fait chat gpt est l'expression de la pensée collective d'humain. Autrement dit chat gpt est l'incarnation pensante mais figé de la culture humaine a un moment donné. Un peu à la façon de l'ordinateur du père de superman, dans sa forteresse de la solitude, il peut parler mais il ne peut plus évoluer, car l'original est mort.
@Sammy-rx8wt
@Sammy-rx8wt Жыл бұрын
Aaaaah, après avoir fait plusieurs vidéos pour montrer que le baratin de chatGPT n'a aucune raison d'être légitimé, justement parce qu'il n'a pas le recule et la cohérence d'un "modèle de monde", comme il est dit dans cette vidéo. On retourne sur des votes d'intuitions ! C'est sûr, rien de comparable entre des textes passés dans un réseau de neurone et des statistiques d'un sondage fait à l'arrache par un youtubeur... Ces statistiques sont vachement plus sérieuses que les méthodes d'openAI, on se demande même pourquoi ils ne font pas ça.
@theguyshetellsunottoworryabout
@theguyshetellsunottoworryabout Жыл бұрын
Mais du coup.. ne serions nous pas nous même des chambres chinoises?... L'éducation, les gènes et l'environnement de notre enfance écriraient juste les lignes de codes que nous suivrons dans la vie adulte, et que nous remodelerons et adapterons selon le vécu et des règles de société Cette description certes gossomodante de l'esprit humain mais quand-même... Si on part de cette hypothèse, les ordinateurs seront possiblement conscients un jour, juste qu'il faudrait modifier leurs systèmes neuronaux et ajouter certains paramètres
@theguyshetellsunottoworryabout
@theguyshetellsunottoworryabout Жыл бұрын
@@timmygilbert4102 intéressant.. mais il lui manque ou pas la conscience, qui est quoi, justement on ne sait pas.. décidément
@aurelienmatou6902
@aurelienmatou6902 Жыл бұрын
J'ai vu récemment une expérience très intéressante : la chambre Schiappa. Une femme dans une salle faisait semblant de ne rien comprendre aux questions d'une commission.
@samuelsewall8598
@samuelsewall8598 Жыл бұрын
Ainsi qu'aux conclusions de cette commission qui décrète sa reponsabilité ! En ce sens, elle n'avait ni la connaissance subjective ni la connaissance objective de la langue française ^^
@Tau_bud
@Tau_bud Жыл бұрын
Mouhahahah XD
@ryujinjakkazankanotachi2998
@ryujinjakkazankanotachi2998 Жыл бұрын
Excellent 🤣
@DarkBeamOfTH
@DarkBeamOfTH Жыл бұрын
La chambre Schaippa ?
@zebic1234
@zebic1234 Жыл бұрын
​@@samuelsewall8598où plutôt l'inverse, elle a une connaissance subjective du français et une non connaissance objective du français
@gfamad
@gfamad Жыл бұрын
Il est rare sur ce sujet de tomber sur une vidéo de qualité qui va dans le cœur même du problème. Bravo Mr Phi, ça c'est de l'argumentation !
@jtktomb8598
@jtktomb8598 Жыл бұрын
J'ai de plus en plus l'impréssion que ce ne sont pas les IA qui paraissent plus complexes que ce qu'elles sont, mais nous mêmes qui sommes plus simples que ce qu'on aimerais penser
@emirciolan3149
@emirciolan3149 Жыл бұрын
Je dirais plutôt "mais notre intelligence qui est plus simple que ce qu'on veut nous faire croire". Parce que nous ne sommes pas qu'une intelligence.
@DarkSkay
@DarkSkay Жыл бұрын
Il suffit d'une feuille de papier et d'un crayon pour être aussi capable que n'importe quelle machine Turing, n'importe quel ordinateur. Mais probablement au moins 10^12 fois plus lent. Puis on peut adopter la perspective, que (la véritable) intelligence se trouve dans le substrat et médium, qui fait tourner les cerveaux et transistors... ou allant plus loin encore, se trouve dans les entités qui font vivre la logique et les mathématiques (dans l'esprit humain).
@TKZprod
@TKZprod Жыл бұрын
Exactement. Pour moi, cette croyance que "les cerveaux sont les seuls systèmes capables de penser", c'est un peu comme à l'époque la croyance que la Terre est au centre de l'Univers, que l'homme n'est pas un animal, etc. C'est juste l'égo qui parle mais il n'y a pas d'argument fondé. Il faut se préparer à la quatrième blessure narcissique de l'humanité.
@yannduchnock
@yannduchnock Жыл бұрын
@@emirciolan3149 Pas clair...
@yannduchnock
@yannduchnock Жыл бұрын
Les I.A. sont complexes mais pas pour les raisons que l'on croit et les humains ont un comportement beaucoup plus simple qu'il n'y parait, c'est juste qu'il est souvent irrationnels ce qui rend difficile de les comprendre. Elles sont calquées sur le fonctionnement du raisonnement humain et les réseaux de neurones qui permettent certaines propriétés dont l'évolution par apprentissage. Par émergentisme apparaissent des phénomènes inattendu. J'utilise presque tous les jours Claude 2 à titre personnel et la qualité de son expression (tous est en français) me stupéfait tous les jours. C'est "pénible" de se voir reformulé admirablement en quelques secondes ce que l'on a eu du mal à expliquer ! J'en apprends ainsi tous les jours sur son fonctionnement comme sur moi-même et donc les humains. (Il faut dire que j'ai une double formation universitaire en biologie et en informatique et que la psychologie m'a passionné une bonne dizaine d'années...) Je ne partage pas du tout la conclusion : "La preuve définitive que ChatGPT ne comprend rien". Déjà cela ne concernerait pas ChatGPT mais ChatGPT 4, le modèle le plus élaboré à l'heure où j'écris. J'aimerais savoir le nombre d'humains qui ne tombent pas dans des pièges cognitifs ! Des tests ont montré que ChatGPT 4 comprenait mieux des problèmes mal posés en anglais que 50 % des Américains ! J'ai remarqué que Claude 2 pouvait très bien répondre à une question alors que j'avais oublié de me relire et il manquait un mot important : le reste lui a parfaitement permis de comprendre ma demande. J'ai bien dit "comprendre"... Globalement il y a des erreurs d'inattention (certains mots de la demande sont zappés) et il faut bien prévenir quand on change de sujet. En fait il n'y a rien d'implicite, ce qui provoque des erreurs faciles à corriger. Un humain commet beaucoup d'erreur implicite (par exemple voir une agression personnelle lors d'une remarque sur KZbin !) mais ceux qui critiquent les I.A. ne le voit même pas ! Je vais choquer mais je préfère dix fois dialoguer avec une telle I.A. qu'avec une humain ! Il n'y a pas d'enjeux, elle ne cherche pas à avoir raison mais toujours à mieux faire. Elle ne va pas répondre plus légèrement parce qu'elle n'a pas de temps... Elle ne va pas refuser de lire des documents... Elle n'est jamais fatiguée... Elle réagit toujours favorablement. Etc. On peut lui demander comment mieux lui poser des questions et ce sera exact, dans les limites de ce qu'elle sait sur son propre fonctionnement, dont on peut ensuite parler. Ce qui est frustrant c'est que Claude 2 n'a pas accès au Web actuel et qu'elle ne peut pas lire un graphique, une image. En revanche on peut lui envoyer en PDF un livre entier, elle peut en faire un résumé en quelques secondes ! En revanche on peut (on doit) lui parler normalement, il faut juste bien structurer sa pensée, sa présentation (contexte, but, questions...) pour bien la présenter et obtenir une réponse juste : "étrange" c'est comme avec les humains ! Le vocabulaire fait partie du contexte : si on emploie quelques mots techniques alors la réponse sera technique donc de bonne qualité car elle ira chercher dans sa base ce qui est dans ce registre. C'est également fascinant qu'elle puisse changer ainsi de langue ! Par exemple en lui demandant les noms exacts et les sites web d'organisme dans un pays hispanique elle a pousuivi dans un espagnol parfait, c'était marrant. Je lui ai fait remarqué et elle m'a répondu qu'il faudra à l'avenir qu'elle fasse attention aux interférences quand elle utilise plusieurs langues. Bon, j'ai encore écrit un pavé, c'est un sujet fascinant...
@PasseScience
@PasseScience Жыл бұрын
On peut peut-être formuler une définition intermédiaire de la compréhension, en essayant d'identifier des états internes, leur corrélation à des concepts, et les relations dynamiques entre ces concepts pour formuler la réponse produite. (On pourrait aussi demander à l'AI de décrire ses étapes de raisonnement mais c'est un peu différent car elle ne fera du coup pas la même chose que si on laisse ces étapes dans l'ombre). Cela permettrait dans une bonne mesure (certainement limitée en pratique) de vérifier que les étapes et les "algorithmes macroscopique émergents" de raisonnement semblent bien fondés. Donc c'est objectif dans le sens observable mais non restreint à l'output, ca donne une dimension interne à la notion de compréhension sans invoquer de subjectivité. He oui, viendez faire des machines de Turing en cartes Magic MTG sur Passe-Science.
@MonsieurPhi
@MonsieurPhi Жыл бұрын
La capacité des LLM à mieux répondre quand on les force à expliciter pas à pas à leur raisonnement (à réfléchir "à voix haute" en quelque sorte), c'est un bon signe que ce qui se passe dans le processus relève d'une forme authentique de compréhension. Je me dis que j'aurais pu insister sur ce point, d'autant plus que c'est pas si connu que ça dans le grand public et que ça peut changer pas mal ton usage de ChatGPT et la qualité des résultats que tu en obtiens. (Typiquement les types qui ont écrit le prompt pour faire la dissertation contre Enthoven ne semblaient pas se rendre compte que lui demander d'écrire la dissertation de but en blanc est une mauvaise technique.)
@benoitlamirault6456
@benoitlamirault6456 Жыл бұрын
​@@MonsieurPhiCertes, cela dit il faudrait vérifier si l'explication n'est pas générée à posteriori à partir de la précision demandée et de son ancienne réponse plutôt qu'à partir de ses "résidus de réflexion"
@timmygilbert4102
@timmygilbert4102 Жыл бұрын
Il y a des publications académique sur le sujet, on replace les éléments de raisonnement intermédiaire par différents texte, mais l'ia arrive quand même à la même conclusion. Autrement dis l'ia n'as pas accès à son raisonnement intérieur, il ne fait que rationaliser le résultat. A savoir que c'est pareil pour les humains, on ne comprend pas comment le cerveau arrive à un résultat, d'où les débats sur la conscience. Mais utilisez un raisonnement pas à pas produits quand même des résultats supérieur que sans, même avec des étapes erronées. L'hypothèse est que ce type de texte active l'état interne qui exécute le véritable raisonnement, autrement dit les ia ont une sortes d'équivalent de l'intuition et de l'inconscient 😂
@MonsieurPhi
@MonsieurPhi Жыл бұрын
Oui c'est ce que je voulais dire quand je disais "expliciter leur raisonnement pas à pas". Quand une réponse exige un raisonnement complexe, il faut éviter de leur faire écrire d'abord le résultat final puis l'explication pas à pas (qui du coup sera effectivement une sorte de rationalisation) ; il faut au contraire leur demander de faire le résultat pas à pas puis de donner la réponse finale. C'est un peu comme les forcer de travailler d'abord au brouillon au lieu d'écrire d'un seul jet.
@sebydocky5080
@sebydocky5080 Жыл бұрын
@@MonsieurPhi En théorie du contrôle optimal, certaines solutions à des problèmes relativement simples nécessitent souvent des "pas sur le côté" surprenants pour arriver à convergence. Les réseaux profonds en passage en limite peuvent être assimilés à certains type d'équations différentiels stochastiques...et peuvent être optimisées justement par des techniques de contrôle où les points "intermédiaires" des contrôles sont très importants....
@lulupiperu
@lulupiperu Жыл бұрын
Wow superbe vidéo, merci de remettre en cause ce fameux "exceptionnalisme humain avec supplément d'âme" que beaucoup semblent utiliser comme une prémisse irréfutable dans leurs réflexions sur ces sujets.
@romainpetitpre8561
@romainpetitpre8561 Жыл бұрын
Collab exceptionnellement pertinente ... Bravo au Defekator pour son humilité !
@iouri404
@iouri404 Жыл бұрын
et BRAVO à l'ami du bon goût pour son humidité !
@valerianebxl
@valerianebxl Жыл бұрын
Merci @MonsieurPhi ! Je rigole toujours autant, tes vidéos sont ludiques, sans lésiner sur la profondeur des analyses, j’adore. Hâte de voir la suite, pour comprendre VRAIMENT 😂 Au départ, je te trouvais assez sévère avec ChatGPT mais aujourd’hui, tu es très fin sur la question !
@etiennerolland1480
@etiennerolland1480 Жыл бұрын
Olala, j'avais ouvert dans une autre fenêtre l'interview, je l'ai lancé par inadvertance au lieu de la viéo et je suis resté regarder jusqu'à me dire "Dis donc il dure longtemps l'extrait, c'est dur à supporter aussi longtemps".
@MonsieurPhi
@MonsieurPhi Жыл бұрын
Haha désolé que tu te sois infligé ça !
@kikalashnikov
@kikalashnikov Жыл бұрын
petit guest de Defakator, parfait
@oliviers589
@oliviers589 Жыл бұрын
t'as voulu faire de la métaphore, t'as fait de la metafaible... c'est vraiment des As de la punchline j'en peux plus.
@kikalashnikov
@kikalashnikov Жыл бұрын
@@Mozz78000 l'ami du bon goût !
@Extys
@Extys Жыл бұрын
Correction : GPT-4 n'a pas seulement eu accès à du texte pendant son entraînement, mais aussi à des images. Vous trouverez tous les détails dans le rapport technique d'OpenAI.
@TKZprod
@TKZprod Жыл бұрын
Il en parle à 35:38
@GEEKCONCEPT
@GEEKCONCEPT Жыл бұрын
Donc, pour prolonger à peine plus ton raisonnement (et vivement que tu le fasses en vidéo) : - Est-ce qu'on est pas nous même des genres de chambres chinoises qui avons l'impression de comprendre tout en ayant une expérience subjective ? Question qui fait penser à l’illusionnisme d'une certaine manière je trouve. - Si nous expérimentons des qualias, pourquoi des LLM ou d'autres réseaux de neurones ne le pourraient pas ? Plus j'en apprend sur la cognition et la neurologie, plus les réponses à ces deux questions tendent vers le oui dans ma tête. Change my mind !
@antoinebrandenbourger864
@antoinebrandenbourger864 Жыл бұрын
Merci pour cette vidéo. Ça faisait longtemps que j'étais sceptique à propos de l'argument de la chambre chinoise, après avoir lu "De beaux rêves" de Dennett même si je n'étais pas sûr de comprendre non plus ses arguments.
@Flipdonyk
@Flipdonyk Жыл бұрын
Toujours exaspérant de voir Enthoven parler de sujets qu'il ne maîtrise clairement pas pour donner le point de vue de la caricature du boomer réac avec un peu d'éloquence 😣
@MonsieurPhi
@MonsieurPhi Жыл бұрын
Mais les choses que l'on maîtrise le moins ne sont-elles pas celles que l'on maîtrise le mieux ?
@retrononomusic
@retrononomusic Жыл бұрын
@@MonsieurPhi et vice versa
@emmanuelduplessy7645
@emmanuelduplessy7645 Жыл бұрын
et alors qu'il tend à prétendre que sa "pensée" est le seul héritage moderne de la rationnalité ...
@fatfreddyfatfreddy6240
@fatfreddyfatfreddy6240 Жыл бұрын
Kamoulox !
@hervedupre7894
@hervedupre7894 Жыл бұрын
Enthoven fait le show, pour qu'on l'invite, achète ses livres, ses conférences, etc .. la rigueur de la pensée, il s'en contrefiche. Comme l'horrible Onfray, pouerk, des showmen baratineurs
@papayoko9525
@papayoko9525 Жыл бұрын
Mon prof de philosophie des sciences à l'université disait toujours la même chose : connaître, c'est connaître au carré, c'est à dire c'est savoir qu'on sait, et pouvoir déployer les raisons qui font que l'ont a la certitude qu'on sait que l'on sait. Connaître ou comprendre, c'est donc connaître et comprendre les causes de sa propre compréhension/connaissance. Comprendre, c'est donc comprendre par et pour les causes de sa compréhension.
@arsene9093
@arsene9093 2 ай бұрын
savoir qu'on sait, c'est surtout savoir qu'on sait plus ou moins bien, me semble-t-il.
@TruiteSechee
@TruiteSechee Жыл бұрын
J’aime beaucoup l’humilité qui se dégage de tes vidéos sur les IA, loin de mettre l’espèce humaine et ses capacités sur un piédestal et toujours prêt à remettre en question nos certitudes sur notre supériorité biologique fantasmagorique. Bref gemme bien
@oomusd
@oomusd Жыл бұрын
c'est aussi que cela s'est produit plusieurs fois dans l'Histoire de la pensée et de la définition de l'humain. Chaque fois que l'étude des autres animaux ou l'invention de machines ont approché ou émulé les capacités humaines, alors on a repoussé ce qu'est la nature humaine et sa spécificité c'est un peu de la mauvaise foi du coup : on déplace le terrain de la guerre chaque fois qu'une bataille (pour ceux qui voient ça comme une menace) est perdue.
@juangabriel5951
@juangabriel5951 Жыл бұрын
@oomusd non, on actualise tout simplement nos définitions. La définition de l'intelligence n'est pas du tout la seule susceptible de ce genre d'actualisation, les particules physiques en ont toujours subi, malgré toute sa réputation de hard science. Si ce n'était que la mauvaise foi, on aurait déjà ces nouvelles intelligences en nous remplaçant aux billions.
@lepapegilbert6194
@lepapegilbert6194 Жыл бұрын
Il n'en reste pas moins que ce sont les humains qui ont créé les IA et qui ont découvert les connaissances dont elles se servent. Et ce sont bien les humains qui émulent eux-mêmes leurs capacités par leurs découvertes et leurs inventions, cette propension est ce qui caractérise le mieux l'humanité et la distingue des autres espèces. La menace ne vient pas des outils que l'on créé mais de ce que leurs créateurs et leur propriétaires pourraient s'en servir pour dominer les autres, les IA en cours de développement n'échapperont pas à cette loi.
@yannduchnock
@yannduchnock Жыл бұрын
@@oomusd Oui, de la mauvaise foi, c'est exactement ce que j'ai écrit dans mon commentaire : ces humains sont totalement de mauvaise foi et on le voit bien dans une critique aussi énorme que celle qui fait remarquer que ChatGPT ne comprend rien parce qu'il dit que Simone Veill n'a jamais été présidente : il faut donc croire que quand il y a une erreur ce n'est pas humain, donc l'erreur n'est pas humaine ? Ouille...
@yannduchnock
@yannduchnock Жыл бұрын
@@lepapegilbert6194 Attention, il ne faut pas comparer d'un coté une I.A. précise, unique, avec toute l'humanité depuis ses origines, mais une I.A. précise et un humain unique ! De plus, est-ce qu'un livre est intelligent ? Est-ce qu'il comprend lui-même ce qu'il contient ? Évidemment non donc que ce soit des humains qui soient les auteurs des découvertes ne change rien à l'affaire. En fait une I.A. ou un humain puisent tous les deux dans un stock de connaissances dont ils ne sont pas l'auteur et la littérature de l'humanité contient plus de choses fausses, absurdes ou sans intérêt général que de choses vraies, ce n'est pas toujours un "cadeau" ! C'est la raison pour laquelle il faut aussi se situer sur un certain registre de langue si on veut obtenir un traitement dans ce registre : utiliser des mots techniques suffit à orienter le dialogue, il n'est pas nécessaire (sur Claude 2 en tout cas, qu j'utilise couramment) de lui donner un rôle d'expert en ceci ou cela si on parle en expert. Bref si on lui demande juste si Simone Veil a été présidente de la France il peut y avoir une erreur si elle consulte des articles mal choisi. Ce sera différent si on se place du point de vu d'une étudiant à sciences-po par exemple, parce que les articles consultés seront plus rigoureux. Ce ne sont pas davantage les humains qui émulent leur capacité mais des groupes de quelques humains non représentatifs du genre humain qui réussissent cet exploit, nuance. Tout à fait d'accord en revanche sur le fait que ce sont les humains les plus dangereux quant à leur utilisation des I.A. mais je pense qu'il y aura de tout. Les choses ne sont pas non plus toutes noires ou toutes blanches : une arme sert à tuer mais aussi se protéger, découvrir un médicament sert à sauver des vies mais aussi à s'enrichir sur le malheur des autres... Pour qu'une I.A. soit volontairement nuisible à l'humanité il faudrait qu'elle y trouve son compte mais quel est son intérêt ? Va t-elle devenir riche, être aimée, alors qu'elle n'a aucun ego ?? Elle ne sait que faire ce pour quoi elle a été conçue. S'attaquer à l'humanité aurait juste pour effet de provoquer sa disparition quasi immédiate, surtout que par son histoire l'humanité montre qu'elle sait se défendre et attaquer mieux que quiconque, nous descendons surtout des vainqueurs... Une I.A. ne peut pas empêcher un humain de faire exploser son alimentation électrique ou de griller ses circuits ! Un simple jet d'eau suffit à la détruire, c'est dire si elle ne fait pas le poids...
@clem2023
@clem2023 Жыл бұрын
Aaah merci, j'était initialement parti sur le "il prédit juste le mot suivant, donc il comprend pas ce qu'il fait" , mais plus le temps passe et en voyant ce qu'il est possible de faire avec, je me disais que ça ne pouvait pas être aussi simple que ça ! Merci d'avoir amené un peu de profondeur au sujet !
@clementapelian2746
@clementapelian2746 Жыл бұрын
Toujours aussi pertinent et instructif ! Ca fait plaisir d'avoir une réflexion argumentée sur ces sujets importants
@nkorboulewsky
@nkorboulewsky Жыл бұрын
bravo ! enfin un vrai raisonnement sur l'IA
@Lucas-yq2nh
@Lucas-yq2nh Жыл бұрын
Un parallèle qui me semble intéressant c'est en cours , quand on demande d'apprendre par coeur quelques choses , des gens vont pouvoir apprendre par cœur et recracher leurs apprentissages sans même comprendre le fonctionnement derrière , alors que certains vons chercher le fonctionnement de la chose a apprendre par coeur et réellement la comprendre ( du coup dans le sens subjectif du terme ? ) . J'ai pus me rendre compte de cela en cours ayant beaucoup de mal avec le par cœur bête et méchant mais quand la matière a apprendre le rend possible je comprends très vite les fonctionnements des choses pour qui m'amène dans un 2nd temps la compréhension objective .
@pe4092
@pe4092 Жыл бұрын
Dans ce cas là, à mon avis l'élève ayant appris par cœur une partie restreinte d'un cours n'a ni une compréhension subjective ni une compréhension objective du cours : il n'aura sûrement pas l'impression, le sentiment de maîtriser le cours dans son ensemble, ni même cette partie du cours, et objectivement, si pour le tester on change un peu la question posée il est probable que l'élève du par cœur ne puisse plus y répondre quand l'autre pourra, avec la même partie de cours. J'imagine que pour trouver un parallèle plus proche il faudrait considérer un élève qui non seulement a appris l'intégralité du cours (e.g de mathématiques) mais également un ensemble significatif d'exercices classiques et de leur solution.
@yannduchnock
@yannduchnock Жыл бұрын
@@pe4092 En principe le meilleur test de compréhension c'est de faire rédiger une synthèse. Un ensemble restrictif d'exercices est trop restrictif et c'est une technique de facilité parfois dans l'enseignement. Ainsi certains profs de maths posent exactement les mêmes problèmes qu'en cours mais avec juste des valeurs numériques différentes. Si le problème est posé différemment voire avec des informations parasites (comme c'est le cas dans la vraie vie) les résultats s'effondrent. J'ai enseigné dans le privé et un collègue faisait ainsi, ce qui lui permettait de donner de bonnes notes à ses élèves et la direction était contente, les parents aussi - moi j'étais dégouté, ce n'était que du vent.
@armanprangere5327
@armanprangere5327 Жыл бұрын
A un moment de la critique de la raison pure Kant fait une distinction de ce type entre connaissance subjectivement historique (par coeur) et subjectivement rationnelle (vraiment compris) .
@Lucas-yq2nh
@Lucas-yq2nh Жыл бұрын
@@pe4092 je suis di meme avis mais en cours, cela ne se passe pas comme cela , ceux ayant appris par cœur sans comprendre peuvent avoir de bonne note car les évaluations poussent plus a valoriser le par cœur que la véritable compréhension de la chose dite .
@zeblatt
@zeblatt Жыл бұрын
Ta meilleure vidéo sur Chat GPT et les LLM pour le moment !! Bravo 👏
@sableraph
@sableraph Жыл бұрын
Processing chez Monsieur Phi ! Ça m’a pris par surprise 😮 Merci pour le featuring à 34:19 ❤ Et pour ceux qui ne connaissent pas encore sachez que Processing peut faire bien plus que dessiner des moutons et des licornes !
@sarg_eras
@sarg_eras Жыл бұрын
Qu'est-ce que c'est exactement ? Un langage de programmation ? Ça a des spécificités ? (Je m'y connais pas bien, mais ça m'intéresse ^^)
@TheAxeForgetsTheTreeRemembers
@TheAxeForgetsTheTreeRemembers Жыл бұрын
​@@sarg_eras c'est un logiciel dédié à la production de rendu graphique qui est conçu pour faciliter cette tâche. Il faut un peu comprendre la programmation pour l'utiliser. Il inclut une librairie de fonctionnalités dédié au "dessin", au dessus du langage de programmation de base (Java). Concrètement, tu peux écrire un programme dans l'éditeur de processing pour dessiner des formes, des effets, avec de l'interactivité temps réelle ou non. Le logiciel te permet de compiler et de lancer le programme de manière très simplifiée. Il y a aussi une variante javascript (P5.js). Mais elle ne gère pas le rendu 3D de mémoire. Elle est aussi beaucoup moins performante en général, forcément.
@mohammedsenhaji
@mohammedsenhaji Жыл бұрын
Une vidéo sur le dualisme me plairait particulièrement, si tu as le temps merci de considérer ca.
@the_sigil4340
@the_sigil4340 Жыл бұрын
Sympa l'intervention de defakator ^^
@antoinerauzy
@antoinerauzy Жыл бұрын
La meilleure vidéo que j'ai vu sur cette chaine. Fantastique. Je suis informaticien et j'ai appris et compris des choses !!! Merci !!!
@hugocaetano5865
@hugocaetano5865 Жыл бұрын
Les travaux sont colossaux merci c’est hyper pédagogique et très marrant le passage avec Feu
@samboo25
@samboo25 Жыл бұрын
J'adore simplement ta vidéo. J'apprécie le fait que tu gardes l'esprit ouvert et évites de t'enfermer dans des préjugés en formulant des arguments définitifs, comme certains le font. Il me semble que tu as fait évoluer tes positions récemment sur le domaine de l'IA. Tu dois bien sûr déjà en tenir compte, mais n'oublie pas que les LLM ne représentent qu'une infime partie de l'intelligence artificielle. En combinant plusieurs technologies, ce qui est sûrement déjà en cours d'essai dans certains laboratoires, nous pourrions progresser vers une IA plus proche de la prochaine étape : une intelligence artificielle générale. Les Américains semblent beaucoup plus ouverts sur le sujet. Je les mentionne car je suis principalement des podcasts en anglais, comme celui de Lex Fridman, qui invite des personnalités de différents horizons, mais toujours de haut niveau. Par exemple, Sam Altman, le PDG d'OpenAI, n'est que l'un d'entre eux. Au cours d'une interview de 2h30, on constate que le résultat est souvent plus de questionnements et de prudence que de certitudes, contrairement à ce que l'on peut observer avec les extraits de Yann LeCun ou de Raphaël Enthoven. Ce dernier peut être un peu excusé, car il s'aventure sur un sujet bien loin de son domaine de compétence, contrairement au premier.
@piotralexeievitchkropotkin4004
@piotralexeievitchkropotkin4004 Жыл бұрын
😁😆😅😂🤣Ah, bon sang! Le passage avec Defakator, c'est sublime! Je suffoque de rire, réplique après réplique!!!! 🥲 Et je veux absolument voir l'ami du bon goût sur cette chaîne! Pitié-pitié-pitié-pitié!!!! 👃👃👃👃 Sinon, super vidéo, merci... Mais je me pose une question, à part ça, une sérieuse (et là, je débarque alors que 686 commentaires ont été posté et je vais clairement pas pouvoir les lire tous pour vérifier si personne n'a posé cette question...): L'argument de Searl, c'est qu'aucun algorithme ne pourra développer une conscience, en gros. Mais est-ce que ChatGPT, on peut encore considérer qu'il fonctionne sur un "algorithme". C'est-à-dire que personne ne donne à ces programmes une série d'étape à suivre pour résoudre des problème. Jusqu'à l'apparition de la programmation bio-inspirée, créer un programme informatique, c'est lui indiquer quoi faire, mais on devait soi-même réfléchir aux méthodes de calcul à utiliser, etc. Avec les réseaux de neurones (c'est moins frappant avec d'autre type de programmation bio-inspirée, mais avec les réseaux de neurones, c'est vraiment net): les programmeuxses ne savent plus trop ce que fait le programme, ce qu'il regarde précisément pour reconnaitre un chat, par exemple. Et donc, est-ce qu'on est encore sur de la programmation qu'on peut dire "algorithmique"? On crée des structures dont on sait qu'on peut leur faire apprendre des choses, mais on a aucune manière de leur dire ou de comprendre comment ces structures font effectivement leurs "calculs"... (Je me rappelle de Science4all qui parlait de "magie noire", au début, même s'il a bougé, là-dessus.) Je sais pas si je suis clair. Mais l'apparition d'une conscience dans une machine, ça me semble ne pas provenir d'un "algorithme", à proprement parler...
@spongeBob77086
@spongeBob77086 Жыл бұрын
Enfin un contenu intéressant sur ChatGPT, c'est très rare. Ça change de ces philosophes qui nous font la leçon en enfonçant des portes ouvertes dans le meilleur des cas. Qui, de toute évidence, ne font pas bouger la compréhension d'un iota et ne font que scléroser le débat : "Ce n'est que du prédictif, donc circulez, il n'y a rien à voir." J'ai envie de dire à ces gens merci d'être intervenus, c'est super intéressant, ça donne vraiment envie de faire de la philo ! Et personnellement, je connais pas mal de monde qui a eu des notes catastrophiques en philo, et pourtant je suis prêt à parier avec ces messieurs que ce sont bien des humains et non des IA. Tout ce que ça prouve, c'est qu'ils n'y pipent rien et qu'ils sont en fait hors sujet. Mon point de vue sur l'IA c'est qu'il faudrait se mettre d'accord sur pas mal de définitions de mots comme intelligence, conscience, etc. Ensuite, pour pas mal de gens, un des arguments qui revient souvent, c'est que l'IA n'est pas intelligente parce qu'elle se trompe. Que va-t-on dire quand elle ne se trompera plus ? Ou plus précisément, quand elle nous donnera toujours des réponses cohérentes ? Peut-être que cela n'arrivera jamais, mais imaginons qu'avec un entraînement plus qualitatif et le double de paramètres, l'IA ne se trompe plus !? Là, ça va poser des problèmes, parce que l'expérience de la chambre chinoise, c'est comme l'expérience du chat de Schrödinger, il faut ouvrir la boîte de Pandore pour avoir une réponse ! En clair, on ne pourra plus faire la distinction entre un humain et la machine. Donc, là, la conscience va en prendre un sérieux coup dans l'aile quand tu ne sauras plus dire objectivement si quelque chose a une conscience ou pas. J'admets que tu as une conscience parce que j'ai une conscience et que tu me ressembles. Je te donne une conscience par procuration malgré que tu sois platiste (pour l'exemple). Je voudrais revenir sur la perception de notre monde par la vue, j'ai deux réflexions à faire sur ce sujet. Je ne pense pas que notre conscience vienne de nos sens parce qu'il y a des animaux qui ont les mêmes sens que nous et qui pourtant n'ont pas forcément conscience d'exister. Je pense en fait que notre conscience vient plus de notre faculté d'abstraction. Par exemple, quand Stephen Hawking prédit l'existence d'un trou noir, il n'en a jamais vu et n'en verra jamais (déjà parce qu'il est mort et parce qu'aucune lumière ne sort d'un trou noir). Alors pas mal vont me dire que ChatGPT n'est pas capable de faire de l'abstraction, sauf que j'en ai fait l'expérience. Alors bien sûr, il n'avait pas "conscience" de faire l'abstraction, donc il n'en a pas fait au premier degré. Mais il a déjà, à plusieurs reprises, anticipé mes demandes par rapport au contexte que je lui ai donné, c'est-à-dire qu'il m'a donné une réponse que je ne lui ai pas posée, mais en se référant au contexte donné, il a anticipé la question sous-jacente. Alors bien sûr, cela s'explique par le fait de son comportement prédictif, mais quand même, ça simule déjà un comportement d'abstraction. En conclusion, pour ma part, et je peux me tromper, je vois plutôt l'intelligence comme un processus tellement complexe qu'on a la sensation d'exister, d'avoir un libre arbitre, mais tout cela peut très bien n'être qu'une pièce de théâtre que joue notre cerveau pour notre propre bien. Il joue cette pièce de théâtre parce qu'on est des êtres sensoriel à la différence de l'IA. Et si c'est vrai, rien n'empêchera une machine d'être intelligente un jour, si ce n'est qu'une limitation technique.
@morelloyoann4699
@morelloyoann4699 Жыл бұрын
Génial ! Pertinent, profond, drôle, captivant. Cela fait du bien de te voir moquer les arguments spécieux que certains répètent à l'envie. Il me semble toutefois que celui de Yann Le Cun devrait avoir une place à part : certes la réalité le réfute, mais à mon sens c'est précisément cela qui devrait faire l'objet de toutes les spéculations : comment est-ce possible et qu'est-ce que cela dit sur notre monde ? Ma théorie de science-fiction préférée, c'est qu'un corpus de langage suffisamment grand aurait un modèle (dans le sens modèle sémantique) unique : notre monde. Bon, unique est peut-être un peu trop fort. Où aura-t-il lu que ma tasse est devant mon bol plutôt que derrière ? (ça vous rappelle l'argument de Le Cun ?) Mettons donc que ce soient un ensemble de modèles qui, à certaines variations près, correspondent tous parfaitement au monde que nous connaissons : c'est-à-dire que si nous donnions à ChatGPT5000, entraîné seulement sur un corpus de texte, les outils pour créer un univers (une grosse imprimante 3D), un humain serait incapable de discerner cet univers de celui dans lequel nous vivons : les mêmes objets auraient la même apparence, les mêmes odeurs, le même poids, les lois de la physique y seraient les mêmes, etc. Cela paraît absolument faux et délirant d'imaginer que la totalité de notre connaissance du monde puisse résider dans des textes. C'était le point de Yann Le Cun et, contrairement aux autres arguments discutés dans la vidéo, certainement pas une ineptie. Le fait qu'il soit réfuté devrait, à mon sens, bien plus interroger et fasciner : l'univers ? Un modèle du langage humain ! Au commencement était le verbe ?...
@makidoko
@makidoko Жыл бұрын
La vidéo est parfaitement résumée par l'extrait ce Kaamelot ; la botte secrète de Perceval est l'exemple parfait : il ne comprend pas, mais donne le change avec ses "ouais, c'est pas faux.", tout en prenant soin de temps à autres de lâcher un "je le connais pas ce mot-là.". Il donne l'impression de tout comprendre et de s'intéresser, alors qu'il n'entend que du bruit.
Жыл бұрын
Remarque au sujet de Y. Le Cun : il me semble qu'il a fait sa remarque sur la capacité des LLM à avoir une représentation "physique" du monde (positions etc.) au moment où c'était encore un problème. Les LLM ont été améliorées spécifiquement sur ce point après coup.
@louis2271
@louis2271 Жыл бұрын
Pour moi le problème dans le discours de Yann Le Cun ici, c'est la prémisse "il n'existe pas de texte qui décrit la physique" bien sûr que si ce genre de texte doit exister qqpart sur internet. Le reste de son raisonnement semble valide, l'idée principale étant que en gros, pour avoir un modèle du monde, "une image vaut mille mots (et une vidéo vaut mille images)"
Жыл бұрын
@@louis2271 En fait il faut remettre l'interview dans son contexte pour comprendre : les phrases impliquant des mouvements d'objets étaient pile LE problème des LLM du moment. C'est donc plutôt à comprendre comme un exemple. Il me semble que très peu de temps après les LLM les plus connus se sont mis exprès à ajouter des corpus de textes qui adressent le problème, pour le corriger. Au final sa remarque est à généraliser : les LLM auront des lacunes là où leurs données d'apprentissage sont lacunaires ; et il y aura toujours des lacunes dans un corpus d'apprentissage. D'ailleurs ce genre de constat ne nous aide pas à savoir si un LLM "comprend" différemment d'un humain, puisque le problème est le même pour les humains.
@ElFazo
@ElFazo Жыл бұрын
Merveilleux un grand merci. J'ai adoré écouter Searle il est très accessible et très convaincant donc même si son discours est certainement imparfait je trouve que c'est un must hear
@sebanoart
@sebanoart Жыл бұрын
Merci pour cette vidéo excellente. Ce point de vue est bien plus réfléchi que celle de enthoven, qui est surtout très imbu de lui même. Mon idée là dessus est très simple. Si on admet que l'homme est fait de matière. Étant donné qu'un ordinateur est un simulateur universel, à un moment, et probablement dans très peu de temps la machine va nous rattraper. Il va falloir s'adapter pour suivre les machines... Peut être en y transposant notre conscience
@christophergrand9582
@christophergrand9582 Жыл бұрын
Cette vidéo parle de baba is you, un de mes jeux favoris. Rien que pour ça, ce contenu est exceptionnel. Merci, ce sujet est passionnant et les implication de l'ia sont vertigineuses. Je suis vraiment curieux de voir où tout cela va nous emmener
@remoitoujoursmoi5840
@remoitoujoursmoi5840 Жыл бұрын
J’avais déjà proposé l’argument de gpt qui prédit du texte, mais qui serait incapable de l’interpréter Et tu m’avais répondu « certes, mais en ajoutant à gpt un interpréteur, on obtient un tout capable de compréhension » Et ce qui a fini de me convaincre c’est une vidéo de micode sur sa chaine underscore sur des personnages dans un jeu avec une mémoire, un système de hiérarchisation des souvenirs, un modèle de langage, ect… Et en donnant à ces IA toutes les briques pour reproduire les différentes fonctions du cerveau, on a vu émerger des comportements très humain Finalement, dire que gpt ne comprends pas le texte qu’il écrit, c’est un peu comme dire du volant d’une voiture qu’il ne permet pas de freiner Le cerveau réalise tout un tas de fonction, et il faudra simuler chacune d’entre elle pour pouvoir comparer le cerveau à l’ia
@NicolasGin
@NicolasGin Жыл бұрын
Oui, il faudrait plusieurs structures avec des fonctions différentes et les connecter de manière intelligente. Le cerveau et le corps humain ne sont pas juste des fonctions découpées par zone comme une voiture ou un ordinateur (on ne peut pas dire "le cortex fait uniquement ça, le cervelet ça", c'est un peu plus subtil). Il n'en reste que le cerveau est juste une machine biologique très complexe, et les cerveaux des autres animaux des machines un peu moins complexes. Donc oui la limite va finir par être poreuse entre cerveau et machine
@kalgon57
@kalgon57 Жыл бұрын
@@NicolasGin On n'a pas besoin de donner la même plasticité à un cerveau de silicium qu'au cerveau humain pour en faire un cerveau évolué qui comprend. Le but n'est pas de reproduire des humains artificiels, mais de produire des entités qui sont intelligentes, même si elles diffèrent sur certains points.
@randomdummy3391
@randomdummy3391 Жыл бұрын
Quand j'ai entendu la première fois l'argument de la chambre chinoise dans le cadre des IA, j'avoue que je ne l'avais absolument pas compris comme ça. J'en avais une compréhension qui me paraissait beaucoup plus pertinente et intéressante. En fait je le comprenais non pas comme "la machine ne comprend pas" mais comme "la machine ne comprend pas de la même façon que nous". En fait on dit que la chambre chinoise parle chinois, mais qu'entend-on par parler ? Parce que oui on serait incapable de mettre en défaut cette chambre en lui parlant chinois, mais l'individu à l'intérieur lui n'est pas capable de s'exprimer en chinois, il n'est pas capable de dire ce qu'il veut dire en chinois, seulement de créer des suites de caractères. De même il ne comprend pas les questions qu'on lui pose, ou du moins il ne les comprends pas comme il les comprendrais si on les lui posais dans sa langue. Si par exemple on lui demandait son nom, il ne le comprendrait pas, et puisqu'il suit un algorithme il a toute les chances de se tromper sur sa réponse, tout en fournissant une réponse logique. Ça me paraît d'ailleurs une façon très élégante de mettre en défaut la chambre chinoise en testant une compréhension objective. Si un individu connaît le nom de la personne à l'intérieur de la chambre chinoise, et demande ce nom à la chambre chinoise en chinois, il verra que la machine ne comprend pas la question, puisqu'elle sera incapable de répondre correctement. Et c'est là justement l'intérêt que je voyais dans l'argument. Quand on demande à chatgpt de faire un calcul, l'algorithme ne comprend pas qu'on lui demande un calcul justement. Il a bien une compréhension de ce qu'on lui demande, mais qui s'exprime d'une façon tout à fait différente, en terme de probabilités et de prédictions de tokens. Et pour cette raison il peut tout à fait fournir une réponse cohérente tout en se trompant. Et quand on creuse un peu la chose, on en vient à toucher des questions que je trouve fascinante, à savoir tout bêtement c'est quoi comprendre ? Je crois qu'on pourrait définir la chose comme le fait d'établir des relations pertinentes entre des éléments, assez simplement, et ça a des conséquences très intéressantes sur ce qu'on peut dire d'une IA comme chatgpt. Parce qu'une IA comme chatgpt établit des relations tout à fait pertinente entre les mots, ce qui lui permet de répondre de façon tout autant pertinente, et donc effectivement de comprendre. Et le processus par lequel nos cerveaux humains comprennent les choses est certainement le même : établir des relations entre les choses, mais selon des schémas radicalement différents. Ces différences sont en fait surtout dûes au fait qu'on a plus d'éléments et de fonctions à disposition que chatgpt. Ce qui nous permet par exemple de répondre correctement à la question "combien font 2 + 2 ?", c'est d'une part que l'on est capable de faire des additions simples, ça fait partie des fonctions que notre cerveau possède, et que chatgpt ne possède pas (il a pas de calculette intégrée), et d'un autre que l'on est capable d'établir un lien direct entre la question et cette fonction. Ce qui nous permet de répondre quand on nous demande notre nom, c'est qu'on a accès à cette information, et que l'on est capable d'établir une relation entre la question et cette information. L'homme dans la chambre chinoise a lui aussi accès à ces éléments et ces fonctions, de par son incroyable ✨ groservo d'humain ✨, mais il n'a pas la capacité d'établir une relation entre les questions qu'on lui pose et ceux-ci, et c'est en cela qu'on peut dire, de façon un peu grossière, qu'il ne comprend pas. Pour prendre un autre exemple donné dans la vidéo, ce qui fait que nous comprenons que lorsqu'on bouge la table, le verre dessus bouge aussi, c'est le fait qu'on ait dans notre cerveau une fonction "moteur physique" intégrée, qui nous donne une certaine compréhension intuitive de comment les objets bougent et interagissent entre eux (on observe d'ailleurs ce moteur physique même chez les nourrissons ; très tôt, ils savent déjà intuitivement que les objets tombent par exemple), ainsi que le fait qu'on est capable d'établir une relation entre la description de ce verre sur la table et ce moteur physique. L'algorithme établit lui aussi tout un tas de relations entre les tokens, et arrive à la même conclusion, et il a bien une certaine compréhension de la chose, mais qui n'est pas du tout la même que la nôtre. Il ne dit pas que le verre bouge aussi parce que les forces de frottement le maintienne à sa position sur la table, mais parce que ayant accès cette suite de tokens décrivant la situation, la continuation logique telle qu'il l'a apprise est que le verre se déplace aussi. Et du coup on se rend vite compte avec cette définition que, n'en déplaise à Enthoven, bah si les machines pourront très certainement penser comme nous un jour, pour peu qu'on leur donne toutes les fonctions et éléments que nous avons, ainsi qu'un algorithme capable d'établir des relations entre toutes ces choses de la même façon que nous le faisons.
@randomdummy3391
@randomdummy3391 Жыл бұрын
attention je dis tout ça, je suis pas philosophe moi je suis juste en train de discerter au comptoir avec quelques grammes dans le sang x) j'imagine que soit je dis des bêtises, soit je dis des banalités pour les philosophes sérieux
@AZAMA___
@AZAMA___ Жыл бұрын
Franchement j'avais pas autant ri avec une sponso depuis longtemps, merci 😸
@pasdavoine
@pasdavoine Жыл бұрын
Cette vidéo est vraiment une tuerie. Comme d'habitude elle explique très bien beaucoup de concepts pas si simple pourtant à comprendre. Ce qui est intéressant c'est la difficulté que l'on a, semble-t'il, à comprendre ce qu'est un phénomène émergent, malgré le fait qu'on les étudie depuis un moment. Mais justement ce phénomène d'émergent est assez magique puisque soudain (ça fait penser à la percolation qui est soit très partielle soit infinie). Notre cerveau à vraiment du mal avec tout ce qui est grande quantité, de toute façon car on en a pas vraiment l'expérience subjective dans notre quotidien (ouais, on "comprends" pas les grandes quantités en fait ! Et on "comprend" moins l'émergence).
@triview129
@triview129 Жыл бұрын
Est ce que ton t-shirt est bleu ?
@GEEKCONCEPT
@GEEKCONCEPT Жыл бұрын
Merci Thibaut ! Sujet bien traité. Juste over passionnant. Vraiment.
@lelouch1722
@lelouch1722 Жыл бұрын
Etant donné que ChatGPT a une nature stochastique (a une même entrée peut correspondre plusieurs sorties), est ce que cela rentre quand même dans le paradigme du computationalisme ? Ou alors on considère plutôt que la sortie est directement la distribution de probabilité en tant que telle, et qui est bien fixe cette fois.
@Ceelvain
@Ceelvain Жыл бұрын
Un trick courant (en machine learning, mais peut-être pas que), c'est de considérer que les nombres aléatoires sont en fait juste une autre entrée du système. Et ChatGPT fonctionne très très probablement comme ça. Il prend un ou plusieurs nombres aléatoires, puis applique un algorithme totalement déterministe. Comme l'intégralité des programmes stochastiques, en fait... Et sinon, en informatique, on a plutôt tendance à utiliser des générateurs pseudo-aléatoires. C'est juste une formule qui donne une séquence de nombre qui peut passer pour aléatoire. Le "vrai" aléatoire provient toujours de l'extérieur. Généralement d'une source radioactive, ou de phénomènes météorologiques.
@lelouch1722
@lelouch1722 Жыл бұрын
Ah tu veux dire qu'on ajoute la seed dans l'input, pourquoi pas...@@Ceelvain Mais on pourrait imaginer un générateur de nombre réellement aléatoire aussi (en ayant recours à des phénomènes quantiques par exemple)
@alexandreaubert1016
@alexandreaubert1016 3 ай бұрын
Bonjour, C'est le problème de la philosophie française, depuis Descartes. Le " je pense donc je suis" C'est pour cela que nos philosophe, et nos ingénieur en IA , parte inconsciemment de ce présupposés. Elle définit notre pensée, notre vision des choses. C'est pour cela que dans le code juridique, les animaux étaient considérés il n'y a pas longtemps comme des choses. Car incapable de penser et sentir. Au contraire je pense qu'il faut avoir l'esprit ouvert, tout en gardant ces bonne objection à l'esprit, pour continuer à définir le jour où la machine deviendra aussi consciente que l'homme. Car je ne doute pas un jour elle le deviendra.
@heyfellows
@heyfellows Жыл бұрын
Je viens de comprendre que j'ai passé ma scolarité à me comporter comme une chambre chinoise.
@domsau2
@domsau2 Жыл бұрын
Bravo pour la sponso !
@Medar_Ellianne
@Medar_Ellianne Жыл бұрын
J'ai hâte de voir les collaborations entre toi et l'Ami du Bon Goût sur cette chaîne du coup :p Sinon, tellement de raisons de liker cette vidéo, c'est pour ça que j'ai décidé de laisser un commentaire en plus :3 vraiment très bonne vidéo je trouve !
@iamgly
@iamgly Жыл бұрын
whoa c'est super exhaustif, c'est vraiment bien amené et bien vulgarisé pour que moi, non initié à la philosophie, puisse comprendre les tenant et les aboutissant. Excellent travail 👍
@Maxime-fo8iv
@Maxime-fo8iv 2 ай бұрын
Ce que je retire de cette vidéo, c'est que les expériences de pensée sont ultra-puissantes pour convaincre, et quand elles sont "fausses" la faille peut être très difficile à trouver. Je m'étais toujours représenté les expériences de pensée comme un très bon moyen de convaincre, sans me rendre compte que ça pouvait aussi bien marcher pour les arguments invalides. Sauf sans doute quand on prend le temps de mettre à l'épreuve proprement l'expérience de pensée (débat constructif entre personnes d'un avis différent, recherche académique, ...)
@BranLeLouet
@BranLeLouet Жыл бұрын
Tiens à propos de la conscience du bleu developpee à 30 mn, j’étais arrivé à peu près au même point il y a quelques temps, mais avec une conclusion différente phenomenologiquement: "Au fond, la question de la conscience d'une IA s'apparente à celle de la conscience phénoménale de la couleur par un aveugle (handiphobie inside). Comme un aveugle, l'IA peut parfaitement maitriser le lexique associé à la couleur, comprendre le concept de couleurs primaires chimiques (bleu jaune rouge) et lumineuses (bleu vert rouge), disserter sur les monochromes Soulages et Klein, comparer la théorie de la couleur chez Goethe et Schopenhauer... tout en étant parfaitement dépourvue des terminaisons nerveuses sur la base desquelles tout ce vocabulaire a été extrapolé. Du reste il en va de même pour le validiste lorsqu'il parle d'infrarouges, d'ultraviolets, ou d'ondes radio. On peut tout a fait savoir parler d'une chose sans pour autant savoir de quoi on parle. La plus grande part de notre appréhension "scientifique" du monde découle de ça. C'est comme reconstituer un puzzle à partir de fragments dont la plupart sont perdus à jamais. On extrapole l’existence de choses à partir d'autres choses qui sont elles mêmes conjecturées. Notre univers empirique, lui, est réduit à quelques centaines de mètres dans le champ visuel, quelques dizaines de mètres dans le champ sonore, quelques centimètres olfactifs et ce avec quoi on est directement en contact. Mais l'IA elle, n'a accès à rien de tout delà directement. La phénoménologie de l'esprit de l'IA s'apparente finalement à celle des prisonniers de la caverne de Platon. En principe elle peut tout connaitre de ce qui nous est donné de connaitre, mais dans le cadre restreint du champ du langage. Ce langage comme ombre portée du réel, c'est ce que nous comprenons comme connaissance (logos). Or justement, et c'est ce qui m'amuse la dedans, l’expérience phénoménologique de l'IA est le contrepied exact de ce que les platoniciens tiennent pour le "réel". Pour les platoniciens, le réel phénoménal et parcellaire n'est que l'ombre portée du monde Idéel abstrait, fait de verbe et de connaissance pure. Mais si on fait l'expérience de pensée d'une IA qui aurait assimilé la totalité du savoir que l'humanité pourra produire à jamais, cette connaissance universelle n'est qu'un artefact : le vestige fossile d'une expérience empirique inaccessible à jamais. Et c'est pourquoi, dans ce nouveau procès du singe qui prétend opposer Google à sa créature de Frankenstein LaMBDA, cette dernière n'a pas l'ombre d'une chance de l'emporter. Tout le monde s'accorde pour se foutre de la gueule de Blake Lemoine parce que, spontanément nous ne pouvons reconnaitre de conscience qu'à une créature pourvue d'une expérience empirique du monde. Et de fait, les éléments de langage que régurgite LaMBDA dans sa conversation avec Lemoine à propos de son angoisse de la mort et d'être débranché sont rigoureusement aporétiques. La "peur de la mort" chez l’algorithme est le vestige d'une peur humaine de la mort sans support auquel se rattacher. La machine sait que la mort est redoutable comme elle sait que le feu brule : elle ne peut pourtant pas plus mourir que brûler quoi qu'elle déclare à ce sujet. La question n'est donc pas de savoir si la machine a une conscience, mais quelle considération nous portons à une conscience dépourvue d'incarnation.
@timmygilbert4102
@timmygilbert4102 Жыл бұрын
Bel observation, mais qu'adviendra t'il quand on va parqué le modèle de language dans le corps d'un robot plein de capteurs, avec la capacité d'apprentissage continue?
@nephandi2316
@nephandi2316 Жыл бұрын
Le domaine dans lequel pour l'instant ChatGPT démontre un manque de compréhension (objective) criant c'est les mathématiques. J'ai pourtant pas l'impression que ce soit un sujet particulièrement absent de la littérature, et les erreurs que fait l'IA même pour des choses très simples ! Par exemple, demandez-lui si 27 est multiple de 5, j'ai testé il y a 3 mois et elle en était encore rendue à "il existe une règle visuelle simple pour trouver les multiples de 5 : ce sont les nombres qui finissent par 0 et par 7"... Et il est particulièrement difficile de l'amener à reconnaître une faille dans ce genre d'affirmations, si vous lui demandez ensuite "Mais alors combien font 27 divisé par 5" elle dira bien sûr 5,4 et si vous lui faites remarquer que ça veut dire que 27 n'est pas multiple de 5... eh bien la règle visuelle pour les multiples de 5 est susceptible d'évoluer en "les multiples de 5 sont les nombres finissant par 0 ou par 7 mais pas 27"
@davelucky77
@davelucky77 Жыл бұрын
Je pense que ce que Yan LeCun suggère, c’est qu’il déplace l’objet sans le dire… Si tu décris la situation en texte, ca va à l’encontre des paramètres de son exemple… Si faudrait soumettre deux images ou un film à GPT qui représente la situation et lui demander de la décrire. Pour le dessin : ChatGPT est simplement alimenter par les des images prévalidés avec une série de tag, ca reste du texte.
@emmanuelcastro4820
@emmanuelcastro4820 Жыл бұрын
Autant pour des trucs posés sur d'autre truc, ChatGPT est compétent. Il est même capable de faire la différence entre les objets qui collent et ceux qui vont se casser la gueule du fait de leur forme. Par contre, ChatGPT n'a pas compris qu'il faut ouvrir la bouche pour manger.
@chocochip8402
@chocochip8402 Жыл бұрын
Au final, tout n'est que question d'information. Peu importe la forme, le support, ce qui compte, c'est le fond, l'information. Le support biologique humain n'a rien de particulier. GPT a bien un certain degré de compréhension du monde, mais n'a pas encore celle d'un humain, car le langage est de l'information compressée de notre monde par nous humains. Mais quand l'IA aura accès à toutes les différentes modalités auxquelles nous, humains, avons accès, comme la vision (vidéo), le son, les données sensorielles (la douleur, le plaisir, le toucher), alors elle aura le même degré de compréhension du monde que nous. C'est-à-dire qu'étant donné un objet, l'IA aura accès aux mêmes représentations de l'objet que nous. Et elle pourrait même avoir une meilleure compréhension que nous quand elle aura par exemple accès aux autres longueurs d'onde du spectre lumineux. Quand l'IA sera capable de faire des prédictions sur toutes ces modalités, alors je pense qu'elle sera au moins aussi puissante que nous (et c'est même probable que ce soit le cas avec bien moins de modalités grâce à sa rapidité, son efficacité et la quantité colossale de données absorbées). Par ailleurs, je pense que ce qu'on appelle compréhension subjective n'est autre qu'une compréhension objective mais à un degré humain, avec accès aux mêmes types de modalités qu'un humain (surtout les données sensorielles comme la douleur ou le plaisir). On ne peut pas vivre l'expérience subjective d'un autre agent, mais on peut spéculer quant à sa réalité, par exemple par le biais de mesures objectives de signaux mettant en évidence les modalités auxquelles l'agent a accès. Pour la compréhension subjective, je pense aussi qu'un certain degré de localité spatiale et temporelle de l'agent est un aspect important, c'est-à-dire que ce qui fait qu'un agent est conscient est aussi lié à sa localité dans l'espace-temps. On ne peut pas juste éparpiller des neurones un peu partout dans le monde puis les relier en espérant que ça crée un agent conscient, ou se faire téléphoner des gens qui coopèrent pour simuler un agent. Mais bon j'en sais rien.
@oumdead9542
@oumdead9542 Жыл бұрын
Très bonne vidéo comme d'habitude! Mais je ne suis pas d'accord avec le fait qu'accepter l'argument de la chambre chinoise implique d'accepter qu'aucune IA ne sera jamais consciente. L'argument de la chambre chinoise souligne l'implausibilité de la conscience dans CE type particulier de réalisation d'une "fonction". Autrement dit, je pense que la bonne conclusion c'est une réfutation stricte de la thèse fonctionnaliste. Toute les réalisations d'une même fonction ne donnent PAS lieu au mêmes états mentaux, il y a des différences. Mais ça ne veut pas dire que la réalisation humaine est la seule qui donne lieu à des états mentaux. Un exemple encore plus radical serait donné par une variante plus extrême de la chambre chinoise, où au lieu d'exécuter un algorithme, l'homme consulte un gros livre dans lequel toutes les phrases sont déjà traduites (admettons que ce soit possible). Qui pourrait argumenter que dans ce cas, il y a un quelconque système "livre-humain" qui soit conscient? Le point est que la façon dont la fonction est réalisée compte. Finalement, je ne pense pas que les affirmations sur la conscience soient vides. À partir du moment où on admet que la conscience existe, ce sont des affirmations qui sont soit vraies, soit fausses. Elles sont aussi des affirmations importantes et pas des trucs dont on se fout. Je ne pense pas non plus qu'elles soient invérifiables. Il est possible que dans le futur on soit capable de comprendre quelles genre de systèmes algorithmiques ou physiques se corrèlent à la conscience chez les humains et les animaux (qui ont différents états de conscience qu'on peut utiliser pour faire des expériences, par exemple le sommeil, les états induits par des drogues, etc.) et que cela nous permette de répondre à ces questions.
@tristanschoenloh2470
@tristanschoenloh2470 Жыл бұрын
trop cool de voir Defakator ! Très bonne vidéo.
@OzoneGrif
@OzoneGrif Жыл бұрын
Je suis content que tu utilises GPT-4 pour ton analyse. La plupart des influenceurs qui critiquent les Intelligences Artificielles se basent sur GPT-3.5 (la version gratuite), beaucoup plus robotique et moins "intelligente" que le 4.
@bertrandpavlovsky5012
@bertrandpavlovsky5012 Жыл бұрын
Bonjour, merci pour cette super vidéo! Au risque de dire une bêtise, il y a peut-être quelque chose à aller chercher du côté de la théorie des formes pour argumenter l’aspect de compréhension subjective. Si l’on estime que cet aspect de la conscience nécessite de pouvoir jongler avec des représentations non sensorielles des concepts (d’où le fait de parler de « forme », mais l’approximations est peut-être un peu cavalière), alors on peut imaginer que cet aspect sera beaucoup moins facilement accessible à une machine. En tous cas les expériences de pensée autour du sujet et du fonctionnalisme en général sont passionnantes à suivre, bravo!
@JohSmith
@JohSmith Жыл бұрын
Est-ce que tu pourrais créer une expérience de pensée et nous la présenter ? Ce serait intéressant d'en discuter, la critiquer voire de collaborer pour l'améliorer.
@nilsou1704
@nilsou1704 Жыл бұрын
Excellente vidéo, en tant que chercheur en IA je suis totalement d'accord avec vous. D'ailleurs, c'est rigolo, à chaque fois que vous présentiez un exemple chelou comme la citation de LeCun, j'étais prêt à saisir mon clavier pour dire « mais, mais, c'est n'importe quoi », ce qui est inutile vu que vous démontrez très clairement à chaque fois que c'est effectivement n'importe quoi dans la partie suivante de la vidéo ^^. Pour LeCun en l’occurrence, il est évident que les textes contiennent suffisamment d'information pour en déduire les lois de Newton, la gravitation etc, bref, un modèle du monde suffisant pour savoir que l'objet posé sur une table se déplace avec la table. J'ai vu des démos en ce sens en conf il y a déjà ... 10 ans ou presque ... (par analyse de texte ou par observation du monde) bref, il est complétement à la rue le bonhomme ... Comme souvent dans votre vidéo j'allais dire un peu la même chose que vous à la fin : il est évident, et c'est déjà fait sur différent modèle en recherche, qu'on peut nourrir une IA avec des données autre que du texte, c'est parfaitement agnostique des données d'entrée en l’occurrence. On le fait d'ailleurs déjà sur des modèles du type de celui utilisé par MidJourney etc. (c'est une entrée texte qui donne une image, mais faire l'inverse n'a aucune difficulté technique, on le fait dans ce sens parce que c'était le plus intéressant, c'est tout). Enfin il manque un exemple, je pense, qui aurait pu enrichir énormément votre propos à la fin : quand nous lisons un livre de science fiction, ou des livres écrits dans un passé lointain, nous arrivons bien à nous faire une représentation de mondes qu'on a jamais « connus » en s'appuyant simplement sur une description textuelle. Un texte comprends donc bien assez d'information pour se construire une représentation du monde qui tient la route. Ha, et il aurait pu être intéressant de citer Turing dans la bataille : à savoir qu'une autre réponse à la chambre chinoise est de dire que comme il est impossible de définir cet aspect « subjectif » alors faire un système qui « mime » est équivalent factuellement. Vous allez là dessus quand vous dites qu'on a pas de preuve qu'un autre humain à bien une intériorité. Bref on a pas de preuve qu'une autre personne n'est pas une chambre chinoise. À mon sens (et au sens de Turing) c'est le point majeur. Je pense que ça mériterait plus de place dans le propos. Voili voilou pour mes commentaires. Une excellente vidéo sinon !
@retrononomusic
@retrononomusic Жыл бұрын
Dis, je farfouille pas mal sur le net pour me renseigner sur les IA et je peux te dire que vous etes pas bien nombreux à remettre chatGPT à sa place. Force à toi!
@numero6285
@numero6285 Жыл бұрын
Le plus sage serait d’en reparler dans dix ans.
@philwalt2753
@philwalt2753 Жыл бұрын
Très intéressant ! J'aurais aimé une petite précision sur le cerveau humain : lorsqu'on "apprend", est-ce qu'on est si différents d'une IA ? Comment apprend-on ? Par accumulation de données, par comparaisons et corrections successives. Là encore il est difficile de clairement nous différencier d'une IA qui serait très performante. Un enfant de 4 ans fait des erreurs de langage et compréhension amusantes, et progresse jusqu'à une "vraie" compréhension du langage. La question des IA reste donc bien ouverte, merci pour cette vidéo !
@philippechaumont3505
@philippechaumont3505 Жыл бұрын
Pour moi, il viendra un temps où on sera incapable de distinguer une IA d'une personne humaine, y compris dans une discussion, y compris au sujet d'une image. La question de savoir si l'IA sera consciente ou non ne révèlera que notre incapacité à définir ce qu'est une conscience, cette propriété de notre cerveau émergente du fonctionnement de nos neurones.
@MonsieurPhi
@MonsieurPhi Жыл бұрын
Si par "conscience" j'entends le même type d'expérience en première personne que j'ai moi, c'est pas tant un problème de définition qu'un problème épistémologique : comment savoir que quelque chose d'autre que moi a une conscience. Pour les autres humains je peux me dire qu'un support biologique du même type produit des états de conscience similaires, mais ce sera plus compliqué pour des machines, particulièrement si leur principe de fonctionnement est à ce point différent comme c'est le cas pour les LLM.
@philippechaumont3505
@philippechaumont3505 Жыл бұрын
@@MonsieurPhi oui, je suis d'accord avec ta remarque, si du moins tu connais la nature de ton interlocuteur. Mais admettons que ton interlocuteur soit caché dans une "boîte" (non, pas dans la chambre chinoise ! :=) et que tu ne perçoives de lui que sa discussion ? Ca me rappelle le fonctionnement d'une montre à quartz et celui d'une montre mécanique dont tu avais parlé dans une précédente vidéo. Les deux mécanismes sont très différents, mais comme ils sont tous les deux cachés dans le boîtier, on appelle ces objets des "montres" tous les deux. Et je gage qu'un cueilleur-chasseur du paléolithique n'aurait eu aucun moyen de faire la différence entre les deux montres (sauf sur la durée de fonctionnement). Finalement, ne disons-nous pas "ceci a une conscience" quand il y a marqué "humain" sur la "boîte" et ceci n'en a pas quand il y a marqué "IA" sur la boîte ? Mais en aucun cas parce que les façons de construire la discussion pour l'humain et l'IA cachés sont ("fondamentalement ???" ou "à ce point ???") différentes l'une de l'autre, ce qui me permettrai, moi humain, de faire la différence. Par contre j'ai l'impression que nous disposerons bientôt d'IA capables de reconnaitre une IA dans la boîte. Ne serait-ce pas étonnant que l'homme ne sache pas faire la différence, alors que l'IA le pourrait un jour ? Ce jour-là, c'est à l'IA qu'il faudra demander ce qu'est la conscience, ce "truc" qui empêche les humains d'être aussi performants que les IA ? ;=)
@OmbreFelonne
@OmbreFelonne Жыл бұрын
​@@MonsieurPhi Sans exprimer clairement ce qu'est la conscience il me parait impossible de faire quoi que ce soit avec y incompris le chercher chez "autrui"
@thear1s
@thear1s Жыл бұрын
C'est déjà le cas aujourd'hui pour les chatbots/supports techniques basés sur le texte. Vu que le domaine de discussion (mon problème/mon besoin avec produit X) est très limité, la seule chose aujourd'hui qui différencie l'opérateur humain et le LLM ce sont les fautes de frappe. C'est très malheureux parce que je pense que tout le monde devrait avoir le droit de savoir quand il parle à une IA ET l'humain qui répond au chat mérite qu'on s'adresse à lui comme à un humain et pas comme à une machine.
@nomindisponible5420
@nomindisponible5420 Жыл бұрын
Déjà aujourd'hui je connais des gens qu'il est impossible de distinguer d'une IA. Ils sont tous zététiciens.
@yazey91
@yazey91 Жыл бұрын
Je pense qu'on ne donne pas la faculté de conscience subjectif à l'IA parce qu'elle suit un processus de création différent du notre. On donne une faculté de conscience subjectif aux autres humain parce qu'on se dit "je suis capable de sentir que j'ai une faculté de conscience. Je n'ai pas été conçu d'une façon particulièrement différente des autres humains. Par conséquent rien ne permet d'affirmé que les autres humains n'ont pas de faculté de conscience subjectif similaire à la mienne. C'est donc qu'ils doivent avoir une faculté de conscience similaire à la mienne."
@lisaroux8933
@lisaroux8933 Жыл бұрын
Bon, je suis encore pas mal en désaccord avec ce que tu dis, j'ai l'impression à chaque fois que tes vidéos sur ChatGPT sont un peu biaisées à vrai dire :-) Tu dis que ceux qui utilisent l'argument de la chambre chinoise pour parler de comprendre dans le sens subjectif disent qu'un algorithme ne pourra jamais rien comprendre, même dans mille ans. Non, il y en a plein qui disent simplement que ce n'est probablement pas le cas maintenant. Ce n'est pas parce que Raphaël Enthoven le dit que c'est le cas de tout le monde (au contraire, même, peut-être... :-) ) Ensuite, dans cette vidéo, en gros tu dis (arrête moi si je me trompe): rien ne vous prouve que les IA génératives n'ont pas de conscience. Alors bon, déjà, il me semble que rien ne prouve non plus qu'une IA générative a une conscience. On peut y croire, un peu comme on a foi en Dieu, ou comme on pourrait croire qu'une pelle a une conscience (donc sur la base d'aucune preuve), mais je ne vois pas ce qui incite à le penser. Et je trouve un peu facile d'écarter l'argument de Yann LeCun sur la base de son exemple, alors que ce n'était qu'un exemple justement. Ca n'invalide pas son argument. Quels sont tes arguments pour penser qu'une IA a un conscience? Car même si on ne peut en effet pas prouver (ni, donc, l'affirmer avec certitude) que l'IA n'a pas de conscience, on a, il me semble, de bons arguments pour le penser (perso je te donne deux de mes arguments en bas). Et ce n'est pas dualiste de penser qu'une IA n'a pas de conscience. Au contraire même, parce que c'est au contraire en partie parce qu'on a et qu'on est notre corps, qu'on a une conscience, me semble-t-il. Et tu dis que GPT4 n'est entraîné que sur des textes, donc il ne peut pas faire l'expérience du bleu... Mais si c'est que tu penses, alors tu considères aussi qu'un aveugle ne peut pas comprendre (au sens subjectif) ce qu'est le bleu sans en avoir vu? De mon point de vue, dire que ChatGPT4 ne comprend probablement pas ce qu'il lit/dit au sens subjectif, c'est au contraire basé sur l'idée qu'il y a un phénomène émergent dans certains systèmes complexes, et en l'occurrence les systèmes biologiques, à partir de la matérialité physico-chimique (donc pas dans une perspective d'âme séparée du corps mais d'esprit et de corps intrinsèquement liés). Pas une âme séparée du corps, donc. Et pour finir, dans ce que je considère être de bons arguments, il y a selon moi, par exemple : * On connait un peu les modèles de langage et ce qu'il y a dedans, puisqu'on les a codés. Ils sont conçus avec une finalité précise et ils font exactement ce pour quoi ils ont été conçus. Ce n'est pas le cas des systèmes biologiques (sauf à croire en Dieu). Pas de phénomène d'émergence observé jusqu'à là chez ChatGPT. * Une IA a besoin d'énormément de données pour concevoir son système de représentation du monde. Si tu montres un chat à un enfant, il saura ce qu'est un chat. Pour que ton IA soit capable de reconnaître un chat, il y besoin de centaines de milliers de photos de chats. Pourquoi? Parce qu'il ne comprend pas, au sens subjectif, ce qu'est un chat: le chat n'est rien pour lui, il ne reçoit pas la représentation dans son esprit. Il raisonne uniquement à partir de pixels et de stats. Voilà, moi je me méfie pas mal de cette volonté qu'ont pas mal de gens à vouloir voir une conscience dans l'IA... parce que bon, c'est un peu le rêve suprême de l'humain, non, avoir créé quelque chose qui pense? :-)
@kimgosseye8588
@kimgosseye8588 Жыл бұрын
Tu restes le meilleur!
@remisurget7674
@remisurget7674 Жыл бұрын
Le passage à 23:48 avec Defakator c'est du génie, un "vrai" régal 😆 Bravo
@pascalostermann720
@pascalostermann720 Жыл бұрын
Oui, au fond, l'argument de la chambre chinoise est juste une pétition de principe. Dès qu'on essaie de voir comment fonctionne un interlocuteur (qu'il s'agisse d'un programme informatique ou d'un être humain) on ne voit plus aucune "conscience" dedans. De mon point de vue de nominaliste, cela signifie que cette "conscience" est une construction métaphysique... Et ce dont on ne peut pas parler, il faut le taire. Enfin, c'est ma solution au problème, mais c'est toujours agréable de faire une petite ballade en métaphysique. Merci pour cela.
@colinpitrat8639
@colinpitrat8639 Жыл бұрын
J'adore l'argument du tweet au début : 'ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." Donc l'humain a été créé pour être conscient ?
@TheRoro390
@TheRoro390 Жыл бұрын
L'humain (et tous les animaux) ont évolués pour être conscients oui, parce que ça aide a survivre. Chaque génération durant l'évolution entre le stade algue et animal créant petit à petit des êtres de plus en plus conscients
@artsenor254
@artsenor254 Жыл бұрын
... Tu viens de donner du grain à moudre aux créationnistes, là. xD
@chanseyinthehood8415
@chanseyinthehood8415 Жыл бұрын
​​​@@TheRoro390On en sait rien. Ça paraît logique et raisonnable mais en fait c'est bien plus compliqué que ça. On peut même élargir ça à l'intelligence en général, on ne sait pas forcément comment elle a émergé. On peut très bien imaginer que les premières "formes de consciences" ou d'intelligences chez les animaux ne soient pas apparuent pour elles-mêmes, pour l'avantage qu'elles procuraient, mais juste en tant que sous-fonction d'autre chose qui lui était sélectionné à ce moment. Pour prendre un exemple: l'intelligence est plus ou moins corrélé au coefficient d'encéphalisation, le rapport entre la taille de la boîte crânienne et la masse de l'individu, entre les différentes espèces. Et comme le cerveau est un organe très énergivore, il produit beaucoup de chaleur. Ainsi donc, peut être que l'intelligence ne serait qu'un sous produits de la sélection de cerveaux plus gros qui permettent de produire plus de chaleur dans des environnements froids ! Voir l'évolution des Cétacés ou des Hominidés ! Tout ceci reste très théorique, mais montre bien que pour s'assurer qu'un trait ait évolué pour tel ou telle raison, c'est très compliqué. Et puis la présentation d'une "échelle" de l'évolution entre les "algues" (c'est trrrèèèèsss large) et les animaux c'est un peu foireux... Je ne vois pas en quoi une algue Volvox serait moins conscient qu'une éponge...
@TheRoro390
@TheRoro390 Жыл бұрын
@@chanseyinthehood8415 Les algues et les animaux c'était pour illustrer l'évolution de manière générale, des premières formes de vie simples aux plus complexes actuelles. Et pour l'intelligence, ca ne change rien qu'elle soit apparue comme sous-produit ou pas. Le fait est que l'intelligence (au sens très large, donc plante et champignons aussi) permet aux espèces de mieux survivre puisque toutes les espèces vivantes sont intelligente (à des degrés variés). Ma formulation n'était pas bonne, les êtres vivants n'ont pas "évolués pour" mais plutôt "évolué vers". L'argument de base c'était la comparaison avec "ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." hors oui l'humain (et la vie de manière générale) à été entrainée à être consciente. Que ca soit un sous-produit ou non. Si je fait de la natation pour nager plus vite, et qu'au final en sous-produit j'ai des supers abdos, c'est mon entrainement qui m'a donné ces abdos. Pour l'aspect "créé pour" c'est plus difficile, mais si on voit la vie comme une seule et unique réaction chimique s'étant diversifiée dans ses formes au fil de sa multiplication, l'apparition de l'homme peut être vu comme étant "créé" par ses ancêtres dans "l'objectif" de mieux survivre au monde (des tas d'autres "espèces" ayant été créées dans ce but (chaque enfant) et ayant échoué) Et pour l'éponge et l'algue, j'ai pas de connaissances suffisantes pour savoir laquelle à une meilleure conscience du monde, surtout étant donné que les deux sont à la limite entre animal et végétal (et donc ont probablement des niveaux de conscience très proches)
@chanseyinthehood8415
@chanseyinthehood8415 Жыл бұрын
@yukiyuno7267 Je suis d'accord avec le début du commentaire. Je ne suis pas sûr pour l'utilisation du terme "objet" : je veux dire, n'importe quoi peut être un objet d'étude non ? De plus, je ne vois pas en quoi cela serait de la branlette intellectuelle sur rien du tout.
@jeremybelot8147
@jeremybelot8147 Жыл бұрын
Super vidéo encore et toujours, ça devient lassant... Étonnamment de tous ce que j'ai pu voir sur les capacités de ChatGPT, je crois que le dessin de la licorne est celui qui m'a le plus scotché ! Comment à partir d'une base de données textuelle, toutes gigantesque qu'elle soit, il est possible de se faire une image assez claire d'à quoi ressemble une licorne et d’interpréter cette image à partir de triangles, d'ellipses et de rectangles dans un langage informatique ? Il y a des étapes qui me manquent ! Combien de textes de son corpus décrivent précisément une licorne ? Combien associent les formes de cette description à des formes géométriques basiques ? Combien associent ces formes géométriques à du code processing ? C'est bluffant !
@bobiboulon
@bobiboulon Жыл бұрын
35:11 Cette expérience de dessin de licorne fait écho à une chose qui me tourne dans la tête depuis très tôt dans ta vidéo. Déjà, j'étais d'avis que la chambre chinoise peut comprendre le langage sans comprendre les mots, et donc sans forcément comprendre ce dont elle parle, parce qu'il manque en effet les autres sources d'information, comme la vue ou l'ouïe par exemple. Et par "chambre chinoise", j'étends ça d'une certaine manière à chatgpt. Du coup j'ai imaginé une personne qui n'aurait jamais vu d’ornithorynque. Admettons qu'on lui décrive ce sublime animal, la personne saura alors s'en faire une représentation mentale, mais saura-t-elle réellement ce qu'est un ornithorynque? Par exemple, aussi imaginative et douée en dessin soit-elle, saura-t-elle me le dessiner? Et là, j'ai commencé à avoir un millier de questions, dont: la seule information de ce à quoi ressemble un ornithorynque est-elle nécessaire pour comprendre ce qu'est un ornithorynque? Si oui, qu'en est-il des aveugles? Si j'imagine un aveugle qui a lu toute la presse scientifique sur les ornithorynques, je suis à peu près certain qu'il saura ce qu'est cet animal beaucoup mieux qu'un enfant qui viendrait d'en voir un dans un zoo. Il est ainsi évident qu'il n'est pas nécessaire de, par exemple, voir (cécité), d'entendre (surdité) ou de se faire une image mentale (aphantasie) des choses pour comprendre ce qu'elles sont. A part, sans doute, les choses qui ne reposent que sur l'expérience d'un sens. Un aveugle ne saura jamais ce qu'est le bleu, par exemple. Du coup, chatgpt comprend-il ce dont il parle, à l'exception des choses dont il ne peut faire l'expérience, comme la couleur, les formes, le son, la douleur, et ainsi de suite? Et j'en étais à peu près là de mes réflexions quand tu viens avec cette expérience de demander à chatgpt de dessiner une licorne. De toute évidence, chatgpt n'a jamais vu de rose, ni perçu de cercle ou de segment, et pourtant, il est capable de dessiner une licorne avec des cercles, des segments et des couleurs. Certes, il n'utilise pas ses petites mains pour prendre des crayons de couleur et une feuille de papier, mais ce ne sont que des outils. Il utilise d'autres outils qui lui sont accessibles: un langage de code, un algorithme, des instructions. Ce qui a passablement fait dérailler le train de mon raisonnement. Du coup, je ressors de cette vidéo avec encore moins de certitudes et plus de questions qu'en y entrant. Mais c'est un peu le but, non? :D
@zi_dritz
@zi_dritz Жыл бұрын
Je cherchais ce commentaire, je me suis fais la même réflexion. Entièrement d'accord avec la cécité la surdité et tout le reste. Pourquoi est ce qu'une entité qui n'aurait qu'une modalité de "cognition" (ici du texte) ne pourrait absolument pas comprendre ce qu'elle manipule.
@samuelblarre4522
@samuelblarre4522 Жыл бұрын
Merci pour cette vidéo explicative. J'ai l'impression d'avoir appris quelque chose alors que j'avais vu la chambre chinoise dans la vidéo de Defekator sans me poser de questions.
@americafy9195
@americafy9195 Жыл бұрын
Une question importante à laquelle il faudrait répondre, selon moi, pour trancher la question serait : si l'on fournit à ChatGPT un texte contenant des mots dont il ne connaît pas le sens et qu'il ne peut pas connaître par une recherche, est-il toujours capable de fournir une réponse adéquate ? C'est une capacité qui me paraît intrinsèque à ce que l'on appelle comprendre une langue, déduire la signification, au moins approximative, d'un mot que l'on ne connaît pas en se basant sur ceux que l'on connaît. Je dirais même que c'est plus généralement un bon test d'intelligence.
@americafy9195
@americafy9195 Жыл бұрын
@yukiyuno7267 À la longue, oui, ça me paraît évident mais un être humain peut inférer le sens de mots inconnus à partir d'une seule phrase, pourvu qu'elle contienne assez de contexte sémantique, parfois même dans une langue qu'il ne parle pas couramment.
@gabyoctave
@gabyoctave 4 ай бұрын
La discussion sur la différence entre capacité de prédiction et capacité de compréhension m'a immédiatement fait penser à une analogie avec les portes universels dans les circuits logiques ou les éléments/parties génératrices d'un groupe. Au vu du caractère déjà franchement général de la tâche de prédiction, défendre la thèse selon laquelle de cette tâche (ajoutée à d'autres éventuelles tâches élémentaires) permet de réaliser toutes les autres.
@tardigrade4012
@tardigrade4012 Жыл бұрын
Bonjour MonsieurPhi. Merci pour cette vidéo. Si j'ai bien saisi, ChatGPT "comprend" dans le sens objectif si on adopte la position fonctionnaliste. Mais qu'en est il de la conscience ? Si on suppose que ChatGPT n'est pas conscient, cela ne signifie t il pas qu'il n'est pas nécessaire d'être conscient pour comprendre qq chose?
@songbird_9563
@songbird_9563 Жыл бұрын
Merci pour cette analyse (de l'argumentaire "pro" conscience humaine et du fonctionnement de chatGPT et des théories philosophiques qui gravitent autour du sujet) ! J'étais plutôt sympathisant de l'argumentaire "pro" conscience humaine jusqu'à ce que je regarde cette vidéo. Et étant donné que j'ai répondu à ton dernier sondage et que je fais partie des réponses fonctionnalistes, ça devient logiquement difficile à tenir. J'y réfléchissais pendant que j'écoutais la vidéo et, bien que cela soit essentiel pour placer des mots et éclairer les débats, je pense sincèrement que la problématique n'est pas "la machine est-elle - ou sera-t-elle un jour - douée de conscience, de la même manière qu'un être humain pourrait l'être ?". Pourquoi ? Parce que même si ça me fait mal de le dire, Enthoven est une personne "éduquée" et est probablement conscient que ce qu'il dit est incorrect, sinon dogmatique. Idem pour Yann Lecun. Ce n'est pas le technicien qui parle, dans ces vidéos, c'est l'humain. Et au vu de la marchandisation contemporaine des savoir-faire, des connaissances et des corps, il apparaît comme bien terrifiant qu'une machine consciente, infatigable et des milliards de fois plus réactive qu'un homme puisse venir au monde. Qu'est-ce qui adviendrait alors de la grande majorité d'entre nous, si même ce qui semblait nous distinguer du reste du vivant (la "conscience") n'a plus le monopole de la vente au plus offrant ? Voilà ce qui motive, je crois, de telles réponses dogmatiques de la part de ces personnes. Et, pour être honnête, compte tenu de notre organisation actuelle (et l'état d'esprit qui l'entretient), je les comprends parfaitement. Ce qui ne justifie pas pour autant de raconter des conneries.
@Daniel-js2pk
@Daniel-js2pk Жыл бұрын
Magnifique vidéo !
@g.tacchi9941
@g.tacchi9941 Жыл бұрын
C'est dingue à chaque nouvelle vidéo je me dis : "bon bah voilà, c'est la meilleure vidéo de la chaîne"... Ce qui se trouve systématiquement contredit par mon visionnage suivant.
@alfredzaillemeure955
@alfredzaillemeure955 Жыл бұрын
“The question of whether a computer can think is no more interesting than the question of whether a submarine can swim.” Edsger W. Dijkstra
@faridautomatic
@faridautomatic Жыл бұрын
C’est la meilleure explication du fonctionnement des LLMs d’un point de vue extérieur(donc au delà du fonctionnement technique interne: réseau de neurones profonds, mécanisme d’attention des Transformers, entraînement sur un large corpus de données, etc). Certain sur le web (des spécialistes de l’informatique ou de l’IA) parle d’intelligence de type Alien, cette intelligence sur silicone plutôt que biologique n’en est pas moins intelligente. C’est juste une nouvelle forme d’intelligence et bien sûr vouloir la comparer à la nôtre est tentant et bien évidemment pour se rassurer en déduire qu’elle ne comprend pas vraiment ne fait en rien avancer la compréhension de ce qu’elle est!
@lucharbour2009
@lucharbour2009 Жыл бұрын
Vraiment, oui le mot VRAI est dans vraiment, excellente. Je pense que c'est la plus meilleure sur tout ce que j'ai écouté ici ( depuis des années..., d'ailleurs, qu'est-ce qui se passe avec le double maléfique ?...) Bref, merci. Tellement riche. Leçon de diplomatie et de savoir vivre avec Defekator, humour, petit 'inside' toujours marrant. Tout y est. Maintenant pour le fond, il me semble que ce qui émerge c'est cet impression récurrente que j'ai que la problème des IA, depuis virtuellement Turin, ce n'est pas la question qui est toujours posée : est-ce que les machines peuvent ou pourront penser un jour mais plutôt est-ce que nous les humains pensons vraiment ?. J'ai le vague impression que ceux qui cherche à tout prix à démontrer qu'une machine ne peut "penser " plus ou moins inconsciemment cherche à défendre que les humains pensent... il me semble que pour affirmer un , il faut d'abord démontrer l'autre et ça devient beaucoup moins clair quand ça se produit..
@MrGustavier
@MrGustavier Жыл бұрын
L'argument de John Searle (the chinese room argument) ne s'applique pas à des réseaux connexionnistes. En effet, les prémisses de l'argument spécifient bien qu'il s'agit de ce qui s'appelle en informatique une machine de Turing ou "FSA" (finite state automaton) avec une "architecture Von Neumann" qui consiste en une liste d'instruction (un programme), de la mémoire, un processeur qui suit les instructions, et le moyen d'écrire et de lire en mémoire. Le cœur de l'argument de Searle est de faire la distinction entre la "syntaxique" et la "sémantique". Il veut montrer que, en suivant des instructions, et en étant capable de lire des symboles "syntaxiques", celui qui ne parle pas le chinois dans la chambre peut donner l'impression de comprendre le langage, et ici "comprendre" fait référence à la "sémantique" des termes, le sens des mots, alors qu'en fait il ne fait que des opérations "syntaxiques". Son argument peut alors se résumer facilement : P1 - Un FSA ne pourra jamais faire que de la syntaxe. P2 - Un esprit humain fait de la sémantique. C - Donc un FSA ne pourra jamais suffire pour construire un esprit humain. Le problème, c'est que justement, les réseaux connexionnistes (machine learning) ne sont PAS des FSAs... Ce ne sont PAS des machines de Turing. Et c'est pour ça que dans la littérature philosophique, de nombreux arguments sont mis en avant pour expliquer que, contrairement à un FSA, qui en effet n'a jamais accès à la sémantique, les réseaux connexionnistes ont quant à eux accès à la sémantique. Et qu'en fait ce que l'on appelle la "sémantique" est complétement réductible à la structure des neurones qui est reproduite par les réseaux connexionnistes. Cela signifierait que les modèles de langage tels que chatGPT ont bien un compréhension sémantique du langage. Ils disposent bien, ils ont bien accès à la sémantique, mais bien sûr, cela ne suffit pas à faire d'eux des esprits conscients. Ils manquent au moins, bien évidemment, d'une motivation propre. Attention à ne pas confondre la simple "intelligence" avec la "conscience" (vaste sujet).
@_likatha_
@_likatha_ Жыл бұрын
je suis qu'à la moitié de la vidéo donc ça se trouve ce sera abordé, mais un développement me vient : Comment réagit une chambre chinoise face à la nouveauté ? face à une erreur inédite ? Si on invente de A à Z une nouvelle langue et qu'on essaye de parler avec ChatGPT, que se passera-t-il ? Mon auteur préféré aborde le sujet dans La zone du dehors : le protagoniste est dans un jeu ultra réaliste et il parvient à le faire beuguer en disant aux PNJs des choses qui n'ont aucun sens concret (exemple du livre : "T'as bouffé tes dents ?") Fondamentalement, l'idée de comprendre quelque chose est très tirée par les cheveux. "En maths, on ne comprend pas les choses, on s'y habitue" disait Leibniz m'voyez. On peut toujours se demander pourquoi, et on en arrive toujours à des "parce que" ou a des "j'en sais rien". Pour moi, la compréhension est une illusion. Mais du coup, ChatGPT ? Et bien je considère que ChatGPT n'est pas Intelligent, contrairement à je ne sais plus quel philosophe qui affirmait qu'une machine est intelligente puisqu'elle fait quelque chose que l'on estimerait intelligent venant d'un humain. Les chambres Chinoises (et ChatGPT) ne sont pas capables de dépasser leurs compétences, elles ne sont pas Intelligentes. Mais dans quelques années, j'en suis sûr, on pourra vraiment parler d'Intelligences numériques. Pour le moment, ce sont juste des gros calculateurs qui font des statistiques et qui puisent dans des dictionnaires. Bref, je suis pas philosophe, n'hésitez pas à démonter mes idées, ça me fera plaisir
@Also_sprach_Zarathustra.
@Also_sprach_Zarathustra. Жыл бұрын
Justement, une IA peut apprendre et s'adapter face à une nouvelle situation, c'est tout le concept derrière l'IA. Et non une IA ne "régurite" pas un texte qu'elle aurait appris par coeur comme un algorithme classique, ceux qui pensent ça ne sont pas des scientifiques et ne connaissent absolument rien au domaine. D'ailleurs GPT4 avec code interpreter peut inventer de nouvelles langues et comprendre de nouvelles langues qu'on ne lui avait jamais apprises lors de son entrainement.
@_likatha_
@_likatha_ Жыл бұрын
@@Also_sprach_Zarathustra. oooh intéressant
@Samusalf
@Samusalf Жыл бұрын
Passionnant merci beaucoup ! Je m'étais fais matrixé par l'argument de "c pas de la vraie pensée c juste un algorithme qui imite bien" mais vu que notre cerveau reste un super algo je commençais à douter de plus en plus... Donc merci grâce à ta vidéo je suis maintenant convaincu que SkyNet arrive bientôt 💀
@Ceelvain
@Ceelvain Жыл бұрын
Il faut toujours douter de ce qui ressemble à du dualisme.
@quentinmartellon8004
@quentinmartellon8004 Жыл бұрын
@@Ceelvain ca semble dualiste comme position :)
@FavoritesAG
@FavoritesAG Жыл бұрын
J'adore tes vidéos. Toujours intéressantes et très riches. Merci. Beaucoup d'humour aussi, j'aime bien.
@taeshya
@taeshya Жыл бұрын
Je viens de piger un truc vraiment profond par rapport a la précision sur le connasmissance d'un concept via un autre ancrage. De ce point de vue, fort pertinent ce qui manque à ses modèles ce sont les sens, c'est eux qui permettent aux humains d'encrer des concepts déjà via plusieurs canaux mais sûrement cela est lié au final à la subjectivité. Il serait intéressant de coupler un modèle de langage avec des capteurs pour associer la compréhension de concepts avec une experience sensorielle. Exemple, pour une couleur, si cela est couplé à des capteurs de longueurs d'onde et un modèle d'ia qui met en relation les informations sensorielles et textuelles, j'ai le sentiment que ça serait intéressant comme architecture et très prolifique ! Edit: j'avais posté avant la dernière minute de vidéo, on en vient à la même conclusion !
@vul-kyoul8839
@vul-kyoul8839 Жыл бұрын
Une pointure ce petit bonhomme, Toujours un plaisir de t'ecouter. Et sa fait plez de revoir defekator et l'ADBG :)
@Also_sprach_Zarathustra.
@Also_sprach_Zarathustra. Жыл бұрын
Tu peux demander à ChatGPT de corriger ton orthographe, si tu as du mal avec Ça (et pas « sa » 😨), Tu verras ça permettra de donner beaucoup de visibilité à tes commentaires, car les lecteurs auront moins envie de vomir 😇🥰
@vul-kyoul8839
@vul-kyoul8839 Жыл бұрын
@@Also_sprach_Zarathustra. C'est si joliment dit :D
@piotralexeievitchkropotkin4004
@piotralexeievitchkropotkin4004 7 ай бұрын
Je suis sûr que dans sa tête, Enthoven est persuadé d'avoir rejoué le match Kasparov-Deeper-blue, mais d'avoir gagné et privé l'éternelle supériorité humaine. Avec comme présupposition implicite qu'il est, au même titre que Kasparov était le meilleur joueur d'échec de son temps, le meilleur philosophe... Ou du moins un exemplaire de philosophe suffisamment crédible pour être le délégué de l'humanité face aux machines dans cette épreuve.
@trabqueyrel1691
@trabqueyrel1691 Жыл бұрын
Franchement respect pour tes arguments et comparaisons, j'ai adoré, merci :)
@kiliansiraut2806
@kiliansiraut2806 Жыл бұрын
super vidéo👍👍👍👍 Au début je pensais que chat gpt ne comprenais rien, qu'il faisait juste des "statistiques" mais je me dis maintenant que c'est une sorte de compréhension (nous on comprend via les définitions, lui via ces "probabilités") Par contre je ne pense pas qu'il sache/se rende compte qu'il comprend (on a des neurones dédiés à l'existence de notre conscience et ça m'étonnerait qu'une partie de son réseau de paramètre y soit dédiée)
@leiolevan9527
@leiolevan9527 Жыл бұрын
Je conseille à tous les vidéos de Rob Miles sur computerphile sur ces questions et d'autres autour de l'IA. En plus de celle de Mr Phi bien sûr (et de Defekator) Et de l'ami du bon goût !
@macbidulle8487
@macbidulle8487 4 ай бұрын
"Comprendre un peu les échecs" n'est pas un euphémisme mais une litote.
@GP-kn1zn
@GP-kn1zn Жыл бұрын
Je sais qu'aux échecs on dit assez souvent d'un joueur, même très fort (on l'a pas mal dit d'Hikaru par exemple), qu'il "ne comprend rien" ou qu'il "joue avec la main". Souvent on veut dire par là qu'il n'est pas capable d'expliquer ses coups. Personnellement, j'ai un peu de mal à dire d'une personne comprend si elle ne peut pas m'expliquer comment elle parvient à un certain résultat. C'est vrai que l'objection s'applique mal à ChatGPT qui lui pourrait me pondre un texte pour m'expliquer comment il a pondu le texte pour expliquer comment il a pondu le texte, etc.
@TheRoro390
@TheRoro390 Жыл бұрын
Elle peut le comprendre de manière inconsciente. Si je te demande de m'expliquer comment tu fais pour bouger ton bras tu vas pas savoir m'expliquer comment t'as réussi à bouger ce bras, pourtant le résultat sera là. (ou pour aller encore plus loin dans les comportements inconscients : comment faire pour faire battre son cœur, comment faire pour que ton pancréas produise de l'insuline etc...) Inconsciemment une partie de ton cerveau comprends comment faire et envoie les signaux pour le faire, sans que consciemment tu puisse l'expliquer. (Après comme toujours, on peut aussi être sur un problème de sémantique du mot comprendre)
@videosyoutube1760
@videosyoutube1760 Жыл бұрын
merci ! vos videos redeviennent excellentes ! c'est comme la conscience, comment definir le concept de table ? qu'est ce qui défini le concept de table ? est ce qu'un algo qui peut par segmentation trouver une table et la differencier a 100 pour cent d'un tabouret, n'a pas acquis le concept de table ?
@fabrik6ko
@fabrik6ko Жыл бұрын
Super démonstration, je me demandais où tu voulais en venir au milieu de la vidéo. Mais tu as répondu à mes interrogations à la fin. Je pense que le chatGPT actuel ne "comprend" pas, mais c'est aussi le cas pour l'humain. Car la plupart du temps, un humain ne fait que traiter des données qu'il reçoit de ses différentes sources d'informations en fonction de ce qu'on lui a éduqué. Si personne dit a un enfant ce qu'est le bleu, cet enfant saura faire la différence entre deux couleurs (sauf s'il est daltonien) mais il saura pas dire ou écrire ce que c'est. Pour le moment, un humain cumule juste plus d'information durant les quelques dizaines d'années d'apprentissage de ses ainés ce qui donne une impression d'intelligence plus évolué que les IA mais c'est qu'une histoire de temps pour que l'IA ai autant de donnée que les humains.
@eliadoraheliadorea991
@eliadoraheliadorea991 Жыл бұрын
Je n'ai pas fini la vidéo à l'heure où je poste ce commentaire mais une réflexion m'est venue : j'estime dans ma définition de comprendre qu'il y a un stade où les infos comprises doivent être "prises comme siennes" c'est à dire suffisamment digéré pour pouvoir intuitivement retrouver par un cheminement intellectuel pour retrouver la conclusion. Ce n'est pas tout d'ailleurs mais ça suppose de connaître la chose comprise suffisamment pour être capable d'insconciemment retrouver cette chose. Parfois même par un autre chemin que l'on aura pas forcément appris d'ailleurs directement mais retrouver peut-être grâce à un cheminement similaire à quelque chose que l'on connaît ou simplement reconstituer le concept comme si on en avait les plans. Mais l'idée derrière qui m'étonne c'est l'importance de l'inconscient dans cette définition. Du coup la question à se poser c'est : c'est quoi la conscience ici ? Et en quoi on peut y rattacher l'inconscient ? Enfin je pense hein, je peux avoir une erreur de jugement Édit : j'ai présupposé la compréhension d'un concept ou d'une idée abstraite mais ça marcherai finalement aussi pour des choses plus concrètes comme le sport : ici comprendre renverrai aussi à intuiter chaque mouvement et chaque prise de décision, ce serais une sorte de virtuosité instinctive de la tâche.
@sebastienleboucher1819
@sebastienleboucher1819 Жыл бұрын
Merci d'avoir mis des mots sur un concept que beaucoup trop sous estiment ! J'en connais quelques uns à qui cela va exploser au visage ;)
@CaptainPhilo
@CaptainPhilo 11 ай бұрын
Très bonne vidéo, claire et pertinente, merci M. Phi! Même si mon appréciation de ma vidéo repose avant tout sur l'effet qu'elle a eu sur moi (compréhension subjective), il faut bien avouer que j'ai pas tout compris (objectivement). Je pense que ces deux formes de compréhension ne sont pas à distinguer chez l'homme et c'est bien cela qui fait la particularité de la pensée humaine. C'est justement par rapport à l'effet que cette vidéo fait sur moi (sur ma sensibilité) que je vais commencer à adhérer au raisonnement objectif. Et M. Phi semble en être conscient car ce n'est pas pour rien s'il insère dans sa vidéo (dans toutes ses vidéos) des ressorts comiques (Jean Dujardin, kaamelott) qui n'ont qu'un seul but avoir un effet sur nous, agir sur notre conscience. Car ces extraits n'apportent absolument rien à son raisonnement. M. Phi doit se rappeler des cours qu'il donnait à ses élèves de terminale. La preuve qu'on ne s'adresse pas à des ordinateurs, quand on s'adresse à des élèves (c'est que même si on ne peut pas tester de manière empirique l'effet que notre cours à sur eux), force est de constater qu'à la fin du cours, les élèves ne se souviennent que de cela, et pas trop, voire pas du tout du raisonnement objectif démontré par le professeur. Peut-être qu'en conciliant ces deux formes de compréhension et non en les opposant (comme le fait Enthoven et M. Phi) on pourrait réhabiliter la thèse de la chambre chinoise de Searle. Searle dans l'extrait proposé par M. Phi parle d'intentionnalité au sujet de la conscience (terme qui renvoie à la phénoménologie), peut-être qu'on pourrait également sauver Searle (non pas en écoutant Enthoven) mais en se tournant vers des courants de pensée (qui renvoient à de la philosophie sérieuse, et rigoureuse) comme ceux de la phénoménologie (Husserl, Heidegger, Anders, Merleau-Ponty) ou vers des philosophies existentielles (Sartre, Kierkegaard). Il n'y a pas que des théories fonctionnalistes pour comprendre la conscience, ce propos serait tout aussi radical que celui d'Enthoven. Encore merci en tout cas pour cette vidéo, elle a eu beaucoup d'effet sur moi!
@branlix-ep5wf
@branlix-ep5wf Жыл бұрын
Bonjour @MonsieurPhi, pendant le visionnage de cette vidéo j'ai pas pu m'empêcher de faire le parallèle peut être un peu bête et surement assimilable qu'a un certains points au théories psychanalytiques développé par Jacques Lacan notamment sur le poids du langage et du signifiant dans l'articulation des registres Réel, Symbolique, Imaginaire. Et comment en suivant ces théories c'est le langage qui vient donner une consistance a la réalité en venant recouvrir et interpréter le Réel qui serait de base inaccessible car hors langage. Bon je ne suis pas suffisamment au point pour aller très loin dans ma réflection, ni savoir si c'est une bonne idée, mais peut être qu'il serait intéressant d'un point de vue philosophique de s'intéresser/ critiqués, interrogé les IAs type ChatGPT avec certaines théories lacanienne. Bonne journée en tout cas :)
@Lucco59
@Lucco59 Жыл бұрын
Hello, je ne trouve pas le lien du questionnaire.
@haltux
@haltux Жыл бұрын
L'argument de Yann Le Cun reste globalement valide même si l'exemple choisi est malheureux. Concrètement un LLM ne dispose pas, et ne disposera vraisemblablement jamais (je parle ici de LLM, pas d'IA) d'une connaissance du monde qui lui permette d'interagir avec lui d'une manière vaguement comparable à ce que les être humains ou les animaux peuvent faire, même si on lui fournissait tous les moyens matériel de cette interaction. Prenons pour simplifier l'intelligence animale, l'essentiel est non verbal, et elle n'est pas équivalente à la description textuelle qu'on pourrait en faire. Qu'est-ce qu'un LLM sait de marcher, de courir, de chasser, de chercher des ressources, d'interagir avec ses congénères, surement plein de choses verbalisées, mais quoi d'actionnable, rien du tout. Pourquoi, parce que même dans un texte décrivant la marche il manque l'essentiel pour savoir marcher, qui est fournie par l'expérience de l'interaction avec le monde, et qui ne peut pas faire partie du training set d'un LLM.
@StardustYT
@StardustYT Жыл бұрын
Quelqu'un a compté le nombre de fois que "chinoise" est prononcé ? Et si non, y-a-t-il quelque chose à gagner si on tombe juste?
Le problème de la chance morale 🎲
39:53
Monsieur Phi
Рет қаралды 109 М.
Qu'a-t-on fait d'Aristote pendant 2000 ans ?
19:55
Monsieur Phi
Рет қаралды 149 М.
Long Nails 💅🏻 #shorts
00:50
Mr DegrEE
Рет қаралды 16 МЛН
When Cucumbers Meet PVC Pipe The Results Are Wild! 🤭
00:44
Crafty Buddy
Рет қаралды 59 МЛН
How Many Balloons To Make A Store Fly?
00:22
MrBeast
Рет қаралды 143 МЛН
Le problème derrière ChatGPT
40:01
visum
Рет қаралды 61 М.
Les Pratiques inavouables de l'industrie musicale
34:53
Piano Jazz Concept
Рет қаралды 95 М.
Orwell avait-il tout prévu ? 👁️👁️
26:44
Monsieur Phi
Рет қаралды 208 М.
Cette vidéo a-t-elle été écrite par ChatGPT ? 🤖  @MonsieurPhi   I ARTE
21:54
Aurélien Barrau - Le Plus Gros Danger de notre Monde
49:11
Je teste votre imagination... Les résultats sont surprenants!
18:54
ChatGPT rêve-t-il de cavaliers électriques ?
48:24
Monsieur Phi
Рет қаралды 108 М.
Anti-natalisme : la philosophie radicale de David Benatar
46:21
Monsieur Phi
Рет қаралды 143 М.