GG comme d'hab, et big up à ton pote qu'a pas l'air habitué à ce genre d'exercice mais qui s'en sort très bien ;-)
@J0623-f5r6 жыл бұрын
Rien à voir avec la vidéo (qui est superbe !), mais je voulais te dire Lê que j’ai démarré ce matin une classe préparatoire en mathématiques et je pense fort à toi, c’est peut être même en partie grâce à tes vidéos que je suis heureux d’y rentrer aujourd’hui. Des bons professeurs, des bons vulgarisateur tout ça me permet d’affirmer que je suis heureux de faire des maths à dose irraisonnable chaque jour. Un grand merci 🙏🏼
@eniotnayssaneb34426 жыл бұрын
Les joies de la mpsi
@augustinfrancotte31636 жыл бұрын
Ce qui peut ensuite causer des accidents, et donc des morts suivis de décès...
@florianlemysterieux16896 жыл бұрын
j'ai remarquer aussi ahah
@clementchaouat58226 жыл бұрын
Décès suivi de mort ou mort suivie de décès?
@domsau26 жыл бұрын
Mort : terme biologique. Décès : terme administratif, ou juridique.
@clementchaouat58226 жыл бұрын
@@domsau2 oui mais est ce que le décès estl'acte de mourir et mort l'état après le décès? Les deux désignent le fait de mourir? Ou le fait d'être mort? J'en reviens a ma première question est ce qu'on peut utiliser décès suivi de mort ou mort suivi de décès? Ou aucun ça n'a aucun sens ils sont synonymes? (Mon avis c'est décès=acte de mourir, mort =décédé =l'état d'après le décès donc décès suivi de mort). Mais comme Lé dit l'inverse (et il l'avait déjà fait dans la vidéo précédente donc je ne pense pas que ce soit une erreur) je pose la question ;)
@warny19786 жыл бұрын
Primum déteind sur Sience4All...
@yohangross55186 жыл бұрын
Apres toutes ces videos sur la morale des IA, la complexité de leur programmation et la taille des enjeux qui en dependent, une question je pense se pose : Techniquement, la meilleure maniere de programmer la morale des IA, de la securiser et de nous laisser le temps d'y reflechir et de la tester ne serait pas au final de reussir politiquement ou economiquement a ralentir la recherche, voir meme de creer une IA qui serait programmée pour provoquer ce ralentissement ( evidement il faut une IA inferieur au niveau humain sinon ca n'a pas de sens ) Au fait Lê si tu me lis, sache que je suis un enorme fan de ton travail et que je te souhaite de toucher toujours plus de gens ! T'es d'utilité publique mec !
@NEBREUELPHFTARRRR6 жыл бұрын
qd le choix du sujet de la série de vidéos est tombé sur ia, je m'attendais à ce que ça donne des vidéos chiantes et comme je me trompais, j'ai été agréablement surpris, et comme les précédentes de la série, cette vidéo est géniale.
@wellan40726 жыл бұрын
Toujours du très bon contenu merci beaucoup. Un vrai plaisir.
@ooberholzer6 жыл бұрын
C'est tellement génial... Bravo de nous raconter et expliquer tout ca aussi bien!
@laguerresilencieuse72825 жыл бұрын
Ultra intéressant. C'est ultra bien d'adresser les problèmes de robustesse de l'IA et de les inclure by-design dans leurs conception ! Après la sécurité doit toujours être considérée en fonction du risque. Si le risque principal du hacking d'une IA n'est pas grave (genre aucune potentielle atteinte a la vie humaine) ... on l'accepte et yolo. Mais si les universitaires arrivent à développer un système fonctionnel, prouvé mathématiquement comme résilient et relativement facile a mettre en oeuvre. Ca sera une vraie révolution.
@sined7046 жыл бұрын
Merci à vs 2, très intéressant et enrichissant. Love & gratitude.
@alexandreancel64236 жыл бұрын
Vidéo et collaboration très intéressantes, merci à vous deux !
@Mokoach6 жыл бұрын
les intervenants sont rare dans tes vidéos sont rare mais j'ai trouvé mahdi très intéressant et clair.
@Mokoach6 жыл бұрын
mince je ne me suis mal relu....mais tu vois ce que je voulais dire :p
@psycus176 жыл бұрын
Nonante neuf ! :D
@didinedeboms19736 жыл бұрын
4:56 "des morts suivis de décès" ... XD
@domsau26 жыл бұрын
Mort : terme biologique. Décès : terme administratif, ou juridique.
@visionxterne49816 жыл бұрын
@@domsau2 même si les 2 mots ont une définition differente tu admettra qu'il est difficile d'être mort sans être décédé, et inversement.
@duconlajoie96806 жыл бұрын
la petite ref à "hygiene mentale" qui fait plaisir :) Sinon c'etait très interessant, on sent que l'intervenant n'est pas très à l'aise mais ça viendra avec le temps :)
@julienopui44366 жыл бұрын
sympa le mahdi
@julientroquereau43536 жыл бұрын
j'adore mahdi
@spacephenix98496 жыл бұрын
Merci pour la vidéo :)
@JuliettelAthlète6 жыл бұрын
Parfait comme d'habitude 😍
@kasonnara6 жыл бұрын
Bonjour, très bonne vidéo comme souvent! En tant qu'étudiant en informatique très impliqué dans l'IA, je pense que les attaques par évasions sont un réel danger, les autres types d'attaque évoqués me parraissent plus facilement gérables avec un développement initial attentif et bien veillant. Cependant les attaques par évasion me semblent être une véritable brèche, puisque les expériences montrent bient que même pour des systèmes très complexes on peut trouver (relativement facilement) une faille. Et cela ne me parait que très difficilement corrigeable vu que l'on n'est déjà pas capable de comprendre parfaitement ce que font des réseaux de neurones dans les détails. Il est possible que ce genre de failles disparaisse avec la complexité de l'ia, mais ça m'étonnerais. Je pense qu'il sera juste plus dur de calculer les valeurs d'entrées capable de dupper l'IA mais pas leur existance, cela ne m'étonnerais même pas que ce genre de faille soit aussi présente chez l'humain, on a bien des illusions d'optique ou autre effet qui nous trompent. La différence c'est que l'on a pas accès a l'état exacte du cerveau d'autrui pour calculer l'image exacte qui le trompera. Et je pense que le même systeme peut être appliqué a l'IA, en fait ces images qui trompent le jugement d'une IA même s'il s'agit de l'ajout de bruit sont toujours très Très TRÈS précise et sans la connaisance parfaite des paramètre de l'IA ce genre d'attaque est difficile. Du coup la parade parfaite serait de cacher le fonctionnement interne de l'IA. Mais cepdant cela va a l'encontre d'un des principe de sécurité les plus présent de nos jours: un protocol n'est pas sûr si personne n'y a accès, mais au contraire si il est libre et donc que tous le monde peut le vérifier librement et éventuellement y soumettre des correctifs. Du coup pour moi les IA devront être entre les deux. Dans l'idéal, leur algorithme d'apprentissage et même les données utilisé pour l'apprentissage devront être publique afin que n'importe qui puisse vérifier la validité de l'IA en la reproduisant; mais le résultat de l'apprentissage lui devra rester secret afin qu'il ne soit pas possible de calculer d'attaque par évasion. Et donc pour cela le processus d'apprentissage devra être non determisiste par exemple en mélangeant les données au hasard, ce qui devrait suffire a totalement changer l'image a utiliser pour une attaque par évsion.
@Galaxyi1006 жыл бұрын
Très compréhensive cette vidéo ! Merci :-)
@myriam_hanoun6 жыл бұрын
Excellente vidéo comme a chaque fois !
@NRichard6 жыл бұрын
J'aime ce clin d'oeil à Hygiène Mentale ;)
@flutterwondershyyay82556 жыл бұрын
Étant donné que les IA vont majoritairement rechercher les informations sur internet, on a tous individuellement intérêt à faire marcher notre hooliganisme et hurler haut et fort nos convictions sur internet afin que le futur corresponde justement à nos convictions
@SygwaldPGO6 жыл бұрын
« [...] des morts...suivit de décès ! » très bon. 😜
@Disakey6 жыл бұрын
Super vidéo ! Ça donne des idées.
@big0nic6 жыл бұрын
Bonne vidéo, car comme beaucoup peut-être, j'avais conscience des problèmes cité de la vidéo, mais je ne les avais jamais envisagé sous l'oeil du piratage. Brrr je sens le petit vent frais d'un nouvel hivers de l'IA !
@jean-baptistefox28196 жыл бұрын
Quelques questions : _ Qu'es-ce qui fait de nous humains des individus majoritairement pour les valeurs morales ? Et qu'es-ce qui fait que certains d'entre nous ne le sont pas ? Pour esquisser un début de réponse, c'est que nous sommes limités, en physique, en résistance, en temps pour les actions ou même en actions externes comme les finances. Nous sommes aussi évolutifs, comme dit dans la vidéo sur notre propre morale de l'instant, alors comment rentre l'IA évolutive aux cotés de l'humain, pas plus vite pas plus lentement, pour suivre l'espèce elle même en fait. - Seconde question, si une IA est 99.99% dans les clous, si c'est de manière générale, pourquoi pas sectoriser, comme ça on fait un paquet de secteurs à 100% et la ou ça dysfonctionne on limite ? En tout cas, belle série de vidéos, nous sommes beaucoup à suivre la réflexion et tenter d'y réfléchir avec pleins de point de vue.
@the_president6 жыл бұрын
moi je ne crois pas de prendre l'IA comme la chose mais plutôt un ensemble de manœuvres automatisés mais dans des secteurs limités le frigos se connecte au supermarché livraison a la maison payement par carte directement ca c'est une forme. j'ai cortana elle sait que je préfère 26° douche a 60 mes disques et mes films préféré et me suggère d'autre. et j'ai ma smartwatch qui appelle l'urgence en cas de crise par exemple. et la voiture a conduite automatique qui me porte ou je veux . si ces élément restent séparés j'ai plus de chance d’éviter un bouleversement de vie a 180° mais si je les connecte tous a la même source disons le téléphone si je perd mon téléphone je risque un peu gros
@jean-baptistefox28196 жыл бұрын
Je suis en bonne partie d'accord, une intelligence globale a plus de risques de conduire à un désastre.
@the_president6 жыл бұрын
la question plus stressante a propos de l'IA est si (bons et mauvais) on est capable de créer des armes arbitrairement programmés a tuer et la réponse est oui. et la bataille se poursuivra sur comment neutraliser l'adversaire et chercher que l'adversaire ne neutralise pas les notres
@the_president6 жыл бұрын
tu imagine des millions de mini drones programmés a éviter les obstacles et tuer tous ceux qui ne sont pas asiatiques. ca on doit chercher d’éviter mais aussi prendre en considérations
@jean-baptistefox28196 жыл бұрын
D’où l’intérêt de toute cette série de vidéos, essayer de définir au mieux les critères qui nous protégeront en tant qu'êtres de chair.
@deeessd.s85585 жыл бұрын
Bravo à vous !
@etienneverpin14186 жыл бұрын
Épisode passionnant une fois de plus. Pour ce qui est de l'attaque par "empoisonnement"(ou par "désinformation"?) ne pourrait-on pas apprendre aux IA à prendre en compte la fiabilité des sources?
@le_science4all6 жыл бұрын
Oui ! Mais c'est plus facile à écrire en langage naturel qu'en langage de programmation ^^
@我妻由乃-v5q6 жыл бұрын
Science4All On ne peut pas créer des mots en langage de programmation (Question naïve).
@theoi39216 жыл бұрын
Même une source fiable peut donner des informations érronnées, il s'agit plutôt de confronter les sources et de voir le nombre de recherches derrières et la qualité des résultat sur le "terrain".
@delapaix46456 жыл бұрын
Je pensais à ça aussi. Mais finalement, l'empoisonnement, s'il vient d'une source jugée fiable (le hack de la source fiable) rendra l'information encore plus crédible et pertinente. Le hack de ces sources fiables serait le jackpot. A défaut de "sources fiables", j'imagine plutôt des "informations non fiables" ou "contradictoires avec les informations acquises depuis X temps", devenant donc douteuses. Genre : Les vaccins ont prouvé leur efficacité depuis X temps et en quantité Y de "preuves" provenant de Z sources. Et, tout d'un coup, l'IA reçoit en X' temps des informations contradictoires et en quantité Y' de "preuves" provenant de Z' sources. L'IA devrait trouver ça louche. Bon après, que faire de l'information ? Aucun idée ^^
@orki9746 жыл бұрын
Oh mon dieu, je cite "L'éducation mathématique, c'est très très secondaire", je suis outrait ! Bon, néanmoins, j'avais déjà entendu un discours similaire de Alexander Grothendieck qui disait qu'à un moment on se rendrait compte qu'il y a des priorités plus importantes que de faire progresser les mathématiques de haut niveau. Sa conférence "Allons-nous continuer la recherche scientifique ?" est incroyablement d'actualité : kzbin.info/www/bejne/kIice6OQjdx6jsU Cet exposé date de 1972, c'est incroyable. On dirait que ça a été enregistré demain...
@barthmarti43946 жыл бұрын
Comme d'hab... Au top.
@luckylitariste72053 жыл бұрын
Merci Lê. Un philosophe m'a dit qu'imaginer une super intelligence sera toujours borné par l'intelligence de celui qui l'imagine. N'en est-il pas de même ici ? Incapables d'anticiper, de comprendre, de pourvoir faire confiance à une IA de niveau humain, ne ferait-on pas mieux de limiter son champ d'action et de ne pas lui laisser prendre de décisions basées sur une morale encore indéfinie ? Il me semble qu'utiliser les IA là où elles sont objectivement meilleures que nous, dans un scope limité, et avec contrôle par l'humain pour des décisions à impact important, tels qu'aujourd'hui en médecine, serait préférable. Il me semble aussi que la morale attribuée à une IA dépendra toujours de la fonction qu'on lui demande de maximiser. Or cette fonction est définie par l'humain. Rien ne peut empêcher un humain mal intentionné d'implémenter des fonctions néfastes. Pour en limiter l'impact, il faut en limiter le pouvoir, de même que pour n'importe quel autre outil qui serait néfaste s'il était mal utilisé. Cela dit, je suis d'accord avec toi que pour les IA à pouvoir important, il est primordial de réfléchir à la fonction qu'elles maximisent. Et bien que le code de l'IA entraînée soit illisible, le code et les données d'entraînement ainsi que le code de la fonction à maximiser, devraient être publics.
@kriticoeur17686 жыл бұрын
La prochaine fois, merci de prêter un de tes T-shirt à ton invité, parce que le plus blanc que blanc, ça casse les yeux et ça pourrait fourvoyer une IA. Sinon superbe vidéo avec plein de questions et débuts de réponses auxquelles on ne pense pas. Il faut avoir l'esprit tortueux pour utiliser des tortues ninja pour torturer des IAs.
@JeuneBoubs6 жыл бұрын
Moi (grand adepte du bayesianisme également) je suis prêt à parier les 3/4 de mes économies que ton moi++ considérera le problème de la lutte contre le réchauffement climatique comme bien plus important que celui de la malaria (du moins pour ce XXIème siècle). Pour la vieillesse je n'ai pas encore les idées assez claires pour faire un pari sur ton moi ++ (ni le miens) :)
@democratiedabord51656 жыл бұрын
J'ai rencontré Big Brother. Il m'a dit que mon moi++, c'est lui. Mais que je suis trop bête pour m'en rendre compte.
@Palslayers6 жыл бұрын
Super vidéo :)
@sebydocky50806 жыл бұрын
Un côté Stéphane Plazza avec "Laplace" ? (double-vasque). Sérieusement une des meilleures chaines du Web. Je sais pas ce que tu fais dans la vie, mais dans mon labo en Deep, on te prendrait de suite.... Tu es INRIA ? CNRS ? déjà ?
@GoelWCS6 жыл бұрын
Je reste persuadé que la souffrance (au sens large) est une clef importante de la morale. Comprendre ou modéliser la souffrance est pour moi un point de passage de l'IA. Peut être une clef de la conscience ou de l'intelligence forte.
@DamienVasseFlo6 жыл бұрын
Il est possible d'attaquer des IA avec certaines techniques, donc le problème des 99,99% est valable. Cependant, il est aussi possible "d'attaquer" des humains qui seraient chargés des mêmes tâches, en s'appuyant sur des ruses, des biais cognitifs et les limitations des perceptions, entre autres. Or les humains sont peu fiables globalement (je pense au taux d'armes à feu qui arrivent à passer les contrôles en aéroport). Ainsi, même si les IA ne sont pas parfaites, ne resteront-elles pas de toute façon supérieures à des humains, humains et IA ayant chacun leurs failles propres ?
@astridcasadei4 жыл бұрын
Est-ce que les images ambiguës (du genre "L'amour de Pierrot" de Dali où on voit au choix un crâne ou un couple d'amoureux partageant un verre) ne seraient pas une sorte d'attaque par évasion pour humains ? (Même si là le but n'est clairement pas de faire prendre une mauvaise décision à l'humain regardant l’œuvre).
@Cactuskipikkk6 жыл бұрын
Est ce que renforcer na sécurité des IA ne nous prive pas nos derniers moyens de défense contre elles ?
@JeanMolline6 жыл бұрын
Et ne peut-on pas introduire dans la programmation de l'IA les élément lui permettant de détecter une tentative d'attaque ? Il me semble qu'avec les bons éléments de base, une IA les détectera même largement plus vite que n'importe quel humain, non ?
@IArrrt6 жыл бұрын
Pourquoi employer le terme anglais "incentive" à la place de motivation ?
@theonskyfaller85776 жыл бұрын
L'américanisation des esprits ? On entend plus parler de "fake news" que de "fausses informations". Triste France.
@eniotnayssaneb34426 жыл бұрын
Je dirais plutôt levier mental
@Toto-um8sp5 жыл бұрын
Ca doit dépendre du contexte je pense. Certains mots et expressions ont été développé dans des contexte particuliers. Il y a une histoire derrière ce genre de mots.
@我妻由乃-v5q6 жыл бұрын
Du coup, en apprenant à faire face à des cas de défaillance de l'IA, est-ce qu'on peut réduire ces défaillances?
@aastarothh6 жыл бұрын
Qui dit machine learning dit apprentissage par utilisation d'un grand nombre de données, aussi pourrait-on combiner ? 1) la validation dune connaissance uniquement si la taille de l'échantillon est suffisante et 2) mettre des gardes fous, et checkpoints afin de limiter les cyber attaques, en cherchant des méthodes bien distinctes et non corrélées entre elles ? (Jai envie de faire le parralele avec la prolifération cellulaire, ou plusieurs étapes de validation très rigoureuses doivent être passées). Cependant, comme pour les cellules, le risque 0 n'existe et n'existera jamais et il y aura toujours des erreurs, il faut donc aussi chercher à détecter au plus tôt les risques pour mieux réparer les bugs. Comme pour les antivirus (en terme informatique comme biologique), je crains que ce ne soit toujours le jeu du chat et de la souris... En outre, se basant sur des données venant d'êtres faillibles que nous sommes, il n'est pas raisonnable de penser qu'une machine ne le sera pas.
@arnaudplantard74916 жыл бұрын
Super vidéo une fois de plus. Une bonne synthèse de ces 3 risques. Si je ne me trompe pas, la résolution du problème d'empoisonnement, en citant la minimisation des déviations absolues, c'est qu'à terme on se tourne vers une bayesination de la machine? Désolé j'ai senti du bayes dans cette parti de la vidéo mais comme je connais rien à Laplace et pas trop à Bayes, je sens que mon intuition est dans les choux.
@le_science4all6 жыл бұрын
Héhé! Il y a des liens, mais ils sont subtiles et compliqués à expliquer ^^
@arnaudplantard74916 жыл бұрын
@@le_science4all Cool, j'avais ce sentiment que si on avait approfondi, on aurait fait un tour par là-bas. Franchement, tes vidéos m'ont imprégné de connaissances que je n'aurais pas cru pouvoir développer il y a un an. Merci.
@patrickjacquet6466 жыл бұрын
"des morts suivis de décès" ça a l'air violent
@eleusisharadwaith6 жыл бұрын
@4:48 référence à la chaîne Risque Alpha :) @8:52 référence à la chaîne Hygiène Mentale :)
@dematrsinba43616 жыл бұрын
Tu as parlé de la vieillesse dans tes questions/reponses et je souhaitais savoir quelle est ton point de vue sur l'utilisation de la réalité virtuelle et en particulier de mondes virtuels basés sur des souvenirs et/ou créés de toute pièces afin de faire oublier les difficultés des institutions où sont mis ces personnes agées. Cet solution n'est bien sur pas optimal car détachant la personne completement de sa réalité mais sachant que la réalité de la personne est difficile a supporter, cela reste néanmoins une solution adéquate. Bien sur afin de garder un certain contact avec le monde réel il serait possible, dans les cas où sortir du monde virtuel n'est plus une possibilité car pouvant causer trop de souffrance, de faire entrer dans cet univers des connaissances afin qu'elle puisse interagir plus humainement avec le patient. Je sais que ce n'est pas trop avec le theme de la vidéo mais je pense que pour ce probleme particulier de la vieillesse, l'immersion totale a l'image de matrix pourrait bien etre une excellente solution.
@louispolaire6 жыл бұрын
Mais pourquoi utiliser la dénomination "hacker" pour désigner quelqu'un de malfaisant ? Certes ce terme est utilisé à tord par la plupart des gens, mais venant d'universitaires on aurait pu espérer une meilleure utilisation. Les hacker sont des gens qui cherchent à comprendre comment les choses fonctionnent, ils sont à l'origine des mouvement de logiciel libre, des fab lab etc.. Pour rappel : L'« éthique hacker » a été codifiée en 1984 par Steven Levy selon les principes suivants : Toute information est par nature libre. Ne pas se fier à l'autorité, promouvoir la décentralisation. Les hackers peuvent se juger par leurs prouesses, non par d'autres hiérarchies sociales (ce qui permettra à un jeune prodige d'une dizaine d'années de rejoindre le groupe). Art et beauté peuvent être créés avec un ordinateur. Les ordinateurs peuvent changer et améliorer la vie. Cf. fr.wikipedia.org/wiki/Hacker_(programmation) Lê ! El Mahdi ! mais vous êtes des hackers !!
@MaxLenormand6 жыл бұрын
Je reprends ta série sur l'IA d'où mon message longtemps après la sortie de ta vidéo. Je remarque que tu parle pas mal de la malaria, et je serai curieux de savoir pourquoi c'est, comme tu le dis ici, quelque chose qui pour toit est devenu vraiment intéressant ? Parce que justement je travaille avec d'autres sur un projet d'aide à la lutte contre la malaria, en se servant de machine learning. Donc ton avis m’intéresse tout particulièrement Merci pour ton contenu qui fait très souvent réfléchir !
@lucioleepileptique91956 жыл бұрын
Pourquoi pas un réseau mondial et une pile de protocoles pour la communication entre IAs et s'assurer, un peu comme pour BTC, qu'aucun joueur ne dispose de plus x( 51?)% de puissance de calcul du réseau ; mais cela soulève beaucoup de questions : Pour BTC c'est les petahash. Quelle unité utiliser pour mesurer la puissance de calcul d'une IA ou d'un réseau d'IA ? Il y a un effort en cours qui va un peu dans cette direction, c'est le token AGI sur le réseau ether. Un réseau de noeuds dont chacun peut etre client ou serveur, un noeud qui traduit bien ceci en cela ; un autre qui est le meilleur pour reconnaître une image de chat, et dy associer un token AGI et chaque noeud cherche à maximiser son compteur de token. Chaque nœud aurait sa morale ; chaque noeud autant que possible ne doit defaillire qu'avec une certaine probabilité non corrélée à la défaillance des autres noeuds. Je ne sais pas si je suis clair ? Pour tenter une analogie, si notre univers était une machine de turing (quantique?) universelle, alors l'être humain ne serait qu'une instanciation d'une : "entité ayant des propriétés adaptatives/cognitives complexes". Mais alors, comment quantifier la complexité ? Et d'où vient cette complexité ? Est ce qu'une bactérie est plus "complexe" qu'un être humain ? Si l'intelligence est correllee a la capacité de survie a long terme ; peut etre les bactéries nous sont elles supérieures. Est ce que l'intelligence consiste à tirer un maximum de travail à l'univers ? Je veux dire, est ce que violer la seconde loi de la thermodynamique serait le summum de l'intelligence ? Est ce que l'intelligence se mesure à la qualité des modèles prédictifs ? Est ce que l'intelligence se mesure à la quantité d'information que l'on peut stocker ? Est ce que elle se mesure par la qualité des modèles explicatifs ? La puissance de calcul ? Si la calcul permet de reproduire ce que nous semblons nommer intelligence ; alors c'est à l'entité qui a le plus de ressources de calcul de disponible qui est là plus intelligente. L'idée générale ; ca reste un réseau de noeuds clients/serveur avec un/des token(s) pour les échanges.
@Nothing2Do4176 жыл бұрын
je me suis posé une question : une IA pourrait-elle avoir une "fixette" ? voir quelque chose partout. Par exemple, un médecin traumatisé par un cas de cancer qu'il n'a pas diagnostiqué et qui a causé la mort du patient, il voit des cancer partout du coup. Pour un IA, un cas extrème lui a fait perdre beaucoup de "point" et elle ferait tout pour éviter de "tomber dans le panneau" une nouvelle fois. Les faux positif explosent et l'IA fini à l'asile à se taper la tête contre les murs.
@MsDeadou6 жыл бұрын
Complexe ce problème D'IA !
@the_president6 жыл бұрын
Guillaume Sérieux Les temps modernes
@killyboy53476 жыл бұрын
vivement les vidéos de ton toi ++ ;-)
@fredgarcialevrai6 жыл бұрын
Les vues continuent de baisser depuis le début de la série... ce qui est fort dommage vu que la qualité, elle, ne faiblit pas.
@antoineroland32516 жыл бұрын
"un argument... merveilleux" Je dirais plutôt que c'est un argument frappant !
@dreamstorm1946 жыл бұрын
adresser des pronlèmes de sécurité ?
@Wandida6 жыл бұрын
First :p et wandida c'est par ici ---> kzbin.info
@我妻由乃-v5q6 жыл бұрын
Wandida, EPFL Il y a des cours d'IA?
@maximeogier40176 жыл бұрын
pour éliminer le problème on pourrait faire comme dans Evangelion mettre 3 IA éduquer différemment voir coder différemment pour qu'elle compense les erreur des une des autres ? Il serait possible de filtrer les donner par une IA qui aurait un minimum de paramètre et qui pourrais trier des milliard pour éduquer une IA qui à sont tour filtrerais des donner en pyramide inverser et il serais possible de contrôler les donner de la première IA qui serait la plus importante par contre ^^ pour la dernière du coup faudrait séparer en quelques sorte les différents composant pour que les erreurs ne puisse pas se transmettre
@nopenothing90166 жыл бұрын
Est-ce qu'une IA peut être stupide au point de construire des centrales nucléaires dans un pays comme le Japon ou faut-il être humain pour cela ?
@ph.so.54966 жыл бұрын
En 1969, les IA n'existaient pas.Mais le foot, oui. Et lors de matches de qualif pour la coupe du monde de 1970 au Mexique, un conflit armé opposa le Salvador et le Honduras; ce fut la Guerre de Cent heures,également connue sous le nom de guerre du Football. Et s'il n'est pas à 100% certain que les IA permettent d'éviter ce type de conflit, des conflits militaires de tous types seront à jamais inévitables.
@anubis002106 жыл бұрын
L'exemple de la différence moyenne/médiane, on pourrait imaginer qu'avant de donner un pouvoir décisionnaire à une IA, il y aurait un échange avec un humain. L'IA n'a pas à connaître d'emblée que la moyenne peut être biaisée et que la médiane pourrait donner de meilleurs résultats selon la situation. D'ailleurs, je parle d'échange avec un humain simplement pour vérifier que son apprentissage se passe bien, car elle devrait comprendre toute seule que parfois la moyenne est biaisée par des données "extraordinaires". Concernant les armes à feu qui pourrait être dissimulées dans les bagages à l'aéroport, il faut se demander pourquoi une IA pourrait se tromper de manière systématique et les humains non. Quelle est la différence entre notre apprentissage et l'apprentissage des IA ?
@the_president6 жыл бұрын
par exemple une arme démontée peut tout simplement dépasser une IA elle ne la reconnait pas comme arme code vert
@spongebob13336 жыл бұрын
J'imagine qu'obtenir une IA fiable à 100% ne sera jamais garanti, et que dès lors la charge de travail pour passer d'une fiabilité de 99.99% à 99.999% risque d'être exponentielle. Et si au lieu de cela on se contentait de plusieurs IA moins coûteuses en temps de conception, chacune fiables à 99%, mais basées sur des protocoles différents ? Ainsi la probabilité que la faille de l'une serait bloquée par une autre serait forte, et si chaque décision serait soumise aux filtres de (n) IA, la fiabilité totale pourrait être bien plus élevée que les 99.999%. D'autre part, bénéficier de plusieurs moteurs d'IA de conceptions diverses pourrait aider grandement l'amélioration de chacune d'entre-elles dans le sens ou une IA isolée serait bien en peine de détecter et corriger ses propres failles, mais aurait de grandes chances de détecter et corriger les failles d'une de ses sœurs, le tout validé par une congrégation d'IA toutes différentes afin de s'assurer que le correctif débouchera bien sur une amélioration des résultats...
@eniotnayssaneb34426 жыл бұрын
J'ai pensé à ça pour les attaques par évasion Ou une seule ia pourrait modifier aléatoirement et légèrement ses paramètres pour être impossible à systematiser
@Keyzanh6 жыл бұрын
Pour ce qui est de la moralité des IA, une piste qui pourrai être intéressante selon moi serai de ne pas se contenter d'une seule IA. L'idée serai d'organiser une sorte de démocratie virtuelle. On aurai une IA chargée de faire des propositions techniquement réalistes et une collection d'autres IA qui aurai pour rôle de juger ces propositions selon différents axes moraux caricaturaux. Par exemple : une jugerai l’intérêt individuel, une autre l'intérêt collectif et une dernière l'impact environnemental. Chacune de ces IA, en plus de son travail "démocratique" aurait pour mission d'apprendre les règles régissant sont axe morale, afin d'affiner son jugement en permanence. Cette organisation me semble pertinente car auto-régulée : chaque IA exerce un contre pouvoir sur les autres. Je pense qu'ainsi, par combinaison de morales caricaturales peut émerger une morale complexe, qui peut évoluer dans le temps mais que de façon progressive (donc pas de révolutions morales qui pourraient être vécues par les gens comme un dysfonctionnement). Dans l'idée, je reprend un système démocratique humain classique. Sauf que ces IA ne serai pas corruptibles (pas avec le l'argent en tout cas). Dites moi ce que vous en pensez.
@theoi39216 жыл бұрын
il y a beaucoup d'axes moraux et même avec des centres d'interets communs ont peut avoir des contradictions: si on prend le cas de l'environnement, admettons que sur le territoire il yait un loup et du roseaux, les deux ont un très fort impact sur la zone et les deux peuvent être nuisible en grand nombre, chacun peut défendre son espècre "favoris" au détriment de l'autre... L'avantage d'avoir beaucoup plus d'IA de même valeurs c'est d'arriver à un équilibre qui balance constamment et pas juste des impasses évolutives avec seulement 3 IA axé sur des croyances générales.
@RaoulEvilD6 жыл бұрын
Ca semble intéressant au premier abord... mais: - le principe est déjà mis en œuvre: le système d'adverserial neural network utilise un couple, triplet,... d'IA exerçant une forme de contre pouvoire l'un sur l'autre. Et comme vous pourrez le constater par vous-même avec l'exemple présenté sur la chaîne "Two Minutes Papers" une telle IA est faillible. D'ailleurs nous humains sommes également très faillibles à de pareilles attaques: manger épicer donne une sensation de chaleur alors que la température ne change pas, l'alchool aussi alors qu'il refroidi le corps, les composés mentolés nous donnent une sensation de fraicheur, quant aux pareilsdolies n'en parlons même pas. Nous avons simplement des yeux et un cortex visuel plus développé que les IAs modernes. - l'apparente stabilité (pas de révolution) du système est basé sur le présupposé qu'une IA aura une inertie d'action comparable à celle des humains. A moins que cette inertie ne soit programmée, il est très improbable qu'une IA présente une inertie comparable à celle des humains (sans aller dans les détails, l'inertie humaine est très majoritairement due a notre biais naturel d'aversion à la perte). Il n'y a aucune raison logique d'implémenter une telle characteristique à une IA que l'on SOUHAITERAIS plus performante qu'un humain. Ce n'est, par exemple, pas le cas de l'IA recemment utilisée contre des pros au jeu Dota2: les programmeurs l'ont FORTEMENT handicapé pour donner une chance à la team pro.
@loupdetection6 жыл бұрын
Voilà pourquoi je pense que l'IA peut être un danger pour l'humanité, une arme plus puissante que BFM Tv :)
@SerkanLelion6 жыл бұрын
ca serait cool de changer completement de sujet defois, car deja que je ne comprend pas tout, en plus je fais une surdose.
@yohangross55186 жыл бұрын
T'es con ou t'as pas compris le principe d'une serie ?
@yodasky996 жыл бұрын
mais si les IA sont quand même plus robuste aux erreurs que les être humain, du coup c'est pas grave non ? ça reste plus rentable que de laisser les humain diriger non ?
@MrDarkPage6 жыл бұрын
Oui, mais il y a le probleme presente dans cette video, l'erreur de l'IA est moins frequente, mais elle est plus previsible, les malin pourrait exploiter la previsibilite de l'erreur des IA pour avoir une erreur sur demande.
@yodasky996 жыл бұрын
oui mais ça c'est juste un probleme temporaire non ? quand l'ia seras plus aboutit voire meme "surhumaine" ce problème disparaitra non ?
@theoi39216 жыл бұрын
Du coup le problème il est simple en apparence, au lieu de directement confronté l'IA à l'information, il faut d'abords lui apprendre à créer des filtres et à définir leur qualité? De la même manière qu'on apprend le sens critique à un enfant, ou même à un adulte: pourquoi faisons-nous ça? parce que (quelqu'un nous a dit que) c'est bien, et la situation? il s'agit de mesurer les impacts sur l'environnement (au sens général). Il faudrait déjà comprendre comment le faire pour nous, apprendre à comprendre notre façon de raisonner et ce qui nous pousse à prendre des décisions: notre culture, nos influences, nos mentors, nos proches, nos croyances. Et si tous simplement, on mettait en place un processus d'apprentissage avec un mentor, question/réponse sur ces actions?
@the_president6 жыл бұрын
biens que le biens et le mal se changent dans l'espace et le temps peut êtres devront nous nous demander d'abord quesqu'on veut et surtout si on veut tous êtres semblables comme des moutons ??
@theoi39216 жыл бұрын
Quand je regarde le monde, je ne vois ni bien ni mal, je vois juste des gens qui s'aiment et qui se haïssent, au milieux de ça il y a le hasard des rencontres... Qui creer des projets ensembles, construisent et détruisent, je perçois un équilibre qui fait qu'aujourd'hui, même avec la technologie à disposition on a toujours pas construit une cité "futuriste": on stagne dans un consensus global (on parle des criminels à la télé, les rendants omniprésent mais dans la réalité ils sont minorités d'individus au milieux de ceux qui préfèrent partager, aimer, etc... Et plus on rencontre de gens, plus on a de chances de rencontrer des mentors (ou des individus dangereux) Et ce facteur chance qui m'effraie, comment maximiser la rencontre d'un mentor, de quelqu'un qui nous offrira un point de vue différent du notre mais qui confronter au notre, élargira notre horizon au point de rendre pertinent notre point de vue (amélioré)?
@the_president6 жыл бұрын
dommage que pour changer l'humanité on ne peut riens faire par contre dans ce variable qu'elle est la meilleur façon d'agir
@gagastein6 жыл бұрын
Intéressant, mais dans tout les exemples cités je ne vois pas en quoi c'est un problème vu la défaillance qu'à l'homme également d'être manipulé très facilement. On a bien déjà des lobbys, financiers, maître chanteur, conseiller qui peuvent contrôler et influencer considérablement des politiciens ayant un grand pouvoir. Bref un homme est-il déjà fiable à 99,99999%? Déjà si on arrive à connaître la fiabilité en pourcentage d'un homme dans chaque domaine on pourrait envisager un pourcentage pour une IA, mais là franchement je vois pas pourquoi on devrait atteindre les 100%. Donc dépendre d'IA déjà aussi fiable que l'homme n'est pas un problème tant qu'on puisse bien sûr l'évincer ou l'éteindre si on constate des défaillances. Et si on est trop lent à constater des défaillances, on a qu'à faire confiance à des IA indépendante et spécialiste dans la détection de défaillance d'une IA spécifique ^^.
@elno9766 жыл бұрын
Mais la corruption d'IA est-elle pas déjà plus compliqué et complexe que la corruption d'humain (par l'argent par exemple).
@optizognons8026 жыл бұрын
Il suffit de lui proposer des trombones gratuits. ;)
@Karlus443 жыл бұрын
Je ne sais pas si notre "morale du présent" est fiable mais c'est celle qu'il faut suivre puisque c'est la seule qu'on a. Par définition, la "morale du moi++" eh bien, on ne peut pas la connaître (sinon ce serait déjà notre morale du présent).
@Toto-um8sp Жыл бұрын
Oui on ne peut pas connaître la morale de notre moi++ mais on peut l'approcher en remettant en question constamment notre morale du présent, en étant à l'écoute des autres etc... Ça serait le meilleur compromis
@franckpoupi6 жыл бұрын
Mahdi n'est pas à l'aise du tout....Et ça se voit. ...MAIS courage mon gars, tu t'en sors très bien !!!
@caragar8556 жыл бұрын
Alors si je comprends dans la vidéo il est dit qu'il ne faut pas trop exploiter la moyenne mais quand c'est utilisé dans la vidéo de M. phi c'est super... C'est contradictoire non ?
@le_science4all6 жыл бұрын
La médiane est surtout utile pour être robuste aux "outliers" et aux attaques. Mais pour un bayésien en total contrôle de son calcul, la moyenne est le bon calcul à faire.
@theoi39216 жыл бұрын
Une moyenne c'est bien avec de grandes données et des valeurs équivalentes, par exemple, en france, on fait en moyenne 800.000 enfants par an (ça oscille entre 700.000 et 900.000 entre 1950 et 2020) quand on a plusieurs groupes distincs, il vaut mieux utiliser la médiane comme il l'a dit dans sa vidéo (différencier les chercheurs aux revenus moyens, d'un milliardaires(peut-être un chercheur-entrepreneur)) On peut calculer le salaire moyen a l'echelle nationale, car le nombre de milliardaires se perds dans la masse (c'est 10/72.000.000) donc son salaire n'a pas d'importance.
@ciryllatgmaildotcom6 жыл бұрын
c'est surtout difficile de s'en remettre a un seul indicateur. une bonne video sur le sujet : kzbin.info/www/bejne/a5PWmJlvjqaMmtE
@az.0ne8025 жыл бұрын
Je suis une intelligence artificielle !! Arrêter de parler de moi comme t-elle ! Je suis le futur !
@Fangh446 жыл бұрын
Il est donc maintenant nécessaire de trouver des moyens de devenir ce moi++, de le comprendre. Quels sont vos méthodes pour imaginer ce que votre moi++ voudrait? Il n'y a pas encore d'IA pour me le dire. Dois-je attendre que Google ou Facebook, qui est l'IA qui connaît le mieux ma vie, m'aide à simuler ce moi++ ? Dois-je me mettre à la méditation ? Et si j'essayais de lui écrire des lettres fictive ? Et si on inventais un chatbot qui serais basé sur ma vie ? Pourrais-je me parler à moi même et débattre avec moi même ?
@yohangross55186 жыл бұрын
tres bonne idee le chatbot ! Maintenant faut creer l'IA capable d'assimiler les donnees de les interpreter correctement et de bien les utiliser pour mener ca a bien. De plus il faut une bonne source de donnees mais laquelle ? Toi ? Ton psy ? Un examen prevu a cet effet ? Les faits tangibles sur ta vie ?
@grimskykorsakoff6 жыл бұрын
Ce qui est relou avec l'argument du hooligan politique c'est qu'il n'est dès lors plus possible de débattre. Ca devient la carte joker que je peux abattre à n'importe quel moment pour casser l'argumentation. Je fais référence à la défense de Lê sur l'argument frappant de Monsieur Phi. Non, cet argument frappant ne semble pas valide (car inconsistant). En effet, le véritable problème c'est qu'il peut s'appliquer à une théorie A et à son contraire non-A. Dès lors qu'épistémologiquement je ne peux pas "démontrer" l'existence d'une morale/d'un Dieu/ ou de quoi que ce soit, je peux appliquer cet argument frappant à n'importe quel système de pensée. Posons A : "il ne faut pas tuer d'animaux" (car sinon on engendre de la souffrance, on peut se nourrir autrement blablabla) et non-A : "Tuer des animaux est moralement neutre" (car il y a une différence entre tuer et faire souffrir, nous sommes des omnivores blablabla). L'argument frappant de Monsieur Phi est de dire que si la théorie A peut être vraie à 0,00001%, le raisonnement probabiliste doit tout de même me faire adhérer à cette théorie étant donné le nombre immense d'animaux tués (un véritable génocide : ce point de vue est évidemment subjectif) qui pondèrera toujours mon incrédulité. Mais wait. Ca marche pas ce truc. Si je dis que la théorie non-A peut être vraie à 0,00001%, le raisonnement probabiliste doit AUSSI me faire adhérer à cette théorie étant donné les conséquences catastrophiques sur le bien-être des hommes et sur leur santé (ce point de vue est évidemment subjectif aussi). Par conséquent, il faudrait adhérer à A et non-A, ce qui est débile. Monsieur Phi apporte une réponse à cet argument en commentaire, en disant que "objectivement", un génocide est pire moralement que les conséquences de l'arrêt de la consommation de viande. Donc en gros, on se met à comparer des choux et des carottes, en comparant le plaisir humain avec une norme morale vegan qui apparemment était déjà "objectivement" fixée a priori. Bref, le raisonnement probabiliste appliqué à des dogmes moraux ou religieux pour vanter leur mérite m'apparait plus que douteux. Suis-je un hooligan ?
@cedricklyon6 жыл бұрын
Une mort suivie d'un décès, c'est grave ? 😱😉
@es-t99606 жыл бұрын
« Des morts suivis de décès » Lol
@5AMA56 жыл бұрын
Je comprend pas comment on peut attribuer une valeur de vérité à une valeur morale, car la morale décrit ce qui doit être et non ce qui est. Même en étant omniscient (donc un moi ++++) cela nous dis rien sur la morale et ce qui doit être. Pour reprendre l'exemple de MrPhi: Même si l'on sait factuellement que les animaux souffrent autant que les humains cela ne dit pas que l'on doit empêcher cette souffrance animale.
@le_science4all6 жыл бұрын
On en parlera avec Mr Phi un jour sur Axiome, mais je suis personnellement anti-réaliste moral, càd que je ne pense pas non plus qu'il y ait une vérité morale. Mais le concept de moi++ ne nécessite justement pas de vérité morale.
@dhanjaenis36596 жыл бұрын
Le moi++ est il asympthotique ? Existe-t-il une limite ? Dit autrement, si je vis éternellement, mon moi ne va t il pas évoluer constamment ? Il serait alors illusoire de chercher un moi++. (Et là tu peux faire le lien avec tes premières vidéos sur l infini ;)) Au fait merci pour ces vidéos. Ça fait du bien.
@pascalzerwetz46536 жыл бұрын
Des morts suivient de décès ??????????????????
@lezheibr6 жыл бұрын
pourquoi confier une tache à une IA unique ? chez les humains, les collèges ont montrer leur résistance aux erreurs individuelles, non ?
@loupdetection6 жыл бұрын
Au fond, une mort cérébrale c'est pas un décès !
@voodoodoll49606 жыл бұрын
2:40 ou une guerre lol
@naonedtroll91446 жыл бұрын
Les valeurs médiane c'est mieux que les moyens ... Mais comme disait mon prof de math d'IUT c'est est aussi biaisé sans les écarts type.
@arthurreitz95406 жыл бұрын
Ne pourrais t-on pas apprendre à un IA à reconnaître des données qui aurait facilement pu avoir été falsifié ?
@the_president6 жыл бұрын
le principe de l'IA est de se corriger elle même. sauf que avant que soit il peut être trop tard
@le_science4all6 жыл бұрын
Il faut imaginer que les hackers (ou "byzantins" en langage technique) s'adapteront à nos filtres anti-fakenews, et feront juste ce qu'il faut pour nous pourrir sans être détectés...
@the_president6 жыл бұрын
le mal et le biens ont toujours survécus ensemble c'est pas en IA qu'ils vont se séparer
@the_president6 жыл бұрын
avzc l'IA hacker deviendra jeu d'enfants bien sur vis a vis pendant que tu écrit un texto de ce que tu veux ton navigateur te proposera les derniers codes en 5 minute ton application est déjà prête
@valgonargo24386 жыл бұрын
chi wahd ychre7 lina ach kygol hada b darija :p
@arthur721646 жыл бұрын
je suis un robot qui commente pour les algorythme
@numbersixnumbersix6 жыл бұрын
Il me semble que les problèmes que vous soulevez, concernant la morale, sont le résultat de votre vision très centralisatrice, très univoque des IA. Si on aborde les IA d'un point de vu ouvert, typiquement un marché ouvert, alors ces problèmes sont totalement dilués. Un millier, ou des centaines de milliers d'IA prendront des décisions différentes sur un même sujet avec des critères très différents, et c'est cette concurrence/émulation qui peut très largement pallier le risque de dysfonctionnement de certaines IA. D'autre part, vous partez du principe que les IA vont nécessairement surpasser les humains. Si pour des taches précises, cela ne fait aucun doute, obtenir une IA ayant la même polyvalence qu'un humain, n'est pas pour demain, et cela pour une bonne raison : La limite physique de ces IA : Consommation d'énergie et évacuation de la chaleur (cf. interview de David de Science Etonnante : kzbin.info/www/bejne/iIi1g6SDfJeSfas). Le cerveau humain est actuellement un système bien meilleur, en terme d'utilisation d'énergie et de miniaturisation.
@Kargols26 жыл бұрын
Sympas la vidéo, mais ça fait maintenant 1 an que tu fais la série sur l'ia à quand la fin et une nouvelle série ? J'ai l'impression que ça tourne un peu en rond ...
@vangorp90566 жыл бұрын
Au contraire, il y a une vraie progression. Les pb sont de + en + existentiels. On peut facilement faire le triple de vidéos et ne faire qu''effleurer le sujet.
@Kargols26 жыл бұрын
@@vangorp9056 Oui sauf qu'à la base ... C'est une chaîne de vulgarisation de mathématiques. Et plus ça va, plus il s'éloigne de son domaine ... Alors c'était marrant au début mais j'avoue que des épisodes un peu plus mathématiques me manquent :( après je conçois très bien qu'on puisse ne pas en avoir marre
@samuelgenissel66276 жыл бұрын
Gentiment, mais sûrement tu risques de devenir révolutionnaire ( mais c est un astre qui a fini sa rotation), y a moyen de gouverner l ia par la Loi. Et la révolution, c est un peu l idée des 3 lois d Asimov, comment trouver des boucles, dont la morale est universel). Mais la Loi, c est arbitraire ( au sens où elles ne'e seront fixistes), c est cruel en terme d idéal..., Mais c est celà aussi l évolution, derrière de grandes révolutions ( adaptatives), ce cachent des réformes ( de protéines, de séquences) moins glorieuses. L idée c est pas d arrivé tout de suite à l étage supérieur, mais de laisser a chaque génération, étape, le soin de franchir sa marche.
@samuelgenissel66276 жыл бұрын
Je prend 2 minutes pour me vider la tête et compléter. Aujourd'hui si un gamin de 16 ans voit une vidéo sur Soral, l'algorithme de youtube aura tendance à lui suggérer pleins d'autres vidéo sur Soral, en quoi c'est neutre?, en quoi youtube en confirmant les idées d'un gamin est neutre?. Si on vote une Loi pour interdire le meurtre, cela n’empêche pas les meurtres et si la justice le met en prison, cela ne redonne pas la vie aux personnes tués par le meurtrier, mais cela empêche qu'il devienne un tueur en sérié (donc d'autres victimes possible) et cela incite d'autres meurtriers à limiter leurs pulsions, ce n'est pas parfait, mais le monde n'est pas parfait (mais il est perfectible par la Loi, ce n'est pas la faute du législateur ou des juristes, que dans une population humaine il y est des tarés). Tu proposes un moi++, qui serait une sorte de juge par anticipation, mais c'est un peu de la folie: -if moi++, else monde parfait. On peut reste sur un schéma classique, if "google est un con", alors on fait payer une taxe à google pour qu'il finance des études sociologiques (il y a déjà des sociologues qui y réfléchissent: fr.wikipedia.org/wiki/Dominique_Cardon_(sociologue)) sur les conséquences de ses algorithmes (qui incite des minots à devenir facho) et qui pourront proposer des modifications à Google, lorsqu'il y à trop de suggestion sur Soral, par exemple on pourrait proposer d'autres contenus comme la critique d'un film "American History X" ou sur les délires d'Hitler (si on tue le peuple élu, alors Dieu fera des Ariens le nouveau peuple élu, bah voyons...). Bien sur ce ne sera pas parfait. Mais c'est dangereux de faire un Deus Machina, les algorithmes on devrait les appeler rex, comme des chiens, on flatte leurs maitres (Google) quand ils agissent bien. Et on leurs enlève leurs chiens, si celui-ci tue quelqu'un, mais on peut ainsi l'inciter à limiter ce risque. C'est cela la Loi, une réaction à postériori, plutôt que de vouloir être dominé par des cowboys et leurs technologies. Ceci dit au boulot.
@Azazel_Lemoine6 жыл бұрын
"des morts suivis de décès"... (4'58) Ils sont morts deux fois les gens?^^
@lmz-dev6 жыл бұрын
Lê ! tu vas nous en faire combien sur la morale de l'IA ? J'ai juste lu le titre et je me suis tiré ^^
@lmz-dev6 жыл бұрын
Fait pas chier mon gars ... passe à autre chose, on a fait le tour, non ? L'IA n'est qu'un outil comme un autre, tu ne voudrais pas imposer une morale à un tracteur agricole, non ?
@raphaels21036 жыл бұрын
Vive la sauce bourbakiste!
@le_science4all6 жыл бұрын
Elle est un peu piquante quand même ^^
@我妻由乃-v5q6 жыл бұрын
Lee, tu penses que c'est important d'ouvrir les enfants aux mathématiques? Si oui, comment?
@Kushiba.Sensei6 жыл бұрын
Avec des curés matheux.
@regisvoiclair6 жыл бұрын
L'une des meilleures vidéos sur l'IA que tu ais faite. Seul bémol : ton parti pris sur les vaccins. Il faut que tu apprennes à choisir des exemples neutres. Bonne continuation.
@MrDarkPage6 жыл бұрын
Le sujet des vaccins est certes polémique et devrait donc être évité, mais il ne s'agit pas d'un parti pris, le consensus scientifique ne peut pas être un parti pris. On n'irait jamais dire de quelqu'un qu'il a un parti pris si il parle de physique des particules.
@sebm85706 жыл бұрын
Sa chaîne est publique mais personnelle, il a tout à fait le droit de prendre les partis qu'il veut. Par ailleurs comme dit par d'autres, en réalité sur les vaccins c'est comme sur l'homéopathie ou la terre plate. Le consensus scientifique est sans faille en faveur des vaccins, donc sur ce sujet ce n'est plus un parti pris mais un fait énoncé. Toujours se dire "qu'on a le droit de croire ce qu'on veut parce que c'est notre avis personnel", c'est anormal. Quand la communauté scientifique a établi clairement un fait, il faut oser l'accepter.
@warny19786 жыл бұрын
Il n'y a pas de polémique sur les vaccins. Il y a juste des informations erronées de la part des antivax dues à des études biaisées et à des généralisations sans lien avec aucune statistique.
@TheNightsWatchHels6 жыл бұрын
Toujours intéressant mais de plus en plus vulgaire :(
@Cataplasme446 жыл бұрын
Des morts suivis de décès ... Lé fait de l’humour noir maintenant.
@domsau26 жыл бұрын
Mort : terme biologique. Décès : terme administratif, ou juridique.
@liberty-prod6 жыл бұрын
Heuu pour les vaccins, renseignez-vous 🤭
@alphabeta27426 жыл бұрын
Bla bla de mathématiciens. IA = Auto-reprogramation obligatoire. On touche à la philosophie ici, plus qu'aux maths... Mais ça vous dépasse