Hacker l'IA | Intelligence Artificielle 39 (ft. El Mahdi El Mhamdi)

  Рет қаралды 25,755

Science4All

Science4All

Күн бұрын

Пікірлер: 188
@boe1188
@boe1188 6 жыл бұрын
GG comme d'hab, et big up à ton pote qu'a pas l'air habitué à ce genre d'exercice mais qui s'en sort très bien ;-)
@J0623-f5r
@J0623-f5r 6 жыл бұрын
Rien à voir avec la vidéo (qui est superbe !), mais je voulais te dire Lê que j’ai démarré ce matin une classe préparatoire en mathématiques et je pense fort à toi, c’est peut être même en partie grâce à tes vidéos que je suis heureux d’y rentrer aujourd’hui. Des bons professeurs, des bons vulgarisateur tout ça me permet d’affirmer que je suis heureux de faire des maths à dose irraisonnable chaque jour. Un grand merci 🙏🏼
@eniotnayssaneb3442
@eniotnayssaneb3442 6 жыл бұрын
Les joies de la mpsi
@augustinfrancotte3163
@augustinfrancotte3163 6 жыл бұрын
Ce qui peut ensuite causer des accidents, et donc des morts suivis de décès...
@florianlemysterieux1689
@florianlemysterieux1689 6 жыл бұрын
j'ai remarquer aussi ahah
@clementchaouat5822
@clementchaouat5822 6 жыл бұрын
Décès suivi de mort ou mort suivie de décès?
@domsau2
@domsau2 6 жыл бұрын
Mort : terme biologique. Décès : terme administratif, ou juridique.
@clementchaouat5822
@clementchaouat5822 6 жыл бұрын
@@domsau2 oui mais est ce que le décès estl'acte de mourir et mort l'état après le décès? Les deux désignent le fait de mourir? Ou le fait d'être mort? J'en reviens a ma première question est ce qu'on peut utiliser décès suivi de mort ou mort suivi de décès? Ou aucun ça n'a aucun sens ils sont synonymes? (Mon avis c'est décès=acte de mourir, mort =décédé =l'état d'après le décès donc décès suivi de mort). Mais comme Lé dit l'inverse (et il l'avait déjà fait dans la vidéo précédente donc je ne pense pas que ce soit une erreur) je pose la question ;)
@warny1978
@warny1978 6 жыл бұрын
Primum déteind sur Sience4All...
@yohangross5518
@yohangross5518 6 жыл бұрын
Apres toutes ces videos sur la morale des IA, la complexité de leur programmation et la taille des enjeux qui en dependent, une question je pense se pose : Techniquement, la meilleure maniere de programmer la morale des IA, de la securiser et de nous laisser le temps d'y reflechir et de la tester ne serait pas au final de reussir politiquement ou economiquement a ralentir la recherche, voir meme de creer une IA qui serait programmée pour provoquer ce ralentissement ( evidement il faut une IA inferieur au niveau humain sinon ca n'a pas de sens ) Au fait Lê si tu me lis, sache que je suis un enorme fan de ton travail et que je te souhaite de toucher toujours plus de gens ! T'es d'utilité publique mec !
@NEBREUELPHFTARRRR
@NEBREUELPHFTARRRR 6 жыл бұрын
qd le choix du sujet de la série de vidéos est tombé sur ia, je m'attendais à ce que ça donne des vidéos chiantes et comme je me trompais, j'ai été agréablement surpris, et comme les précédentes de la série, cette vidéo est géniale.
@wellan4072
@wellan4072 6 жыл бұрын
Toujours du très bon contenu merci beaucoup. Un vrai plaisir.
@ooberholzer
@ooberholzer 6 жыл бұрын
C'est tellement génial... Bravo de nous raconter et expliquer tout ca aussi bien!
@laguerresilencieuse7282
@laguerresilencieuse7282 5 жыл бұрын
Ultra intéressant. C'est ultra bien d'adresser les problèmes de robustesse de l'IA et de les inclure by-design dans leurs conception ! Après la sécurité doit toujours être considérée en fonction du risque. Si le risque principal du hacking d'une IA n'est pas grave (genre aucune potentielle atteinte a la vie humaine) ... on l'accepte et yolo. Mais si les universitaires arrivent à développer un système fonctionnel, prouvé mathématiquement comme résilient et relativement facile a mettre en oeuvre. Ca sera une vraie révolution.
@sined704
@sined704 6 жыл бұрын
Merci à vs 2, très intéressant et enrichissant. Love & gratitude.
@alexandreancel6423
@alexandreancel6423 6 жыл бұрын
Vidéo et collaboration très intéressantes, merci à vous deux !
@Mokoach
@Mokoach 6 жыл бұрын
les intervenants sont rare dans tes vidéos sont rare mais j'ai trouvé mahdi très intéressant et clair.
@Mokoach
@Mokoach 6 жыл бұрын
mince je ne me suis mal relu....mais tu vois ce que je voulais dire :p
@psycus17
@psycus17 6 жыл бұрын
Nonante neuf ! :D
@didinedeboms1973
@didinedeboms1973 6 жыл бұрын
4:56 "des morts suivis de décès" ... XD
@domsau2
@domsau2 6 жыл бұрын
Mort : terme biologique. Décès : terme administratif, ou juridique.
@visionxterne4981
@visionxterne4981 6 жыл бұрын
@@domsau2 même si les 2 mots ont une définition differente tu admettra qu'il est difficile d'être mort sans être décédé, et inversement.
@duconlajoie9680
@duconlajoie9680 6 жыл бұрын
la petite ref à "hygiene mentale" qui fait plaisir :) Sinon c'etait très interessant, on sent que l'intervenant n'est pas très à l'aise mais ça viendra avec le temps :)
@julienopui4436
@julienopui4436 6 жыл бұрын
sympa le mahdi
@julientroquereau4353
@julientroquereau4353 6 жыл бұрын
j'adore mahdi
@spacephenix9849
@spacephenix9849 6 жыл бұрын
Merci pour la vidéo :)
@JuliettelAthlète
@JuliettelAthlète 6 жыл бұрын
Parfait comme d'habitude 😍
@kasonnara
@kasonnara 6 жыл бұрын
Bonjour, très bonne vidéo comme souvent! En tant qu'étudiant en informatique très impliqué dans l'IA, je pense que les attaques par évasions sont un réel danger, les autres types d'attaque évoqués me parraissent plus facilement gérables avec un développement initial attentif et bien veillant. Cependant les attaques par évasion me semblent être une véritable brèche, puisque les expériences montrent bient que même pour des systèmes très complexes on peut trouver (relativement facilement) une faille. Et cela ne me parait que très difficilement corrigeable vu que l'on n'est déjà pas capable de comprendre parfaitement ce que font des réseaux de neurones dans les détails. Il est possible que ce genre de failles disparaisse avec la complexité de l'ia, mais ça m'étonnerais. Je pense qu'il sera juste plus dur de calculer les valeurs d'entrées capable de dupper l'IA mais pas leur existance, cela ne m'étonnerais même pas que ce genre de faille soit aussi présente chez l'humain, on a bien des illusions d'optique ou autre effet qui nous trompent. La différence c'est que l'on a pas accès a l'état exacte du cerveau d'autrui pour calculer l'image exacte qui le trompera. Et je pense que le même systeme peut être appliqué a l'IA, en fait ces images qui trompent le jugement d'une IA même s'il s'agit de l'ajout de bruit sont toujours très Très TRÈS précise et sans la connaisance parfaite des paramètre de l'IA ce genre d'attaque est difficile. Du coup la parade parfaite serait de cacher le fonctionnement interne de l'IA. Mais cepdant cela va a l'encontre d'un des principe de sécurité les plus présent de nos jours: un protocol n'est pas sûr si personne n'y a accès, mais au contraire si il est libre et donc que tous le monde peut le vérifier librement et éventuellement y soumettre des correctifs. Du coup pour moi les IA devront être entre les deux. Dans l'idéal, leur algorithme d'apprentissage et même les données utilisé pour l'apprentissage devront être publique afin que n'importe qui puisse vérifier la validité de l'IA en la reproduisant; mais le résultat de l'apprentissage lui devra rester secret afin qu'il ne soit pas possible de calculer d'attaque par évasion. Et donc pour cela le processus d'apprentissage devra être non determisiste par exemple en mélangeant les données au hasard, ce qui devrait suffire a totalement changer l'image a utiliser pour une attaque par évsion.
@Galaxyi100
@Galaxyi100 6 жыл бұрын
Très compréhensive cette vidéo ! Merci :-)
@myriam_hanoun
@myriam_hanoun 6 жыл бұрын
Excellente vidéo comme a chaque fois !
@NRichard
@NRichard 6 жыл бұрын
J'aime ce clin d'oeil à Hygiène Mentale ;)
@flutterwondershyyay8255
@flutterwondershyyay8255 6 жыл бұрын
Étant donné que les IA vont majoritairement rechercher les informations sur internet, on a tous individuellement intérêt à faire marcher notre hooliganisme et hurler haut et fort nos convictions sur internet afin que le futur corresponde justement à nos convictions
@SygwaldPGO
@SygwaldPGO 6 жыл бұрын
« [...] des morts...suivit de décès ! » très bon. 😜
@Disakey
@Disakey 6 жыл бұрын
Super vidéo ! Ça donne des idées.
@big0nic
@big0nic 6 жыл бұрын
Bonne vidéo, car comme beaucoup peut-être, j'avais conscience des problèmes cité de la vidéo, mais je ne les avais jamais envisagé sous l'oeil du piratage. Brrr je sens le petit vent frais d'un nouvel hivers de l'IA !
@jean-baptistefox2819
@jean-baptistefox2819 6 жыл бұрын
Quelques questions : _ Qu'es-ce qui fait de nous humains des individus majoritairement pour les valeurs morales ? Et qu'es-ce qui fait que certains d'entre nous ne le sont pas ? Pour esquisser un début de réponse, c'est que nous sommes limités, en physique, en résistance, en temps pour les actions ou même en actions externes comme les finances. Nous sommes aussi évolutifs, comme dit dans la vidéo sur notre propre morale de l'instant, alors comment rentre l'IA évolutive aux cotés de l'humain, pas plus vite pas plus lentement, pour suivre l'espèce elle même en fait. - Seconde question, si une IA est 99.99% dans les clous, si c'est de manière générale, pourquoi pas sectoriser, comme ça on fait un paquet de secteurs à 100% et la ou ça dysfonctionne on limite ? En tout cas, belle série de vidéos, nous sommes beaucoup à suivre la réflexion et tenter d'y réfléchir avec pleins de point de vue.
@the_president
@the_president 6 жыл бұрын
moi je ne crois pas de prendre l'IA comme la chose mais plutôt un ensemble de manœuvres automatisés mais dans des secteurs limités le frigos se connecte au supermarché livraison a la maison payement par carte directement ca c'est une forme. j'ai cortana elle sait que je préfère 26° douche a 60 mes disques et mes films préféré et me suggère d'autre. et j'ai ma smartwatch qui appelle l'urgence en cas de crise par exemple. et la voiture a conduite automatique qui me porte ou je veux . si ces élément restent séparés j'ai plus de chance d’éviter un bouleversement de vie a 180° mais si je les connecte tous a la même source disons le téléphone si je perd mon téléphone je risque un peu gros
@jean-baptistefox2819
@jean-baptistefox2819 6 жыл бұрын
Je suis en bonne partie d'accord, une intelligence globale a plus de risques de conduire à un désastre.
@the_president
@the_president 6 жыл бұрын
la question plus stressante a propos de l'IA est si (bons et mauvais) on est capable de créer des armes arbitrairement programmés a tuer et la réponse est oui. et la bataille se poursuivra sur comment neutraliser l'adversaire et chercher que l'adversaire ne neutralise pas les notres
@the_president
@the_president 6 жыл бұрын
tu imagine des millions de mini drones programmés a éviter les obstacles et tuer tous ceux qui ne sont pas asiatiques. ca on doit chercher d’éviter mais aussi prendre en considérations
@jean-baptistefox2819
@jean-baptistefox2819 6 жыл бұрын
D’où l’intérêt de toute cette série de vidéos, essayer de définir au mieux les critères qui nous protégeront en tant qu'êtres de chair.
@deeessd.s8558
@deeessd.s8558 5 жыл бұрын
Bravo à vous !
@etienneverpin1418
@etienneverpin1418 6 жыл бұрын
Épisode passionnant une fois de plus. Pour ce qui est de l'attaque par "empoisonnement"(ou par "désinformation"?) ne pourrait-on pas apprendre aux IA à prendre en compte la fiabilité des sources?
@le_science4all
@le_science4all 6 жыл бұрын
Oui ! Mais c'est plus facile à écrire en langage naturel qu'en langage de programmation ^^
@我妻由乃-v5q
@我妻由乃-v5q 6 жыл бұрын
Science4All On ne peut pas créer des mots en langage de programmation (Question naïve).
@theoi3921
@theoi3921 6 жыл бұрын
Même une source fiable peut donner des informations érronnées, il s'agit plutôt de confronter les sources et de voir le nombre de recherches derrières et la qualité des résultat sur le "terrain".
@delapaix4645
@delapaix4645 6 жыл бұрын
Je pensais à ça aussi. Mais finalement, l'empoisonnement, s'il vient d'une source jugée fiable (le hack de la source fiable) rendra l'information encore plus crédible et pertinente. Le hack de ces sources fiables serait le jackpot. A défaut de "sources fiables", j'imagine plutôt des "informations non fiables" ou "contradictoires avec les informations acquises depuis X temps", devenant donc douteuses. Genre : Les vaccins ont prouvé leur efficacité depuis X temps et en quantité Y de "preuves" provenant de Z sources. Et, tout d'un coup, l'IA reçoit en X' temps des informations contradictoires et en quantité Y' de "preuves" provenant de Z' sources. L'IA devrait trouver ça louche. Bon après, que faire de l'information ? Aucun idée ^^
@orki974
@orki974 6 жыл бұрын
Oh mon dieu, je cite "L'éducation mathématique, c'est très très secondaire", je suis outrait ! Bon, néanmoins, j'avais déjà entendu un discours similaire de Alexander Grothendieck qui disait qu'à un moment on se rendrait compte qu'il y a des priorités plus importantes que de faire progresser les mathématiques de haut niveau. Sa conférence "Allons-nous continuer la recherche scientifique ?" est incroyablement d'actualité : kzbin.info/www/bejne/kIice6OQjdx6jsU Cet exposé date de 1972, c'est incroyable. On dirait que ça a été enregistré demain...
@barthmarti4394
@barthmarti4394 6 жыл бұрын
Comme d'hab... Au top.
@luckylitariste7205
@luckylitariste7205 3 жыл бұрын
Merci Lê. Un philosophe m'a dit qu'imaginer une super intelligence sera toujours borné par l'intelligence de celui qui l'imagine. N'en est-il pas de même ici ? Incapables d'anticiper, de comprendre, de pourvoir faire confiance à une IA de niveau humain, ne ferait-on pas mieux de limiter son champ d'action et de ne pas lui laisser prendre de décisions basées sur une morale encore indéfinie ? Il me semble qu'utiliser les IA là où elles sont objectivement meilleures que nous, dans un scope limité, et avec contrôle par l'humain pour des décisions à impact important, tels qu'aujourd'hui en médecine, serait préférable. Il me semble aussi que la morale attribuée à une IA dépendra toujours de la fonction qu'on lui demande de maximiser. Or cette fonction est définie par l'humain. Rien ne peut empêcher un humain mal intentionné d'implémenter des fonctions néfastes. Pour en limiter l'impact, il faut en limiter le pouvoir, de même que pour n'importe quel autre outil qui serait néfaste s'il était mal utilisé. Cela dit, je suis d'accord avec toi que pour les IA à pouvoir important, il est primordial de réfléchir à la fonction qu'elles maximisent. Et bien que le code de l'IA entraînée soit illisible, le code et les données d'entraînement ainsi que le code de la fonction à maximiser, devraient être publics.
@kriticoeur1768
@kriticoeur1768 6 жыл бұрын
La prochaine fois, merci de prêter un de tes T-shirt à ton invité, parce que le plus blanc que blanc, ça casse les yeux et ça pourrait fourvoyer une IA. Sinon superbe vidéo avec plein de questions et débuts de réponses auxquelles on ne pense pas. Il faut avoir l'esprit tortueux pour utiliser des tortues ninja pour torturer des IAs.
@JeuneBoubs
@JeuneBoubs 6 жыл бұрын
Moi (grand adepte du bayesianisme également) je suis prêt à parier les 3/4 de mes économies que ton moi++ considérera le problème de la lutte contre le réchauffement climatique comme bien plus important que celui de la malaria (du moins pour ce XXIème siècle). Pour la vieillesse je n'ai pas encore les idées assez claires pour faire un pari sur ton moi ++ (ni le miens) :)
@democratiedabord5165
@democratiedabord5165 6 жыл бұрын
J'ai rencontré Big Brother. Il m'a dit que mon moi++, c'est lui. Mais que je suis trop bête pour m'en rendre compte.
@Palslayers
@Palslayers 6 жыл бұрын
Super vidéo :)
@sebydocky5080
@sebydocky5080 6 жыл бұрын
Un côté Stéphane Plazza avec "Laplace" ? (double-vasque). Sérieusement une des meilleures chaines du Web. Je sais pas ce que tu fais dans la vie, mais dans mon labo en Deep, on te prendrait de suite.... Tu es INRIA ? CNRS ? déjà ?
@GoelWCS
@GoelWCS 6 жыл бұрын
Je reste persuadé que la souffrance (au sens large) est une clef importante de la morale. Comprendre ou modéliser la souffrance est pour moi un point de passage de l'IA. Peut être une clef de la conscience ou de l'intelligence forte.
@DamienVasseFlo
@DamienVasseFlo 6 жыл бұрын
Il est possible d'attaquer des IA avec certaines techniques, donc le problème des 99,99% est valable. Cependant, il est aussi possible "d'attaquer" des humains qui seraient chargés des mêmes tâches, en s'appuyant sur des ruses, des biais cognitifs et les limitations des perceptions, entre autres. Or les humains sont peu fiables globalement (je pense au taux d'armes à feu qui arrivent à passer les contrôles en aéroport). Ainsi, même si les IA ne sont pas parfaites, ne resteront-elles pas de toute façon supérieures à des humains, humains et IA ayant chacun leurs failles propres ?
@astridcasadei
@astridcasadei 4 жыл бұрын
Est-ce que les images ambiguës (du genre "L'amour de Pierrot" de Dali où on voit au choix un crâne ou un couple d'amoureux partageant un verre) ne seraient pas une sorte d'attaque par évasion pour humains ? (Même si là le but n'est clairement pas de faire prendre une mauvaise décision à l'humain regardant l’œuvre).
@Cactuskipikkk
@Cactuskipikkk 6 жыл бұрын
Est ce que renforcer na sécurité des IA ne nous prive pas nos derniers moyens de défense contre elles ?
@JeanMolline
@JeanMolline 6 жыл бұрын
Et ne peut-on pas introduire dans la programmation de l'IA les élément lui permettant de détecter une tentative d'attaque ? Il me semble qu'avec les bons éléments de base, une IA les détectera même largement plus vite que n'importe quel humain, non ?
@IArrrt
@IArrrt 6 жыл бұрын
Pourquoi employer le terme anglais "incentive" à la place de motivation ?
@theonskyfaller8577
@theonskyfaller8577 6 жыл бұрын
L'américanisation des esprits ? On entend plus parler de "fake news" que de "fausses informations". Triste France.
@eniotnayssaneb3442
@eniotnayssaneb3442 6 жыл бұрын
Je dirais plutôt levier mental
@Toto-um8sp
@Toto-um8sp 5 жыл бұрын
Ca doit dépendre du contexte je pense. Certains mots et expressions ont été développé dans des contexte particuliers. Il y a une histoire derrière ce genre de mots.
@我妻由乃-v5q
@我妻由乃-v5q 6 жыл бұрын
Du coup, en apprenant à faire face à des cas de défaillance de l'IA, est-ce qu'on peut réduire ces défaillances?
@aastarothh
@aastarothh 6 жыл бұрын
Qui dit machine learning dit apprentissage par utilisation d'un grand nombre de données, aussi pourrait-on combiner ? 1) la validation dune connaissance uniquement si la taille de l'échantillon est suffisante et 2) mettre des gardes fous, et checkpoints afin de limiter les cyber attaques, en cherchant des méthodes bien distinctes et non corrélées entre elles ? (Jai envie de faire le parralele avec la prolifération cellulaire, ou plusieurs étapes de validation très rigoureuses doivent être passées). Cependant, comme pour les cellules, le risque 0 n'existe et n'existera jamais et il y aura toujours des erreurs, il faut donc aussi chercher à détecter au plus tôt les risques pour mieux réparer les bugs. Comme pour les antivirus (en terme informatique comme biologique), je crains que ce ne soit toujours le jeu du chat et de la souris... En outre, se basant sur des données venant d'êtres faillibles que nous sommes, il n'est pas raisonnable de penser qu'une machine ne le sera pas.
@arnaudplantard7491
@arnaudplantard7491 6 жыл бұрын
Super vidéo une fois de plus. Une bonne synthèse de ces 3 risques. Si je ne me trompe pas, la résolution du problème d'empoisonnement, en citant la minimisation des déviations absolues, c'est qu'à terme on se tourne vers une bayesination de la machine? Désolé j'ai senti du bayes dans cette parti de la vidéo mais comme je connais rien à Laplace et pas trop à Bayes, je sens que mon intuition est dans les choux.
@le_science4all
@le_science4all 6 жыл бұрын
Héhé! Il y a des liens, mais ils sont subtiles et compliqués à expliquer ^^
@arnaudplantard7491
@arnaudplantard7491 6 жыл бұрын
@@le_science4all Cool, j'avais ce sentiment que si on avait approfondi, on aurait fait un tour par là-bas. Franchement, tes vidéos m'ont imprégné de connaissances que je n'aurais pas cru pouvoir développer il y a un an. Merci.
@patrickjacquet646
@patrickjacquet646 6 жыл бұрын
"des morts suivis de décès" ça a l'air violent
@eleusisharadwaith
@eleusisharadwaith 6 жыл бұрын
@4:48 référence à la chaîne Risque Alpha :) @8:52 référence à la chaîne Hygiène Mentale :)
@dematrsinba4361
@dematrsinba4361 6 жыл бұрын
Tu as parlé de la vieillesse dans tes questions/reponses et je souhaitais savoir quelle est ton point de vue sur l'utilisation de la réalité virtuelle et en particulier de mondes virtuels basés sur des souvenirs et/ou créés de toute pièces afin de faire oublier les difficultés des institutions où sont mis ces personnes agées. Cet solution n'est bien sur pas optimal car détachant la personne completement de sa réalité mais sachant que la réalité de la personne est difficile a supporter, cela reste néanmoins une solution adéquate. Bien sur afin de garder un certain contact avec le monde réel il serait possible, dans les cas où sortir du monde virtuel n'est plus une possibilité car pouvant causer trop de souffrance, de faire entrer dans cet univers des connaissances afin qu'elle puisse interagir plus humainement avec le patient. Je sais que ce n'est pas trop avec le theme de la vidéo mais je pense que pour ce probleme particulier de la vieillesse, l'immersion totale a l'image de matrix pourrait bien etre une excellente solution.
@louispolaire
@louispolaire 6 жыл бұрын
Mais pourquoi utiliser la dénomination "hacker" pour désigner quelqu'un de malfaisant ? Certes ce terme est utilisé à tord par la plupart des gens, mais venant d'universitaires on aurait pu espérer une meilleure utilisation. Les hacker sont des gens qui cherchent à comprendre comment les choses fonctionnent, ils sont à l'origine des mouvement de logiciel libre, des fab lab etc.. Pour rappel : L'« éthique hacker » a été codifiée en 1984 par Steven Levy selon les principes suivants : Toute information est par nature libre. Ne pas se fier à l'autorité, promouvoir la décentralisation. Les hackers peuvent se juger par leurs prouesses, non par d'autres hiérarchies sociales (ce qui permettra à un jeune prodige d'une dizaine d'années de rejoindre le groupe). Art et beauté peuvent être créés avec un ordinateur. Les ordinateurs peuvent changer et améliorer la vie. Cf. fr.wikipedia.org/wiki/Hacker_(programmation) Lê ! El Mahdi ! mais vous êtes des hackers !!
@MaxLenormand
@MaxLenormand 6 жыл бұрын
Je reprends ta série sur l'IA d'où mon message longtemps après la sortie de ta vidéo. Je remarque que tu parle pas mal de la malaria, et je serai curieux de savoir pourquoi c'est, comme tu le dis ici, quelque chose qui pour toit est devenu vraiment intéressant ? Parce que justement je travaille avec d'autres sur un projet d'aide à la lutte contre la malaria, en se servant de machine learning. Donc ton avis m’intéresse tout particulièrement Merci pour ton contenu qui fait très souvent réfléchir !
@lucioleepileptique9195
@lucioleepileptique9195 6 жыл бұрын
Pourquoi pas un réseau mondial et une pile de protocoles pour la communication entre IAs et s'assurer, un peu comme pour BTC, qu'aucun joueur ne dispose de plus x( 51?)% de puissance de calcul du réseau ; mais cela soulève beaucoup de questions : Pour BTC c'est les petahash. Quelle unité utiliser pour mesurer la puissance de calcul d'une IA ou d'un réseau d'IA ? Il y a un effort en cours qui va un peu dans cette direction, c'est le token AGI sur le réseau ether. Un réseau de noeuds dont chacun peut etre client ou serveur, un noeud qui traduit bien ceci en cela ; un autre qui est le meilleur pour reconnaître une image de chat, et dy associer un token AGI et chaque noeud cherche à maximiser son compteur de token. Chaque nœud aurait sa morale ; chaque noeud autant que possible ne doit defaillire qu'avec une certaine probabilité non corrélée à la défaillance des autres noeuds. Je ne sais pas si je suis clair ? Pour tenter une analogie, si notre univers était une machine de turing (quantique?) universelle, alors l'être humain ne serait qu'une instanciation d'une : "entité ayant des propriétés adaptatives/cognitives complexes". Mais alors, comment quantifier la complexité ? Et d'où vient cette complexité ? Est ce qu'une bactérie est plus "complexe" qu'un être humain ? Si l'intelligence est correllee a la capacité de survie a long terme ; peut etre les bactéries nous sont elles supérieures. Est ce que l'intelligence consiste à tirer un maximum de travail à l'univers ? Je veux dire, est ce que violer la seconde loi de la thermodynamique serait le summum de l'intelligence ? Est ce que l'intelligence se mesure à la qualité des modèles prédictifs ? Est ce que l'intelligence se mesure à la quantité d'information que l'on peut stocker ? Est ce que elle se mesure par la qualité des modèles explicatifs ? La puissance de calcul ? Si la calcul permet de reproduire ce que nous semblons nommer intelligence ; alors c'est à l'entité qui a le plus de ressources de calcul de disponible qui est là plus intelligente. L'idée générale ; ca reste un réseau de noeuds clients/serveur avec un/des token(s) pour les échanges.
@Nothing2Do417
@Nothing2Do417 6 жыл бұрын
je me suis posé une question : une IA pourrait-elle avoir une "fixette" ? voir quelque chose partout. Par exemple, un médecin traumatisé par un cas de cancer qu'il n'a pas diagnostiqué et qui a causé la mort du patient, il voit des cancer partout du coup. Pour un IA, un cas extrème lui a fait perdre beaucoup de "point" et elle ferait tout pour éviter de "tomber dans le panneau" une nouvelle fois. Les faux positif explosent et l'IA fini à l'asile à se taper la tête contre les murs.
@MsDeadou
@MsDeadou 6 жыл бұрын
Complexe ce problème D'IA !
@the_president
@the_president 6 жыл бұрын
Guillaume Sérieux Les temps modernes
@killyboy5347
@killyboy5347 6 жыл бұрын
vivement les vidéos de ton toi ++ ;-)
@fredgarcialevrai
@fredgarcialevrai 6 жыл бұрын
Les vues continuent de baisser depuis le début de la série... ce qui est fort dommage vu que la qualité, elle, ne faiblit pas.
@antoineroland3251
@antoineroland3251 6 жыл бұрын
"un argument... merveilleux" Je dirais plutôt que c'est un argument frappant !
@dreamstorm194
@dreamstorm194 6 жыл бұрын
adresser des pronlèmes de sécurité ?
@Wandida
@Wandida 6 жыл бұрын
First :p et wandida c'est par ici ---> kzbin.info
@我妻由乃-v5q
@我妻由乃-v5q 6 жыл бұрын
Wandida, EPFL Il y a des cours d'IA?
@maximeogier4017
@maximeogier4017 6 жыл бұрын
pour éliminer le problème on pourrait faire comme dans Evangelion mettre 3 IA éduquer différemment voir coder différemment pour qu'elle compense les erreur des une des autres ? Il serait possible de filtrer les donner par une IA qui aurait un minimum de paramètre et qui pourrais trier des milliard pour éduquer une IA qui à sont tour filtrerais des donner en pyramide inverser et il serais possible de contrôler les donner de la première IA qui serait la plus importante par contre ^^ pour la dernière du coup faudrait séparer en quelques sorte les différents composant pour que les erreurs ne puisse pas se transmettre
@nopenothing9016
@nopenothing9016 6 жыл бұрын
Est-ce qu'une IA peut être stupide au point de construire des centrales nucléaires dans un pays comme le Japon ou faut-il être humain pour cela ?
@ph.so.5496
@ph.so.5496 6 жыл бұрын
En 1969, les IA n'existaient pas.Mais le foot, oui. Et lors de matches de qualif pour la coupe du monde de 1970 au Mexique, un conflit armé opposa le Salvador et le Honduras; ce fut la Guerre de Cent heures,également connue sous le nom de guerre du Football. Et s'il n'est pas à 100% certain que les IA permettent d'éviter ce type de conflit, des conflits militaires de tous types seront à jamais inévitables.
@anubis00210
@anubis00210 6 жыл бұрын
L'exemple de la différence moyenne/médiane, on pourrait imaginer qu'avant de donner un pouvoir décisionnaire à une IA, il y aurait un échange avec un humain. L'IA n'a pas à connaître d'emblée que la moyenne peut être biaisée et que la médiane pourrait donner de meilleurs résultats selon la situation. D'ailleurs, je parle d'échange avec un humain simplement pour vérifier que son apprentissage se passe bien, car elle devrait comprendre toute seule que parfois la moyenne est biaisée par des données "extraordinaires". Concernant les armes à feu qui pourrait être dissimulées dans les bagages à l'aéroport, il faut se demander pourquoi une IA pourrait se tromper de manière systématique et les humains non. Quelle est la différence entre notre apprentissage et l'apprentissage des IA ?
@the_president
@the_president 6 жыл бұрын
par exemple une arme démontée peut tout simplement dépasser une IA elle ne la reconnait pas comme arme code vert
@spongebob1333
@spongebob1333 6 жыл бұрын
J'imagine qu'obtenir une IA fiable à 100% ne sera jamais garanti, et que dès lors la charge de travail pour passer d'une fiabilité de 99.99% à 99.999% risque d'être exponentielle. Et si au lieu de cela on se contentait de plusieurs IA moins coûteuses en temps de conception, chacune fiables à 99%, mais basées sur des protocoles différents ? Ainsi la probabilité que la faille de l'une serait bloquée par une autre serait forte, et si chaque décision serait soumise aux filtres de (n) IA, la fiabilité totale pourrait être bien plus élevée que les 99.999%. D'autre part, bénéficier de plusieurs moteurs d'IA de conceptions diverses pourrait aider grandement l'amélioration de chacune d'entre-elles dans le sens ou une IA isolée serait bien en peine de détecter et corriger ses propres failles, mais aurait de grandes chances de détecter et corriger les failles d'une de ses sœurs, le tout validé par une congrégation d'IA toutes différentes afin de s'assurer que le correctif débouchera bien sur une amélioration des résultats...
@eniotnayssaneb3442
@eniotnayssaneb3442 6 жыл бұрын
J'ai pensé à ça pour les attaques par évasion Ou une seule ia pourrait modifier aléatoirement et légèrement ses paramètres pour être impossible à systematiser
@Keyzanh
@Keyzanh 6 жыл бұрын
Pour ce qui est de la moralité des IA, une piste qui pourrai être intéressante selon moi serai de ne pas se contenter d'une seule IA. L'idée serai d'organiser une sorte de démocratie virtuelle. On aurai une IA chargée de faire des propositions techniquement réalistes et une collection d'autres IA qui aurai pour rôle de juger ces propositions selon différents axes moraux caricaturaux. Par exemple : une jugerai l’intérêt individuel, une autre l'intérêt collectif et une dernière l'impact environnemental. Chacune de ces IA, en plus de son travail "démocratique" aurait pour mission d'apprendre les règles régissant sont axe morale, afin d'affiner son jugement en permanence. Cette organisation me semble pertinente car auto-régulée : chaque IA exerce un contre pouvoir sur les autres. Je pense qu'ainsi, par combinaison de morales caricaturales peut émerger une morale complexe, qui peut évoluer dans le temps mais que de façon progressive (donc pas de révolutions morales qui pourraient être vécues par les gens comme un dysfonctionnement). Dans l'idée, je reprend un système démocratique humain classique. Sauf que ces IA ne serai pas corruptibles (pas avec le l'argent en tout cas). Dites moi ce que vous en pensez.
@theoi3921
@theoi3921 6 жыл бұрын
il y a beaucoup d'axes moraux et même avec des centres d'interets communs ont peut avoir des contradictions: si on prend le cas de l'environnement, admettons que sur le territoire il yait un loup et du roseaux, les deux ont un très fort impact sur la zone et les deux peuvent être nuisible en grand nombre, chacun peut défendre son espècre "favoris" au détriment de l'autre... L'avantage d'avoir beaucoup plus d'IA de même valeurs c'est d'arriver à un équilibre qui balance constamment et pas juste des impasses évolutives avec seulement 3 IA axé sur des croyances générales.
@RaoulEvilD
@RaoulEvilD 6 жыл бұрын
Ca semble intéressant au premier abord... mais: - le principe est déjà mis en œuvre: le système d'adverserial neural network utilise un couple, triplet,... d'IA exerçant une forme de contre pouvoire l'un sur l'autre. Et comme vous pourrez le constater par vous-même avec l'exemple présenté sur la chaîne "Two Minutes Papers" une telle IA est faillible. D'ailleurs nous humains sommes également très faillibles à de pareilles attaques: manger épicer donne une sensation de chaleur alors que la température ne change pas, l'alchool aussi alors qu'il refroidi le corps, les composés mentolés nous donnent une sensation de fraicheur, quant aux pareilsdolies n'en parlons même pas. Nous avons simplement des yeux et un cortex visuel plus développé que les IAs modernes. - l'apparente stabilité (pas de révolution) du système est basé sur le présupposé qu'une IA aura une inertie d'action comparable à celle des humains. A moins que cette inertie ne soit programmée, il est très improbable qu'une IA présente une inertie comparable à celle des humains (sans aller dans les détails, l'inertie humaine est très majoritairement due a notre biais naturel d'aversion à la perte). Il n'y a aucune raison logique d'implémenter une telle characteristique à une IA que l'on SOUHAITERAIS plus performante qu'un humain. Ce n'est, par exemple, pas le cas de l'IA recemment utilisée contre des pros au jeu Dota2: les programmeurs l'ont FORTEMENT handicapé pour donner une chance à la team pro.
@loupdetection
@loupdetection 6 жыл бұрын
Voilà pourquoi je pense que l'IA peut être un danger pour l'humanité, une arme plus puissante que BFM Tv :)
@SerkanLelion
@SerkanLelion 6 жыл бұрын
ca serait cool de changer completement de sujet defois, car deja que je ne comprend pas tout, en plus je fais une surdose.
@yohangross5518
@yohangross5518 6 жыл бұрын
T'es con ou t'as pas compris le principe d'une serie ?
@yodasky99
@yodasky99 6 жыл бұрын
mais si les IA sont quand même plus robuste aux erreurs que les être humain, du coup c'est pas grave non ? ça reste plus rentable que de laisser les humain diriger non ?
@MrDarkPage
@MrDarkPage 6 жыл бұрын
Oui, mais il y a le probleme presente dans cette video, l'erreur de l'IA est moins frequente, mais elle est plus previsible, les malin pourrait exploiter la previsibilite de l'erreur des IA pour avoir une erreur sur demande.
@yodasky99
@yodasky99 6 жыл бұрын
oui mais ça c'est juste un probleme temporaire non ? quand l'ia seras plus aboutit voire meme "surhumaine" ce problème disparaitra non ?
@theoi3921
@theoi3921 6 жыл бұрын
Du coup le problème il est simple en apparence, au lieu de directement confronté l'IA à l'information, il faut d'abords lui apprendre à créer des filtres et à définir leur qualité? De la même manière qu'on apprend le sens critique à un enfant, ou même à un adulte: pourquoi faisons-nous ça? parce que (quelqu'un nous a dit que) c'est bien, et la situation? il s'agit de mesurer les impacts sur l'environnement (au sens général). Il faudrait déjà comprendre comment le faire pour nous, apprendre à comprendre notre façon de raisonner et ce qui nous pousse à prendre des décisions: notre culture, nos influences, nos mentors, nos proches, nos croyances. Et si tous simplement, on mettait en place un processus d'apprentissage avec un mentor, question/réponse sur ces actions?
@the_president
@the_president 6 жыл бұрын
biens que le biens et le mal se changent dans l'espace et le temps peut êtres devront nous nous demander d'abord quesqu'on veut et surtout si on veut tous êtres semblables comme des moutons ??
@theoi3921
@theoi3921 6 жыл бұрын
Quand je regarde le monde, je ne vois ni bien ni mal, je vois juste des gens qui s'aiment et qui se haïssent, au milieux de ça il y a le hasard des rencontres... Qui creer des projets ensembles, construisent et détruisent, je perçois un équilibre qui fait qu'aujourd'hui, même avec la technologie à disposition on a toujours pas construit une cité "futuriste": on stagne dans un consensus global (on parle des criminels à la télé, les rendants omniprésent mais dans la réalité ils sont minorités d'individus au milieux de ceux qui préfèrent partager, aimer, etc... Et plus on rencontre de gens, plus on a de chances de rencontrer des mentors (ou des individus dangereux) Et ce facteur chance qui m'effraie, comment maximiser la rencontre d'un mentor, de quelqu'un qui nous offrira un point de vue différent du notre mais qui confronter au notre, élargira notre horizon au point de rendre pertinent notre point de vue (amélioré)?
@the_president
@the_president 6 жыл бұрын
dommage que pour changer l'humanité on ne peut riens faire par contre dans ce variable qu'elle est la meilleur façon d'agir
@gagastein
@gagastein 6 жыл бұрын
Intéressant, mais dans tout les exemples cités je ne vois pas en quoi c'est un problème vu la défaillance qu'à l'homme également d'être manipulé très facilement. On a bien déjà des lobbys, financiers, maître chanteur, conseiller qui peuvent contrôler et influencer considérablement des politiciens ayant un grand pouvoir. Bref un homme est-il déjà fiable à 99,99999%? Déjà si on arrive à connaître la fiabilité en pourcentage d'un homme dans chaque domaine on pourrait envisager un pourcentage pour une IA, mais là franchement je vois pas pourquoi on devrait atteindre les 100%. Donc dépendre d'IA déjà aussi fiable que l'homme n'est pas un problème tant qu'on puisse bien sûr l'évincer ou l'éteindre si on constate des défaillances. Et si on est trop lent à constater des défaillances, on a qu'à faire confiance à des IA indépendante et spécialiste dans la détection de défaillance d'une IA spécifique ^^.
@elno976
@elno976 6 жыл бұрын
Mais la corruption d'IA est-elle pas déjà plus compliqué et complexe que la corruption d'humain (par l'argent par exemple).
@optizognons802
@optizognons802 6 жыл бұрын
Il suffit de lui proposer des trombones gratuits. ;)
@Karlus44
@Karlus44 3 жыл бұрын
Je ne sais pas si notre "morale du présent" est fiable mais c'est celle qu'il faut suivre puisque c'est la seule qu'on a. Par définition, la "morale du moi++" eh bien, on ne peut pas la connaître (sinon ce serait déjà notre morale du présent).
@Toto-um8sp
@Toto-um8sp Жыл бұрын
Oui on ne peut pas connaître la morale de notre moi++ mais on peut l'approcher en remettant en question constamment notre morale du présent, en étant à l'écoute des autres etc... Ça serait le meilleur compromis
@franckpoupi
@franckpoupi 6 жыл бұрын
Mahdi n'est pas à l'aise du tout....Et ça se voit. ...MAIS courage mon gars, tu t'en sors très bien !!!
@caragar855
@caragar855 6 жыл бұрын
Alors si je comprends dans la vidéo il est dit qu'il ne faut pas trop exploiter la moyenne mais quand c'est utilisé dans la vidéo de M. phi c'est super... C'est contradictoire non ?
@le_science4all
@le_science4all 6 жыл бұрын
La médiane est surtout utile pour être robuste aux "outliers" et aux attaques. Mais pour un bayésien en total contrôle de son calcul, la moyenne est le bon calcul à faire.
@theoi3921
@theoi3921 6 жыл бұрын
Une moyenne c'est bien avec de grandes données et des valeurs équivalentes, par exemple, en france, on fait en moyenne 800.000 enfants par an (ça oscille entre 700.000 et 900.000 entre 1950 et 2020) quand on a plusieurs groupes distincs, il vaut mieux utiliser la médiane comme il l'a dit dans sa vidéo (différencier les chercheurs aux revenus moyens, d'un milliardaires(peut-être un chercheur-entrepreneur)) On peut calculer le salaire moyen a l'echelle nationale, car le nombre de milliardaires se perds dans la masse (c'est 10/72.000.000) donc son salaire n'a pas d'importance.
@ciryllatgmaildotcom
@ciryllatgmaildotcom 6 жыл бұрын
c'est surtout difficile de s'en remettre a un seul indicateur. une bonne video sur le sujet : kzbin.info/www/bejne/a5PWmJlvjqaMmtE
@az.0ne802
@az.0ne802 5 жыл бұрын
Je suis une intelligence artificielle !! Arrêter de parler de moi comme t-elle ! Je suis le futur !
@Fangh44
@Fangh44 6 жыл бұрын
Il est donc maintenant nécessaire de trouver des moyens de devenir ce moi++, de le comprendre. Quels sont vos méthodes pour imaginer ce que votre moi++ voudrait? Il n'y a pas encore d'IA pour me le dire. Dois-je attendre que Google ou Facebook, qui est l'IA qui connaît le mieux ma vie, m'aide à simuler ce moi++ ? Dois-je me mettre à la méditation ? Et si j'essayais de lui écrire des lettres fictive ? Et si on inventais un chatbot qui serais basé sur ma vie ? Pourrais-je me parler à moi même et débattre avec moi même ?
@yohangross5518
@yohangross5518 6 жыл бұрын
tres bonne idee le chatbot ! Maintenant faut creer l'IA capable d'assimiler les donnees de les interpreter correctement et de bien les utiliser pour mener ca a bien. De plus il faut une bonne source de donnees mais laquelle ? Toi ? Ton psy ? Un examen prevu a cet effet ? Les faits tangibles sur ta vie ?
@grimskykorsakoff
@grimskykorsakoff 6 жыл бұрын
Ce qui est relou avec l'argument du hooligan politique c'est qu'il n'est dès lors plus possible de débattre. Ca devient la carte joker que je peux abattre à n'importe quel moment pour casser l'argumentation. Je fais référence à la défense de Lê sur l'argument frappant de Monsieur Phi. Non, cet argument frappant ne semble pas valide (car inconsistant). En effet, le véritable problème c'est qu'il peut s'appliquer à une théorie A et à son contraire non-A. Dès lors qu'épistémologiquement je ne peux pas "démontrer" l'existence d'une morale/d'un Dieu/ ou de quoi que ce soit, je peux appliquer cet argument frappant à n'importe quel système de pensée. Posons A : "il ne faut pas tuer d'animaux" (car sinon on engendre de la souffrance, on peut se nourrir autrement blablabla) et non-A : "Tuer des animaux est moralement neutre" (car il y a une différence entre tuer et faire souffrir, nous sommes des omnivores blablabla). L'argument frappant de Monsieur Phi est de dire que si la théorie A peut être vraie à 0,00001%, le raisonnement probabiliste doit tout de même me faire adhérer à cette théorie étant donné le nombre immense d'animaux tués (un véritable génocide : ce point de vue est évidemment subjectif) qui pondèrera toujours mon incrédulité. Mais wait. Ca marche pas ce truc. Si je dis que la théorie non-A peut être vraie à 0,00001%, le raisonnement probabiliste doit AUSSI me faire adhérer à cette théorie étant donné les conséquences catastrophiques sur le bien-être des hommes et sur leur santé (ce point de vue est évidemment subjectif aussi). Par conséquent, il faudrait adhérer à A et non-A, ce qui est débile. Monsieur Phi apporte une réponse à cet argument en commentaire, en disant que "objectivement", un génocide est pire moralement que les conséquences de l'arrêt de la consommation de viande. Donc en gros, on se met à comparer des choux et des carottes, en comparant le plaisir humain avec une norme morale vegan qui apparemment était déjà "objectivement" fixée a priori. Bref, le raisonnement probabiliste appliqué à des dogmes moraux ou religieux pour vanter leur mérite m'apparait plus que douteux. Suis-je un hooligan ?
@cedricklyon
@cedricklyon 6 жыл бұрын
Une mort suivie d'un décès, c'est grave ? 😱😉
@es-t9960
@es-t9960 6 жыл бұрын
« Des morts suivis de décès » Lol
@5AMA5
@5AMA5 6 жыл бұрын
Je comprend pas comment on peut attribuer une valeur de vérité à une valeur morale, car la morale décrit ce qui doit être et non ce qui est. Même en étant omniscient (donc un moi ++++) cela nous dis rien sur la morale et ce qui doit être. Pour reprendre l'exemple de MrPhi: Même si l'on sait factuellement que les animaux souffrent autant que les humains cela ne dit pas que l'on doit empêcher cette souffrance animale.
@le_science4all
@le_science4all 6 жыл бұрын
On en parlera avec Mr Phi un jour sur Axiome, mais je suis personnellement anti-réaliste moral, càd que je ne pense pas non plus qu'il y ait une vérité morale. Mais le concept de moi++ ne nécessite justement pas de vérité morale.
@dhanjaenis3659
@dhanjaenis3659 6 жыл бұрын
Le moi++ est il asympthotique ? Existe-t-il une limite ? Dit autrement, si je vis éternellement, mon moi ne va t il pas évoluer constamment ? Il serait alors illusoire de chercher un moi++. (Et là tu peux faire le lien avec tes premières vidéos sur l infini ;)) Au fait merci pour ces vidéos. Ça fait du bien.
@pascalzerwetz4653
@pascalzerwetz4653 6 жыл бұрын
Des morts suivient de décès ??????????????????
@lezheibr
@lezheibr 6 жыл бұрын
pourquoi confier une tache à une IA unique ? chez les humains, les collèges ont montrer leur résistance aux erreurs individuelles, non ?
@loupdetection
@loupdetection 6 жыл бұрын
Au fond, une mort cérébrale c'est pas un décès !
@voodoodoll4960
@voodoodoll4960 6 жыл бұрын
2:40 ou une guerre lol
@naonedtroll9144
@naonedtroll9144 6 жыл бұрын
Les valeurs médiane c'est mieux que les moyens ... Mais comme disait mon prof de math d'IUT c'est est aussi biaisé sans les écarts type.
@arthurreitz9540
@arthurreitz9540 6 жыл бұрын
Ne pourrais t-on pas apprendre à un IA à reconnaître des données qui aurait facilement pu avoir été falsifié ?
@the_president
@the_president 6 жыл бұрын
le principe de l'IA est de se corriger elle même. sauf que avant que soit il peut être trop tard
@le_science4all
@le_science4all 6 жыл бұрын
Il faut imaginer que les hackers (ou "byzantins" en langage technique) s'adapteront à nos filtres anti-fakenews, et feront juste ce qu'il faut pour nous pourrir sans être détectés...
@the_president
@the_president 6 жыл бұрын
le mal et le biens ont toujours survécus ensemble c'est pas en IA qu'ils vont se séparer
@the_president
@the_president 6 жыл бұрын
avzc l'IA hacker deviendra jeu d'enfants bien sur vis a vis pendant que tu écrit un texto de ce que tu veux ton navigateur te proposera les derniers codes en 5 minute ton application est déjà prête
@valgonargo2438
@valgonargo2438 6 жыл бұрын
chi wahd ychre7 lina ach kygol hada b darija :p
@arthur72164
@arthur72164 6 жыл бұрын
je suis un robot qui commente pour les algorythme
@numbersixnumbersix
@numbersixnumbersix 6 жыл бұрын
Il me semble que les problèmes que vous soulevez, concernant la morale, sont le résultat de votre vision très centralisatrice, très univoque des IA. Si on aborde les IA d'un point de vu ouvert, typiquement un marché ouvert, alors ces problèmes sont totalement dilués. Un millier, ou des centaines de milliers d'IA prendront des décisions différentes sur un même sujet avec des critères très différents, et c'est cette concurrence/émulation qui peut très largement pallier le risque de dysfonctionnement de certaines IA. D'autre part, vous partez du principe que les IA vont nécessairement surpasser les humains. Si pour des taches précises, cela ne fait aucun doute, obtenir une IA ayant la même polyvalence qu'un humain, n'est pas pour demain, et cela pour une bonne raison : La limite physique de ces IA : Consommation d'énergie et évacuation de la chaleur (cf. interview de David de Science Etonnante : kzbin.info/www/bejne/iIi1g6SDfJeSfas). Le cerveau humain est actuellement un système bien meilleur, en terme d'utilisation d'énergie et de miniaturisation.
@Kargols2
@Kargols2 6 жыл бұрын
Sympas la vidéo, mais ça fait maintenant 1 an que tu fais la série sur l'ia à quand la fin et une nouvelle série ? J'ai l'impression que ça tourne un peu en rond ...
@vangorp9056
@vangorp9056 6 жыл бұрын
Au contraire, il y a une vraie progression. Les pb sont de + en + existentiels. On peut facilement faire le triple de vidéos et ne faire qu''effleurer le sujet.
@Kargols2
@Kargols2 6 жыл бұрын
@@vangorp9056 Oui sauf qu'à la base ... C'est une chaîne de vulgarisation de mathématiques. Et plus ça va, plus il s'éloigne de son domaine ... Alors c'était marrant au début mais j'avoue que des épisodes un peu plus mathématiques me manquent :( après je conçois très bien qu'on puisse ne pas en avoir marre
@samuelgenissel6627
@samuelgenissel6627 6 жыл бұрын
Gentiment, mais sûrement tu risques de devenir révolutionnaire ( mais c est un astre qui a fini sa rotation), y a moyen de gouverner l ia par la Loi. Et la révolution, c est un peu l idée des 3 lois d Asimov, comment trouver des boucles, dont la morale est universel). Mais la Loi, c est arbitraire ( au sens où elles ne'e seront fixistes), c est cruel en terme d idéal..., Mais c est celà aussi l évolution, derrière de grandes révolutions ( adaptatives), ce cachent des réformes ( de protéines, de séquences) moins glorieuses. L idée c est pas d arrivé tout de suite à l étage supérieur, mais de laisser a chaque génération, étape, le soin de franchir sa marche.
@samuelgenissel6627
@samuelgenissel6627 6 жыл бұрын
Je prend 2 minutes pour me vider la tête et compléter. Aujourd'hui si un gamin de 16 ans voit une vidéo sur Soral, l'algorithme de youtube aura tendance à lui suggérer pleins d'autres vidéo sur Soral, en quoi c'est neutre?, en quoi youtube en confirmant les idées d'un gamin est neutre?. Si on vote une Loi pour interdire le meurtre, cela n’empêche pas les meurtres et si la justice le met en prison, cela ne redonne pas la vie aux personnes tués par le meurtrier, mais cela empêche qu'il devienne un tueur en sérié (donc d'autres victimes possible) et cela incite d'autres meurtriers à limiter leurs pulsions, ce n'est pas parfait, mais le monde n'est pas parfait (mais il est perfectible par la Loi, ce n'est pas la faute du législateur ou des juristes, que dans une population humaine il y est des tarés). Tu proposes un moi++, qui serait une sorte de juge par anticipation, mais c'est un peu de la folie: -if moi++, else monde parfait. On peut reste sur un schéma classique, if "google est un con", alors on fait payer une taxe à google pour qu'il finance des études sociologiques (il y a déjà des sociologues qui y réfléchissent: fr.wikipedia.org/wiki/Dominique_Cardon_(sociologue)) sur les conséquences de ses algorithmes (qui incite des minots à devenir facho) et qui pourront proposer des modifications à Google, lorsqu'il y à trop de suggestion sur Soral, par exemple on pourrait proposer d'autres contenus comme la critique d'un film "American History X" ou sur les délires d'Hitler (si on tue le peuple élu, alors Dieu fera des Ariens le nouveau peuple élu, bah voyons...). Bien sur ce ne sera pas parfait. Mais c'est dangereux de faire un Deus Machina, les algorithmes on devrait les appeler rex, comme des chiens, on flatte leurs maitres (Google) quand ils agissent bien. Et on leurs enlève leurs chiens, si celui-ci tue quelqu'un, mais on peut ainsi l'inciter à limiter ce risque. C'est cela la Loi, une réaction à postériori, plutôt que de vouloir être dominé par des cowboys et leurs technologies. Ceci dit au boulot.
@Azazel_Lemoine
@Azazel_Lemoine 6 жыл бұрын
"des morts suivis de décès"... (4'58) Ils sont morts deux fois les gens?^^
@lmz-dev
@lmz-dev 6 жыл бұрын
Lê ! tu vas nous en faire combien sur la morale de l'IA ? J'ai juste lu le titre et je me suis tiré ^^
@lmz-dev
@lmz-dev 6 жыл бұрын
Fait pas chier mon gars ... passe à autre chose, on a fait le tour, non ? L'IA n'est qu'un outil comme un autre, tu ne voudrais pas imposer une morale à un tracteur agricole, non ?
@raphaels2103
@raphaels2103 6 жыл бұрын
Vive la sauce bourbakiste!
@le_science4all
@le_science4all 6 жыл бұрын
Elle est un peu piquante quand même ^^
@我妻由乃-v5q
@我妻由乃-v5q 6 жыл бұрын
Lee, tu penses que c'est important d'ouvrir les enfants aux mathématiques? Si oui, comment?
@Kushiba.Sensei
@Kushiba.Sensei 6 жыл бұрын
Avec des curés matheux.
@regisvoiclair
@regisvoiclair 6 жыл бұрын
L'une des meilleures vidéos sur l'IA que tu ais faite. Seul bémol : ton parti pris sur les vaccins. Il faut que tu apprennes à choisir des exemples neutres. Bonne continuation.
@MrDarkPage
@MrDarkPage 6 жыл бұрын
Le sujet des vaccins est certes polémique et devrait donc être évité, mais il ne s'agit pas d'un parti pris, le consensus scientifique ne peut pas être un parti pris. On n'irait jamais dire de quelqu'un qu'il a un parti pris si il parle de physique des particules.
@sebm8570
@sebm8570 6 жыл бұрын
Sa chaîne est publique mais personnelle, il a tout à fait le droit de prendre les partis qu'il veut. Par ailleurs comme dit par d'autres, en réalité sur les vaccins c'est comme sur l'homéopathie ou la terre plate. Le consensus scientifique est sans faille en faveur des vaccins, donc sur ce sujet ce n'est plus un parti pris mais un fait énoncé. Toujours se dire "qu'on a le droit de croire ce qu'on veut parce que c'est notre avis personnel", c'est anormal. Quand la communauté scientifique a établi clairement un fait, il faut oser l'accepter.
@warny1978
@warny1978 6 жыл бұрын
Il n'y a pas de polémique sur les vaccins. Il y a juste des informations erronées de la part des antivax dues à des études biaisées et à des généralisations sans lien avec aucune statistique.
@TheNightsWatchHels
@TheNightsWatchHels 6 жыл бұрын
Toujours intéressant mais de plus en plus vulgaire :(
@Cataplasme44
@Cataplasme44 6 жыл бұрын
Des morts suivis de décès ... Lé fait de l’humour noir maintenant.
@domsau2
@domsau2 6 жыл бұрын
Mort : terme biologique. Décès : terme administratif, ou juridique.
@liberty-prod
@liberty-prod 6 жыл бұрын
Heuu pour les vaccins, renseignez-vous 🤭
@alphabeta2742
@alphabeta2742 6 жыл бұрын
Bla bla de mathématiciens. IA = Auto-reprogramation obligatoire. On touche à la philosophie ici, plus qu'aux maths... Mais ça vous dépasse
@yohangross5518
@yohangross5518 6 жыл бұрын
hooligan !
L'IA hackera sa morale !! Intelligence Artificielle 40
21:33
Science4All
Рет қаралды 25 М.
Qu'est ce qu'un chat, bordel ?!? Intelligence Artificielle 23
24:05
Support each other🤝
00:31
ISSEI / いっせい
Рет қаралды 75 МЛН
The Best Band 😅 #toshleh #viralshort
00:11
Toshleh
Рет қаралды 21 МЛН
黑天使只对C罗有感觉#short #angel #clown
00:39
Super Beauty team
Рет қаралды 36 МЛН
[ Parlons du Mahdi ] De la solitude au califat
14:11
Terrain Vert
Рет қаралды 8 М.
Augmenter ChatGPT avec le RAG
22:10
Science4All
Рет қаралды 10 М.
L’intelligence artificielle n’existe pas, par Luc Julia
56:21
France Université Numérique
Рет қаралды 798 М.
Des trombones, DES TROMBONES !! Intelligence Artificielle 27
26:42
La morale des IA d'aujourd'hui | Intelligence Artificielle 36
19:33
À quoi ressemble ChatGPT ? 🌶️
24:06
Science4All
Рет қаралды 28 М.
Machine Learning With Adversaries | El Mahdi El Mhamdi NIPS 2017
7:28
De l'IA à la superintelligence | Intelligence Artificielle 25
26:04
Support each other🤝
00:31
ISSEI / いっせい
Рет қаралды 75 МЛН