Il existe une version anglaise : kzbin.info/www/bejne/mn_UZ2qwZ8eDfbM
@labonnelambda582 жыл бұрын
J'ai cliqué sur le lien juste par curiosité (même si je parle français). Puisque cette version est obsolete (tel indiqué dans le titre) et qu'il y a une nouvelle version, il faudrait mettre à jour le commentaire pour mettre le lien de la bonne version à la place.
@clementl3925 Жыл бұрын
Indeed you should link to the non deprecated version : kzbin.info/www/bejne/mH_Ji2OvnbuWmdk
@divmerte80362 жыл бұрын
A mon avis tu est le seul en France qui communique sur google et ou l'ia et ses danger et les autres sujets ne gâchent rien , l'angle de traitement purement scientifique est un véritable bol d'air . Alors merci ton travail est en tout point d’intérêt publique !
@egonsangsoo69032 жыл бұрын
Ya Paf le geek également
@jean-baptistelasselle45622 жыл бұрын
@@egonsangsoo6903 Looool, et il ya pas "Pif le Chien", aussi mdrrrrr
@jige12252 жыл бұрын
Redescendez sur terre : dans ce domaine, jamais le point de vue "purement scientifique" ne prévaudra vu les enjeux industriels, économiques et surtout militaires.
@divmerte80362 жыл бұрын
@@jige1225 lol à quel moment j'ai dit que j'avais ce genre d'espoir ? tu choppe des mots clé au hasard pour construire un commentaire ou quoi ? tu serait pas un bot par hasard ? parceque c'est pile le genre de comportement qu'on s'attend à voir chez eux XD
@vincentburi9192 жыл бұрын
Ta lucidité et ton intelligence avec ta franchise doit faire peur à beaucoup de monde. Merci à toi. Fait très attention à toi, l'humanité n'est pas juste et bienveillant! Bonne chance pour ce combat étique et juste.
@tomessaicomplisse40222 жыл бұрын
Incroyable travail ! Je suis vraiment époustouflé par ta motivation et à quel point tu arrives à mettre celle-ci au service de l'humanité ! Dommage que tes vidéos, de par la complexité du sujet abordé (et aussi hum hum... en raison d'un certain algorithme...) ne touchent pas un large public ! Je vais tout de même contribuer à la propagation de celle-ci en la partageant.
@colinpitrat86392 жыл бұрын
"Oh, ben c'est pas si grave" David Goodenough, chercheur en Machine Learning, ancien développeur de jeux vidéos.
@jean-baptistelasselle45622 жыл бұрын
Chercheur, et développeur de jeux vidéos ? 🤣 Il ferait pas prof de yoga, développement personnel et retour de l'être aimé aussi?...😂🤣😂😂🤣🤣🤣
@ThomasKundera2 жыл бұрын
"La recherche en IA est un sport de combat" ;-) Ce qui m’épate est ta capacité à associer grande rigueur intellectuelle et professionnelle, avec une boussole éthique claire et sans compromis. Merci.
@DamienKoda Жыл бұрын
ce fut parfait si cette merveilleuse boussole ait été utilisé lorsqu'il traitait de la vaccination contre le covid.
@ThomasKundera Жыл бұрын
@@DamienKoda : Il en a très largement parlé sur sa chaine. Il serait sympa de faire un debrief, pour voir ce qui a collé et ce qui n'a pas dans les projections, mais globalement, c'est un des premiers à avoir bien insisté sur ce que le caractère exponentiel d'une épidémie pouvait produire.
@loicra2 жыл бұрын
J'étais pas sûr de regarder une vidéo aussi longue mais finalement si, le sujet est super intéressant
@norbertdunord58712 жыл бұрын
Un grand merci pour cet éclairage et cette sensibilisation aux dangers des algorithmes de recommandations. Et c'est noté pour le projet Tournesol !
@Daniel-js2pk2 жыл бұрын
Autre question: penses-tu que ce serait une bonne idée pour promouvoir les recherches sur la sécurités des algorithmes, de créer un journal universitaire open source sur ce sujet. Avec les affiliations d'universités où écoles prestigieuses de toi et tes collègues, ce type de journal même un peu marginal au début pourrait devenir utile.
@lagartija85072 жыл бұрын
Le problème est que les grands journaux sont plus à la recherche de sujets racolleurs que de science bien construite... et ça marche.
@vincentd88502 жыл бұрын
@@lagartija8507 il parlait d'un journal universitaire, pas France Soir hein ;-)
@GreyPunkWolf Жыл бұрын
@@lagartija8507 CRÉER un journal, ça veut dire répondre à cette problématique, justement... Avant de critiquer, il faut lire correctement hein 😅
@L.Nahro02 жыл бұрын
Merci, vous êtes un véritable lanceur d'alerte
@jean-baptistewerner45542 жыл бұрын
Il paraît qu'il faut commenter pour le référencement, mais ça n'empêche pas de remercier au passage. J'ai découvert la chaîne par la série de vidéos sur la démocratie et la théorie des jeux, qui a profondément éclairé ma façon de recevoir l'information et le discours politique. Et depuis, je m'intéresse grâce à vous à ce sujet des IA, leur éthique, dont j'ignorais l'importance. Alors merci encore de m'aider à devenir un citoyen meilleur... et plus inquiet.
@segolener.31482 жыл бұрын
Audacieux de faire ça sur KZbin ! Travail hyper complet, bravo et bon courage, continue à promouvoir l'éthique👏👏
@rwallabi57472 жыл бұрын
Félicitations pour ce travail. En tant qu'ingénieur en informatique et ex-enseignant en mathématiques, les sujets que tu invoques me touchent particulièrement. Je suis cependant encore un grand novice dans mon domaine et voir des personnes impliquées et travaillant activement sur ces sujets cruciaux dans l'avenir de l'humanité me rassure. Même si le message que tu évoques est globalement négatif, le simple fait que tu le mettes en lumière est à mes yeux très positif et rassurant, car identifier un problème est le premier pas vers sa résolution. Merci. PS : Je me suis abonné
@PomPiDoum2 жыл бұрын
Quel travail ! Bravo et merci. C'est vraiment important !
@castorhargneux2 жыл бұрын
C'était une vidéo très intéressante. Cependant je dois mettre un bémol. Cette série de vidéos comprend beaucoup d'opinion (ça a souvent été le cas mais ici c'est plus le cas que jamais) et je n'ai rien contre ça mais il serait intéressant d'avoir un droit de réponse, un débat avec quelqu'un dont tu t'opposes à la thèse. En effet, ici on doit souvent "te croire sur parole" et il convient toujours d'être prudent avec ça. En plus, certains concepts dont tu parles sont malgré tout assez complexes, même pour moi qui travailles dans le machine learning (mais pas du tout dans les mêmes domaines et les mêmes échelles). Ça accentue un peu le fait qu'il faille te croire sur parole. C'est assez différent par exemple de quand tu critiquais la p-value il y a quelques années, où tu avais énormément de sources académiques à l'appuis. En tout cas, bonne continuation et vivement la prochaine vidéo !
@paulbarbera94332 жыл бұрын
Il met des sources chaque fois, renseigne-toi gros
@0dim1002 жыл бұрын
@@paulbarbera9433 Son travail est tres serieux, peu de doute la dessus. Cependant Castor a raison sur ce coup... Il cite les sources c'est vrai, il faut faire attention notamment au fait que l'information ne demeure pas unilaterale, elle se regarde des deux cotes du decor pour en comprendre toute la consistance. Google est un systeme extremement complexe surement le plus complexe des systemes de referecement sur internet de nos jours, les progres scientifiques que Google a mis a la disposition du grand public sont tout autant riches qu'ils ne desinforment la masse du fait de la mauvaise pertinence des utilisateurs qui lisent et traitent une information, je pense cela dit qu'avec de l'attention personelle sur la recherche d'information, Google se revele un outil extremement puissant, qui met a disposition 'du plus grand nombre' de l'information GRATUITEMENT. Ainsi comme le dit bien l'addage si c'est gratuit, c'est toi le produit. La question est tres complexe et sujette a opinion malheuresement, encore une fois demande toi si les benefices apportes par Google a l'echelle humaine ne sont-ils pas 'souhaitable' ? Les points negatifs ne sont-ils finalement pas negligeable ? Et enfin penses tu que si Google arretait demain, cette industrie s'arreterai ? Bien pour conclure je dirai que Google n'est pas responsable du fait que l'IA devient proheminente et fera probablement son chemin avec l'humain jusqu'a l'exctinction de ce dernier, Google n'a de projet que des idees humaines, l'informatique nous apporte bien plus de choses que nous ne devrions theoriquement pas pouvoir faire. Les GAFAM et autres grosses puissances du net, ne font que realiser les projets qui entrent dans le cours des evenements d'une autre maniere (grace a des decisions humaines), ainsi l'IA reste une invention humaine, qui comme pour les voitures lorsqu'elles ont ete theorisees sont devenus rapidement un element du quotidient. Les inventions humaines se nourissent des evenements qui nous entourent, elles ont un gain et un cout differenet dans chqaue contexte, a toi d'en tirer le meilleur :) Desole je n'ai mis aucun accent le qwerty est rebuttant pour ca ! ( Je precise que je suis dans le domaine de l'informatique, ainsi mon opinion n'engage evidemment que moi et elle ne saurai etre exacte surtout dans le context de ce commentaire bourre de fautes d'orthographe et de frappes) ! Bien a vous deux & @Science4Allfrançais qui fait, cela dit un travail tres pertinent dans beaucoup de ces videos, je tiens a le souligner, un avis dissonant est le premier pas pour etre un bon scientifique ! (d'ailleurs je suis abonne hihi) PS : Merci pour la lecture je n;ai pas fait tres clair haha mais l'info merite d'etre desobscurcit selon moi ! ^^ PS2 : 'Les marchands de doute' -> excellent livre !
@paulbarbera94332 жыл бұрын
@@0dim100 Je te rejoins sur pas mal de points. Cependant, Castor dit que cette vidéo nous pousse à le croire sur parole. Non, il propose différentes sources qui le rejoignent sur ces points. Je dis simplement qu'il faut se renseigner plus loin que ses dires. Lire plus de données et non pas le croire sur parole.
@miyamotomasao36362 жыл бұрын
Google c'est la CIA. Le but réel après la phase de séduction empreinte de liberté est maintenant on ne peut plus clair : la surveillance généralisée de tous à tout moment, la désinformation, et in fine la manipulation.
@samgaillard16952 жыл бұрын
le droit de réponse existe toujours sur KZbin en utilisant les commentaires et en créant une vidéo qui fournit des contre-arguments
@damstazbxl2 жыл бұрын
« si on valorise vraiment la sécurité des milliards d’humains sur la planète il faut urgemment sacrifier la performance » doctrine qu’il serait bon d’appliquer dans tellement d’autres domaines: la gestion de notre écosystème et de nos resources en premier lieu… Merci à toi pour ton travail 🙏🏼
@etiennelemieux4722 жыл бұрын
C'est passionnant, pour une fois j'ai regretté que ça soit pas en live pour en discuter pendant ou après, tellement il y aurait de choses à en dire ou à demander.
@aymerichm8835 Жыл бұрын
Le script de la vidéo est disponible en description :) Évidemment c'est moins pratique qu'un livre, mais au moins ça permet de facilement retrouver tel ou tel détail via la fonction "Rechercher dans le document"
@mrjay422 жыл бұрын
Question: Pourquoi ne pas réorienter vos papiers pour les publier dans des conférences/journaux traitant de la sécurité? Du coup, vous auriez à faire à des relecteur.ice.s dont la qualification ET le focus seraient porté.e.s sur la sécurité et non sur le machine learning.
@karelknightmare67122 жыл бұрын
Le système de chasseur de primes / bounty hunter pourrait s'appliquer dans votre idée. Tout comme une entreprise propose des primes pour trouver des failles de sécurité dans leurs réseaux informatiques ; on pourrait imaginer les grands médias proposant des primes de véracité / fact checking. Les hackers seraient une grande aide pour débunker des réseaux de faux comptes, pour trouver des méthodes inédites de filtrer des éléments désinformants dans des vidéos.
@leoleon75372 жыл бұрын
J'imagine que le but n'est pas seulement de réussir à ce que la publi soit acceptée dans un journal X mais qu'elle ait un impact et de la visibilité, étant donné les enjeux et l'engagement de Lê et de ses pairs. D'où l'idée de viser les conférences a plus d'impact dans le domaine. Mais votre proposition est tout de même défendable car des fois il vaut mieux attaquer les obstacles par le flanc.
@Benoit-Pierre2 жыл бұрын
@@karelknightmare6712 je sais plus sur quelle chaîne KZbin j avais vu une interview d une américaine qui fait de la recherche d erreur de méthode dans les publications de sa spécialité. elle n analyse pas le contenu. que la méthode. et elle se limite à sa spécialité, un truc de pointe en biologie. et elle remonte les anomalies aux organismes qui font la publication. moins de la moitié de ses remontées sont écoutées. Et les retraits d articles sont fait plus d'un an après la remontée, quand l article a déjà été diffusé en masse, et que son auteur a pu utiliser les bénéfices liés aux points de publication.
@TheKhyel2 жыл бұрын
J’ai peur de l’avenir,mais j’ai aussi de l’espoir grace a toi :) Merci pour l’information et pour l’action !
@kevinyaya2 жыл бұрын
Cette vidéo devrait avoir des millions de vues.... Merci de nous informer de la sorte.
@lolaa22002 жыл бұрын
Je pense que tu a soulevé un problème important : les reviewers sont cherry picked c'est un fait. A mon sens tant que ce sera le cas on ne peut pas parler de peer review. Le symptôme de ça c'est la formation de fait de communautés de recherche étanches. En pratique on publie dans les conf/revue d'une communauté donnée, et cette communauté vas valider la conformité de ce qu'on cherche a publier par rapport a la vision commune de cette communauté. Le cas dont tu parle en est un très bon exemple, si la communauté considère que la dimension éthique n'est pas un problème alors on refusera de publier des travaux qui traite de cette problématique. Les reviewer sont tiré dans un panel de personne coopté par la communauté pour leur grande conformité avec la vision globale de la communauté. On a des des conférence entière remplis de papier qui enfoncent des portes ouvertes en ajoutant trois détailles pour justifier une pseudo "originalité". A coté un chercheur qui explore d'autres pistes (qui fait un travaille de chercheur en gros) vas avoir beaucoup de mal a publier.
@fofolofofo2 жыл бұрын
Ce phénomène est-il inévitable ? J'ai tenté de faire publier des papiers novateurs transdisciplinaires, il y a plus d'une dizaine d'années. Un reviewer n'a pas compris le sujet, l'autre a clairement dit que ce n’était pas de sa compétence. Les gens jugent avec ce qu'ils connaissent. Il a fallu présenter notre théorie par domaine, altérant grandement l’intérêt transdisciplinaires (et là, la communauté a accepté de valider)...
@GreyPunkWolf Жыл бұрын
@@fofolofofo C'est le gros problème de la recherche... Vous êtes censés être des scientifiques, pas des commerciaux qui doivent pitcher un projet à des investisseurs américains... Et pourtant, au vu des témoignages dans votre genre et ceux de mes proches qui sont/étaient dans le domaine, la comparaison est douloureusement réaliste. Force et courage, et respect.
@Dheinamar2 жыл бұрын
Mais comment est-il possible que ces employés de Google peuvent participer à ces travaux? Ne devraient-ils pas déclarer le conflit d’intérêts?
@greenLimeila9 ай бұрын
Déclarer un conflit d'intérêt n'empêche pas de publier
@onlineactivityvideo2 жыл бұрын
Bravo et bon courage. Se battre contre des drogués de la data est pas loin de la mission impossible mais vous êtes incroyablement droit et incorruptible. Cette vidéo explique bien des choses . Merci !
@elimera232 жыл бұрын
Je mets un commentaire pour le référencement. Je tenais aussi à souhaiter à tes travaux une reconnaissance digne de leur importance. Ça ne doit pas être facile tous les jours
@lowgn92512 жыл бұрын
Excellente vidéo !! Un peu effrayante au final 😬 Les moyens investis dans la désinformation sont tels qu'il est difficile d'y faire face, surtout dans un milieu un peu hermétique au profane (il est plus facile d'expliquer pourquoi la cigarette tue que d'expliquer les dangers décrits dans cette vidéo) Et surtout continue !!!!
@JC-id5ce2 жыл бұрын
Question à propos de Tournesol : Que se passe-t-il si par exemple une large communauté de platistes se met à recommander des vidéos expliquant que la Terre est plate ?
@perpetualmotionsb2 жыл бұрын
C'est passionnant, merci pour ton travail d'une très grande qualité
@leovedrine91022 жыл бұрын
Merci beaucoup, très intéressant et compréhensible, même pour le néophyte que je suis!
@Mangayoh2 жыл бұрын
Merci pour tout ce que tu fais !
@pierrestempin1002 жыл бұрын
Ne faudrait-il pas aussi réduire l'importance des algos de recommandation par la législation en obligeant les plateformes qui en utilisent à pouvoir laisser à l'utilisateur la possibilité de désactiver ou réactiver les recommandations à tout moment, et même rendre les recommandations désactivées par défaut ? (Un peu comme les cookies qu'on peut activer ou non depuis le RPGD)
@danielplatteau51372 жыл бұрын
Si Google manipule à ce point les publications scientifiques, c'est effectivement très grave
@rootbuild20282 жыл бұрын
Pas vraiment, c'est attendue avec la montée du libéralisme...la plupart des acteurs de la communauté scientifique cherchant l'argent et la maximisation du nombre de publications au lieu de faire de la science. Je cite ici De Gaulle
@fabienschaetzel70272 жыл бұрын
@@rootbuild2028 je ne comprends pas le "pas vraiment", de ce que vous dites (avec quoi je ne suis pas en désaccord), on peut conclure que c'est pas vraiment surprenant, mais pas que c'est pas vraiment grave.
@thibaultjoan82682 жыл бұрын
@@rootbuild2028 Je pense que votre analyse est fortement biaisée par une méconnaissance du domaine, si les chercheurs voulaient de l'argent ils iraient dans le privé. À la limite le problème des chercheurs c'est de vouloir un poste (quelle idée de vouloir payé son loyé en même temps) et potentiellement un besoin de reconnaissance, à la fois personnel et de leurs travaux. Le problème c'est que les institutions politiques (française et européenne) sont orientent de plus en plus les financement vers des sujet "appliqués", hors les chercheurs ont besoin de financements (pour acheter du matériel, et payer du personnel : ingénieurs, doctorant, etc.) et finissent donc pas céder aux pressions. À défaut de céder personnellement, ceux qui cèdent vont avoir plus de moyens, donc faire plus de recherche, être mieux évalué, et, in fine, les seconds auront un poste au détriments des premiers. Pour finir, je pense que vous utilisez à tort la citation de Charles De Gaulle, qui avait pris la parole ce jour là pour justifier le fait qu'il fallait investir davantage dans la recherche pour ne pas accroître notre dépendance technologique notamment aux USA.
@ordissime2 жыл бұрын
Excellente vidéo comme toujours, ce serai vraiment cool que Lê fasse la promotion de Tournesol sur des médias grands publiques mais pour ça c'est à nous de faire du lobbying.
@yannickwindels25732 жыл бұрын
Merci beaucoup pour ce travail (énorme) et pour sa diffusion. Il faudrait vous adjoindre un vulgarisateur (c'est un peu costaud pour moi par exemple mais je me suis accroché vu l'importance du sujet) pour multiplier le nombre de personnes informées de cette dangereuse dérive.
@aymerichm8835 Жыл бұрын
Oui ce serait vraiment bien d'en sortir des versions courtes synthétiques par exemple, ce serait plus facile à partager auprès de gens qui ne connaissent pas la chaîne et/ou n'ont pas le temps et/ou la motivation nécessaires...
@FouadB-hs1ho Жыл бұрын
Au sujet de l'article "Learning product rankings from fake users", moins d'un an après la sortie de cette vidéo, le nom de citations a presque doublé (passant de 14 à 26, ça fait +12 en 10 mois). Cela dit, il y a de l'espoir puisque l'excellent article "Collaborative learning in the jungle" en est à 22 citations (soit + 14 !). Continuez votre formidable travail !
@bazarmaroc2 жыл бұрын
Je suivais avec bonne volonté ... jusqu'à "génocide à Myanmar ou en Ukraine" "Génocide en Ukraine" ? Plus personne ne chie plus la honte sur Internet ! Adieu
@soljin10102 жыл бұрын
Pour avoir bossé en recherche académique et dans l'industrie, il est évident que les deux ont des biais. Pour caricaturer, la première cherche à promouvoir des articles à sensation tandis que la seconde va tenter de publier de la science qui les arrange (pour développer ou défendre des produits). Dans les deux cas, les articles doivent rapporter de l'argent sous une forme (subventions, primes, progrès de carrière) ou une autre (vente de produits) à ceux qui les publient. Perso, ce que je comprends de cette situation, c'est que débunker la désinformation de Google, ça ne rapporte pas d'argent et ce ne sera financé par personne, tandis que pour les chercheurs académiques, les promouvoir, c'est trouver des subventions à gogo. En plus de cela, il est aussi possible que les articles de Google soient reviewés entre copains. ça arrive assez souvent dans les domaines pointus.
@ismailsalah11292 жыл бұрын
Bonjour, J'ai une question svp ; est ce qu'un Algorithme d'IA peut il transferer son "savoir" à un autre algorithme ? Merci .
@FlorianDufour2 жыл бұрын
Bravo pour ton travail ! Je suis ingénieur en machine learning (j'espère bientôt docteur dans le domaine de la computer vision). Je ne connaissais pas ces problématiques et je trouve ça passionnant. J'ai commencé à constituer ma bibliographie sur le sujet grâce à ta vidéo. Je te remercie sincèrement. Une fois que je me serais un plus imprégné de la question. Je prévois de communiquer sur ces questions dans mon entreprise.
@aymerichm8835 Жыл бұрын
Oui ! Communiquez autant que vous le pouvez ! Vous avez là une grande (et belle) responsabilité. Merci d'avance :)
@felixbertoni2 жыл бұрын
Mais du coup, si le peer review est défaillante en IA, est-ce qu'on pourrait pas juste utiliser des IA pour le peer review ? J'ai vu dans un papier peer-reviewed qu'elles étaient sécurisées... Euh, attendez une minute !
@ludov85762 жыл бұрын
Je partage aussi. Voir un chercheur parler comme ça donne de l'espoir en l'avenir.
@GoelWCS2 жыл бұрын
Perso, je pense que Google incite ses employés à utiliser des titres positifs pour favoriser leur ranking, en effect depuis 2-3 ans, pour lutter contre le harcellement sur les résaux sociaux, Google et FB semblent mettre plus en avant les contenus positifs. Il sont en général plus constructifs (en général les critiques négatives sont peu constructrices) et conduisent à plus de rétention du lecteur (un lecteur lisant un article négatif va soit fermer son navigateur soit se lancer dans d'autres recherches et quitter la page, faisant diminuer son ranking). cette vidéo montre que cela a aussi des effets pervers !
@Antiliae2 жыл бұрын
Je suis dans le domaine (NLP/SP) et c'est vrai que j'avais complétement sous-estimé cela. Je me souviens de la présentation à ICASSP19 de la VP recherche de Google qui présentait les travaux mais je n'avais pas pensé à l'aspect sécurité. De mémoire, ils faisaient la moyenne des gradients de tous les utilisateurs pour l'apprentissage et ne considéraient pas le gradient individuel de chaque utilisateur. C'est possible de capturer des informations personnelles en prenant la moyenne du gradient de tous les utilisateurs quand même ?
@Arkonis12 жыл бұрын
je ne crois pas non, de plus dans le federated learning il y a une couche de chiffrement
@warny19782 жыл бұрын
Je ne suis pas un spécialiste de la question, de loin, donc je vais répondre par une autre question : est-ce que la puissance de compression des algorithme d'IA ne permet pas de retrouver ces informations de base ? Un truc que je fais parfois pour m'amuser à partir de résultats scientifiques ou de résultats de sondages, lorsque le nombre d'informations à déterminer est équivalente au nombre d'informations en entrée (par exemple adresse, age, points d'intérêts) pour chaque point d'entrée (par exemple des personnes), il est possible de déterminer la répartition de chacun de ces derniers assez précisément dans les catégories d'informations en entrées. Ce qui m'amène à penser que, et si j'ai bien compris la problématique, comme ce qu'on demande à une IA est typiquement du calcul inverse très poussé, on pourrait aller beaucoup plus loin : avec les informations qui permettraient d'isoler une personne, on pourrait retrouver le reste de ses informations.
@karelknightmare67122 жыл бұрын
Question bête sur les publications. Ne devraient-elles pas intégrer un schéma algorithmique standard pour « résumer » le sujet la méthode et la conclusion? Personne n’a matériellement le temps de lire toutes les publications. En fait la structure même des publications semble obsolète non? La rédaction à l’ancienne est sans doute un moyen de communication très peu efficace. Un arbre logique standardisé pourrait permettre de mieux traiter l’immense quantité de données des publications et sans doute permettre de questionner de manière structurée des arguments, voire de débusquer rapidement des erreurs d’interprétation ou des défauts méthodologiques.
@elrhim77672 жыл бұрын
Je vais être cruel mais, si vous souhaitez faire de la science et non pas de la religion, vous ne couperez pas à lire les études. 🙂
@karelknightmare67122 жыл бұрын
@@elrhim7767 Merci, je ne vous crois pas cruel du tout. Je ne parle pas de ne pas lire des publis. Mais d'intégrer un schéma algorithmique standard qui résume le cheminement et le résultat de l'étude pour faciliter l'exploration, la comparaison, les méta-analyses etc. Ce schéma serait une forme plus efficiente et poussée du classique IMRED. Personne ne peut humainement lire chaque jour et intégrer , dans le détail ne serait-ce qu'une dizaine de publications de dizaines de pages parfois rédigées de manière plus ou moins claire. Et ce sans compter sur le travail à coté, recherche, enseignement, quête de financement etc. Sans ironie de ma part, je pense que votre réponse illustre parfaitement le problème.
@pierrestempin1002 жыл бұрын
@@karelknightmare6712 Je plussoie, un bon schéma vaut mieux que 1000 discours.
@hlb45902 жыл бұрын
Lê explique qu'un détail crucial de vache au détour d'une virgule au fin fond d'un article et vous pensez qu'un résumé suis une nouvelle forme va remedier au problème ?! De plus, les articles scientifiques sont très variés et leur intérêt ne se ramène pas toujours à une méthode schématique. Et au delà de lire et sélectionner les études, il faut aussi les reproduire et tester leurs limites
@karelknightmare67122 жыл бұрын
@@pierrestempin100 merci. Surtout que là on aurait les deux. ;)
@samp.8975 Жыл бұрын
pourquoi ne pas écrire une lettre au président qui, de mémoire avait déjà identifié ces enjeux stratégiques, pour une échelle européenne ? des financement à la clé ?
@aymerichm8835 Жыл бұрын
Je suis impressionné par ta capacité monumentale de travail (recherche, synthèse, vulgarisation, production des vidéos) ! Je m'en vais binge-watcher ta chaîne et la recommander à autant de personnes que possible !
@jemladata7232 жыл бұрын
Merci de nous parler de ce sujet. Je doute de plus en plus de l'efficacité de la revue par les pairs. La majorité des doctorants et des jeunes chercheurs se voient refuser des articles par des reviewers méprisants avec des critiques aussi pertinente que "on sait déjà", "inutile", "ce chapitre est trivial", ou simplement par idéologie opposée. Je connais même personnellement des chercheurs reconnus qui hésitent à publier des travaux remettant en cause les théories obsolètes des rockstars du domaine car ça peut être néfaste pour leurs carrières.
@viceconsulimhotepienenobed15732 жыл бұрын
C'est devenu un problème en effet
@fablehaven54132 жыл бұрын
Comment peut-on avoir acte a vos article cités dans la vidéo?
@jean-baptistelasselle45622 жыл бұрын
Pour compléter mes commentaires : je suis entièrement d'accord avec vous, pour dire que le problème gravissime, est avant tout la manière dont les chercheurs ont si massivement accepté ces informations sans preuve reproductible, et même pire en invoquant ces mêmes affirmations de Google, pour rejeter vos objectifs que je partage à 100% Ce qui laisse clairement apparaître un problème massif de corruption des chercheurs, rémunérés sur les impôts payés par le citoyen. Cela est d'une gravité extrême, gigantesque. J'ai démontré par l'absurde que ces techniques particulières dont vous parlez (federated machine learning) n'augmentent pas le risque pour le citoyen : parce que pour que vous puissiez l'affirmer, il faudrait que vous puissiez démontrer qu'aucune autre technique n'existe , permettant la captation de ces mêmes informations (génome, adresses etc). Aussi le risque extrêmement grave réside selon moi dans la corruption de masse des chercheurs. Ceci étant, là où je pense démontrer que vous avez tord sur des points très importants, je trouve extrêmement intéressant les idées que vous développez et les révélations que vous faites sur votre expérience personnelle de reviewer
@Lolo-nh7rj2 жыл бұрын
Bonjour, très intéressant merci pour le travail ! Comme pour le réchauffement climatique ou les pesticides (cause clairement identifiée de l'effondrement de la biodiversité, mais où l'agrotech arrive à faire planer le doute), encore un domaine où l'appât du gain nous emmène droit dans le mur... Ce n'est pas du tout mon domaine, et pas totalement en rapport avec la vidéo, mais je me demandais si des systèmes de coffre forts de données personnelles ne seraient pas plus éthiques (et securisables ?) que le système actuel? Chacun ayant le droit de laisser ou pas l'accès ou de le supprimer à tout moment à des tiers (algorithmes etc), et qui permettraient à chacun de savoir qui utilise ses données, qui les vend à qui, éventuellement d'être rémunéré pour laisser accès à telle ou telle donnée? Et dans ce cas les clients n'auraient pas le droit de mémoriser ces données (je sais, c'est probablement un peu naïf comme question...) J'ai l'impression que le système actuel est un far west, on ne sait pas qui possède nos données personnelles, comment il les récupère, qui les vend à qui....
@karelknightmare67122 жыл бұрын
Y a-t-il des déclarations de conflit d’intérêt en informatique? Un référencement systématiquement séparé des sources conflictuelles serait utile je pense. Je ne sais pas si une réglementation publique est nécessaire sur le sujet.
@pierrotA2 жыл бұрын
Merci pour cette video tres interessante et pour votre travail en general. J'ai pris la mauvaise habitude (comme beaucoups je pense) de commenter majoritairement pour debattre ou evoquer un desaccord. Cette fois-ci, je dirais juste: *merci et bravo.*
@rayerdyne2 жыл бұрын
20:57 Oh my Je suis étudiant en IA etc., même moi (càd pas un expert), pense pouvoir vous expliquer pourquoi si, communiquer le gradient peut totalement transmettre les données, alors allons-y. Imaginons un système très simple: on cherche à connaître la proportion de la lettre 'L' dans les écrits d'un utilisateur. Du coup, il n'est pas acceptable de communiquer au système centralisé la proportion. Par contre, on peut communiquer le gradient. Mais c'est quoiii le gradient ? Pour faire simple, il donne la direction et la distance que les paramètres du modèle doivent prendre. Grosso-modo, ici il s'agirit de la différence entre: - la proportion de L observée chez notre utilisateur (disons p_observé), et - la valeur que le modèle essayant de l'estimer avait a priori (disons p_modèle) Donc... Bah oui Monsieur si on a l'information du gradient (soit p_observé - p_modèle) on peut stocker les données: il faut juste faire p_modèle + (p_observé - p_modèle) = p_observé = donnée potentiellement sensible. Évidemment cela ne reste pas si simple, on joue avec plein de paramètres ayant une signification plus abstraite ici. Mais au final, le gradient donnera toujours la direction que l'on prend. Si je vous donne systématiquement ma direction, vous finirez par savoir où je suis (en faisant une hypothèse sur la position de départ, plus en confirmant en regardant le paysage, car il y a des positions insensées). Je pense que ces pauvres gens ont peur de se mouiller en s'opposant à ce que tant de monde à déjà validé. RIP
@gregoirepelegrin19662 жыл бұрын
As-tu des ressources pour approfondir le sujet de la sécurité des IA en général ? Et pour quels pré-requis ?
@pierrelegrand47352 жыл бұрын
Merci infiniment pour ce boulot de malade...!
@matthismanthe76452 жыл бұрын
Super vidéo et super papiers de débunk sur un sujet plus qu'important. TL,DR : Je pense que le fédéré en médical est bien plus justifié que ce que tu décris dans la vidéo, mais suis d'accord avec l'idée général que l'engouement pour le fédéré à ses débuts était bien trop prématuré. Doctorant sur le développement de l'apprentissage fédéré en neuroimagerie (laboratoire publique), je dois dire que je suis à moitié d'accord avec ton analyse pour ce domaine. On est bien d'accord que l'apprentissage fédéré en tant que tel n'est rien d'un graal en terme de privacy et a de lourdes failles. Parcontre, l'usage qui en est fait en médical n'a (à mon sens) rien à voir avec l'usage fait par des boites de tech sur des tâches telles que l'autocompletion. Des exemples d'utilisations pour apprendre des modèles sur des données pour lesquels ils n'ont pas vraiment de droits, et dans ce setup les attaques venant à la fois du serveur et des utilisateurs malveillants peuvent être dramatiques ET inconnues/impunies. Dans le cadre du domaine médical, ces entraînements sont fait en laboratoire, pour l'instant sur des données déjà publiques ou avec des accords spécifiques avec des CHU (donc très loin des larges applications de Google, ici au maximum quelques dizaines d'institutions participantes) et en vase clôt : les modèles finaux ne sont accessibles à personne. Le serveur utilisé n'est clairement pas un serveur de Google, et si une attaque venant d'un hôpital participant à l'apprentissage est vérifiée, les conséquences pour lui sont graves : assez peu d'intérêt d'être malveillant. Le simple fait de ne pas avoir à bouger les données des hôpitaux vers un centre de donnée externe est déjà un avantage massif, demandant des efforts pour attaquer ces entraînements que l'immense majorité des participants à ce genre d'entrainement (CHU et laboratoires) ne peuvent se permettre. On est d'accord toutefois que ça n'est pas une fin en soi et que les failles persistent, d'où l'entraînement sur des données publiques pour d'une part justifier la performance de ce type d'entraînement sur des données très complexes et hétérogènes, et d'autre part permettre l'avancée des méthodes de sécurité type DP, SMPC ou HE avant des mises en place concrètes. Je pense personnellement que le développement de ce genre de méthodes avec les précautions que je viens d'évoquer sont plutôt encourageantes, allant vers une vrai idée d'apprentissage sécurisé (et pas de modèle sécurisé on est d'accord, mais c'est déjà un pas en avant). Il faut d'ailleurs savoir que la plus grosse barrière à l'évolution du machine learning en médical est la faible quantité de données accessibles pour les laboratoires, (on parle d'entrainement de modèles sur des dizaines/centaines de volumes au maximum dans la littérature), d'où l'intérêt pour ce genre de "solution". Au final, je suis d'accord avec le fait que Google à l'air de pousser des papiers promouvant des technologies incluant un serveur qui a accès à tout (bizarre), par rapport à des algorithmes de gossip complétement décentralisés, pour les mettre en application très rapidement à large échelle. De même, beaucoup d'abstracts et de conclusions des papiers sur le domaine (mais en IA globalement) tendent vers le sensationnel avec de moins en moins de nuances. De plus je ne peux me considérer comme un spécialiste des notions de privacy, clairement moins que toi, il est possible que je me trompe (c'est le problème avec la recherche ...). Je pense toutefois que la rigueur de sécurité absolue demandée en théorie est à mettre en relief avec les besoins de chaque application (la réalité des attaques possibles, la puissance des attaquants, donc quel niveau de sécurité est suffisant en pratique). Dans ce sens, l'apprentissage décentralisé (et pas que fédéré) me semble vraiment être un pas en avant, qui ne demande qu'à être compris et développé avant des applications concrètes. Mais finalement je ne pense pas que faire des amalgames aussi forts sur le domaine de l'IA et ses applications soit la bonne direction.
@Arthurcoco332 жыл бұрын
bonjour, référencement merci
@tbouvier2 жыл бұрын
Merci Lê, je relais aux collègues !
@jarran292 жыл бұрын
Même si le propos semble sensé et raisonnable, c'est compliqué de remettre en cause le système scientifique ainsi... Car au final, cette vidéo déclenche des émotions, et on ne juge pas sur cette base. Et comme le sujet est ultra-technique, on ne peut pas juger du fond et on doit faire faire confiance... Je suis donc tiraillé entre ma misanthropie, ma colère et ma prudence... :/
@qzqaze96422 жыл бұрын
Le monde s'en fout complètement de la vie privée, cela n'a aucune importance la vie privée. Au vu de la médiocrité du monde et des informations qu'ils laissent, Sans confiance, on ne fait rien dans la vie, dixit Bernard Chazelle (voir cours collège de France) Comprendre est plus important que le Savoir. À l'image de l'épitaphe de la tombe de Boltzmann, "nous devrons savoir et nous saurons" sur laquelle Bernard Chazelle rajoute "Et, nous ne saurons pas pourquoi." Combien d'ingénieurs chez Google ont des résultats espérés sans comprendre le pourquoi. Je me trompe peut-être Lê, mais tu me donnes l'impression de débarquer sur un nouveau continent, Benjamin Bayard en a déjà parlé... Il y a une éternité... Google vend des yeux... Un regard sur vous... PRIVACY, BEING APPART FROM COMPAGNY OR OBSERVATION... YES WHAT KIND OF PRIVACY.............."TOURNESOL" NO................................ AND NEVER.........................NO Privacy Trop d'informations ont déjà été cartographiées sur l'utilisateur. Je me trompe peut-être, mais Protégé les sociétés humaines contre les fléaux de la désinformation, du harcèlement et de la haine. Une belle utopie. À moins que les sentiments et les émotions qui font de nous des êtres humains soient remplacés par une puce... Prédiction sur ton prochain livre : une bière suisse que la couverture contiendra le mot Privacy... Ton premier livre aurait du être "La Formule du comprendre" non du savoir... Lê, t'a besoin de prendre de la bouteille... Ou une bière... L'arbre de La Science est jonché de racines mortes, qui que tu le veuilles ou non, font partie de l'histoire de l'humanité. Comme... Mea-culpa de leur quête existentiel...
@pierre-louisvallee73262 жыл бұрын
Fais gaffe, y en a qui sont mort d'un accident de moto pour moins que ça.
@divalarose2 жыл бұрын
Trop grave 🤔😡👍
@charlesenglebert82262 жыл бұрын
énorme travail, merci Lê
@oryjen2 жыл бұрын
Excellente analyse! C'est incroyable d'avoir déjà dénoué ces saletés à votre âge. En creusant cette affaire, on constate avec consternation mais sans surprise que la science dans sa totalité, de la cosmologie à la recherche médicale, fonctionne désormais sur ce principe. D'ailleurs l'UE est en ce moment même occupée à étudier des textes visant à inféoder la diffusion des connaissances scientifiques à des officines de presse globale, ce qui grosso modo rendra à terme sans objet le métier de journaliste scientifique (on s'en ira piocher la vérité scientifique agréée dans des agences contrôlées par des puissances politico-financières), et à criminaliser la diffusion de matières scientifiques de toute autre provenance comme "fake news". Tout est faux. Tout est biaisé. Tout est instrumentalisé par la marchandisation globale de la vie des gens. Nous sommes en 1984. J'en suis à l'heure des bilans compte tenu de mon âge, mais quant à vous et à vos jeunes collègues, je vous souhaite BEAUCOUP DE COURAGE.
@ilpersiflaitaloneilledesze34622 жыл бұрын
Bonjour, comment expliques-tu que dès que les débats touchent à l'agriculture ou à la médecine, les chefs de file de la "zététique" 2.0 volent systématiquement au secours des intérêts des cartels agrochimique et pharmaceutique, tout en attaquant non moins systématiquement produits et méthodes ne rapportant rien à ces cartels? Et ce, en dissimulant ou travestissant les faits, et les données des sciences, qu'ils prétendent vulgariser
@leonardlerenard2965 Жыл бұрын
tu peux me trouver a quel moment les dhefs de files volent a la defenses des entreprise weleda , ou sinon , boiron ? merci. je crois que celuis qui travestis les données c'est toi ^^
@tchize2 жыл бұрын
Pour le clavier opensource sous Android, malheureusement, dès qu'on l'installe, les applis bancaires se bloquent. Ce n'est donc pas une solution.
@athom-gamer2 жыл бұрын
😶🌫Bien vu ! J'apprécie ta prise de position ! ☝👍
@hugol91832 жыл бұрын
Merci pour cette vidéo ! Tournesol existe aussi pour les applications KZbin sur smartphone ? Je l’ai mise sur l’ordi mais je n y suis pas souvent
@leodarkk2 жыл бұрын
Où est-ce que tu vois que l'algorithme vers 31:00 ne fonctionne que si le nombre de faux utilisateurs est en log du nombre de vrai ? Dans ce que tu soulignes ils disent juste que le regret croit linéairement en nombre de faux comptes et logarithmiquement en nombre de vrai compte. Donc oui le O(log(T)+F) peut sembler un peu absurde car F sera toujours supérieur à log(T), mais c'est tout, non ? Que leur algorithme soit nul d'accord, mais qu'il ne fonctionne que si F est égal à log(T), pas tout à fait, si ? Je peux me tromper, vraiment. En tous cas oui, si F est de l'ordre de T, ce qui est, comme tu le soulignes, le cas dans la vrai vie alors leur algorithme sert à rien, c'est pas faux.
@ten84682 жыл бұрын
IIUC ça se lit: pour que le regret ne dépende pas quasi exclusivement des faux comptes, il faut que log(T) soit de l'ordre de F, donc que T (le nombre de vrais utilisateurs) soit de l'ordre de exp(F) (où F est le nombre de faux utilisateurs). Ainsi, un nombre de faux utilisateurs logarithmiquement plus faible que le nombre de vrais utilisateurs parviendra à influencer le résultat de l'algorithme de manière ~égale au reste des utilisateurs. Un nombre de faux utilisateurs à peine plus grand écrasera les informations produites par les vrais utilisateurs.
@rogermachin1046 Жыл бұрын
C'est complétement dingue ! Je pensais vivre dans un monde de fous mais j'étais en deça de la réalité .. cachant que plusd e 90 % de la population est iganre de ces sujets et ne veut même pas savoir, nous sommes mal barrés
@fug_momo37292 жыл бұрын
Il y a donc eu une conspiration...que les conspis n'ont pas remarqué...Aïe, dommage...
@elrhim77672 жыл бұрын
Ca regarde la TEB et ça se croit spirituel.
@fug_momo37292 жыл бұрын
@@elrhim7767 ça juge quelqu'un par ses abonnements KZbin... Ce que j'insinue c'est que les chercheurs de vérité ne regardent jamais au bon endroit. Je sais qu'être zététicien en 2022 c'est mal vu, ce que je ne suis pas par manque de patience. Tant qu'on est dans le procès d'intention, peut-être que la TEB vous dérange car ils bouleversent certaines de vos croyances...comme la légitimité d'I.Abderkane par exemple...
@fug_momo37292 жыл бұрын
C'est bien ce que je disais, on est dans les purs préjugés. Je n'irai pas plus loin avec vous car je le répète je n'ai pas la patience.
@elrhim77672 жыл бұрын
@@fug_momo3729 La méthode vous fait autant défaut que la patience.
@nimbleroach47822 жыл бұрын
Beau boulot. Merci pour cette réflexion.
@flaviocortes18212 жыл бұрын
Merci pour cet épisode. Je me permets d'ajouter, concernant les articles, qu'il me semble difficile pour les citoyens n'ayant pas à faire à ceux-ci de ne pas se focaluser sur le titre et la conclusion, mais bien à l'analyse. Comme cela paraît difficile, je propose le message qu'une "grande découverte demande de grandes preuves". Quant à ces fameuses preuves, les articles, je pense qu'il faudrait que tout un chacun tape initialement sur un navigateur "pyramide preuve scientifique" afin de donner une idée aux citoyens n'ayant pas à faire avec l'épidémiologie, de la notion que "l'on doit avoir plus confiance en certaines publications (source d'information) qu'en d'autres." Peut-être pourriez-vous faire une vidéo sur le sujet?
@Anto57Orton2 жыл бұрын
Justement non. Enfin je veux dire il faut douter de toutes les informations et les analyser. Surtout si la source est médiatisé ou si elle est encensé par l'état
@GuillaumeFond2 жыл бұрын
Msg d'un collègue travaillant sur l'IA: Merci pour le lien, je suis abonné à sa chaine mais ne regarde pas toutes ses vidéos. Il est brillant, il connait très bien son sujet et je n'ai aucun doute sur les mensonges des GAFAM et autres grandes firmes sur l'utilisation des données. Mais je le trouve trop alarmiste et j'ai du mal à comprendre le ciblage exclusif de google (alors qu'il utilise massivement youtube). Personnellement, je considère que tout ce qui transite sur le réseau est dans l'espace public, y compris les mails qui sont souvent transférés à l'insu de l'émetteur. J’accepte toujours tous les cookies et donne pleins d'autorisations à mon téléphone (android) pour découvrir ce qu'il peut faire et que j'ignore. C'est parfois très surprenant !!! Le sujet ne m'inquiète pas plus que ça (peut être à tort). L'IA est un super outil qui peut vraiment révolutionner plein de domaines: santé, transport, énergie, etc . J'ai trouvé le rapport Villani très bien fait. Mon inquiétude porte plutôt sur la prolifération des armes de destruction massive et la stupidité humaine qui les contrôle ;-)
@le_science4all2 жыл бұрын
Merci du partage ! C'est en effet une attitude très répandue chez les chercheurs du domaine, avec une vision assez individualiste des problèmes de privacy (même si, pour me répéter, la privacy n'est pas du tout ma préoccupation première...) et une attention restreinte aux aspects bénéfiques. (pour le coup, la "stupidité humaine" m'inquiète énormément aussi, et le problème est justement que les algorithmes de recommandation hijackés la renforce largement...)
@TheCatbutcher2 жыл бұрын
La ressemblance (toute proportion gardée) entre Giordano Bruno et Timnit Gebru est frappante, surtout à une ère où le dogmatisme religieux est pointé du doigt alors que les entreprises qui portent un message de progrès et d'illumination de l'homme se comportent exactement de la même manière que l'Église a l'époque. La science est instrumentalisée de même que la religion. Il est aussi frappant de voir que nous avons également une part de responsabilité. Tu mentionnes Don't Look Up dans ta vidéo et c'est exactement cela : nous ne voulons pas regarder ce qui est évident. Nous ne nous préoccupons que de notre propre quotidien sans faire attention à ce qui dérive (les récits de fin du monde ne datent pas de la crise écologique ou de l'hiver nucléaire). J'apprécie beaucoup vos travaux à vous, femmes et hommes qui passez un temps monstre à vouloir démontrer que l'humanité courre à sa perte alors que cela paraît évident. Je suis fasciné par le courage et la force de caractère dont vous faites preuve. Je n'ai pour ma part pas cette force et considère qu'aucun discours raisonné ne nous fera changer (je sais que fumer tue, pourtant je n'ai toujours pas arrêté de fumer). Tout ça pour dire qu'il en va de la responsabilité des dirigeants mais qu'en même temps, si nous ne voulons pas changer, nous ne pouvons pas non plus considérer comme seules coupables les instances de pouvoir. Si votre article n'est pas cité et est considéré comme non-important, c'est peut être que c'est vrai. Qui en a réellement quelque chose à faire ? Si les algorithmes influencent nos comportements et attisent les violences, ils ne nous poussent à rien, c'est nous qui décidons d'être violents. Je pense que ceux qui sont violents savent pertinemment ce qu'ils font et cela qu'ils soient de culture bouddhiste, musulmane, catholique ou autre (cultures soit dit en passant qui prônent dans leurs messages philosophique l'amour de son prochain). J'observe ces comportements dans mon quotidien : des amis de longues dates qui ne se parlent plus pour un simple histoire d'argent, des hommes et femmes qui après s'être aimés pendant des années se vouent une haine profonde, des individus qui ont à peine de quoi manger à côté de chez moi tandis que je gaspille de la nourriture... Vos travaux et votre esprit dévoué à informer l'Homme qu'un avenir meilleur existe me fascine, et vous me donnez l'espoir de travailler sur moi-même afin de m'améliorer. Pourtant, plus j'en apprend sur l'histoire de l'Homme et plus je dois fournir d'efforts au quotidien pour ne pas ressasser inlassablement la première phrase du Mythe de Sisyphe d'Albert Camus : "Il n'y a qu'une seule question philosophique vraiment sérieuse, c'est le suicide". Merci beaucoup pour tes vidéos.
@viceconsulimhotepienenobed15732 жыл бұрын
Faudrait arrêter de diffuser de la désinformation sur l'histoire de Giordano Bruno.
@ludoviclagouardette70202 жыл бұрын
Super vidéo! Merci! 👍
@bbbenj2 жыл бұрын
C'était extrêmement intéressant, un grand merci 👍 Ce qui est dommage, c'est qu'on pourrait croire que tu parles par dépit, par jalousie. Je sais parfaitement que ce n'est pas la cas mais ça transparaît significativement.
@MarcusCactus Жыл бұрын
2:05 Franchement, quand je vous entends parler de "génocide en Ukraine", je sais que j'ai affaire à un désinformateur. Votre russophobie vous aveugle. Alors, la bouilloire qui critique la marmite d'être noircie, ça va c'est bon. Ukraine, climat, etc. Que d'à-peu-près balancés sans sources ou preuves. Vous avez cessé de rester scientifique pour devenir propagandiste. C'est dommage.
@chocolatreglisse55779 ай бұрын
Pas de preuve du dérèglement climatique, c'est une blague ? Dans la tête des lobbyistes des industries fossiles peut-,être..
@nicolasf21212 жыл бұрын
Merci de prendre le temps de debunker tout ça avec des articles publiés...
@Bumbury2 жыл бұрын
Merci pour ce super boulot !!!!
@dgrandlapinblanc2 жыл бұрын
Merci à toi !
@L.Nahro02 жыл бұрын
J'ai vu france24 ( à 28:10) dans les sites de désinormation, je suis surpris. tu as des sources ?
@suppomanable2 жыл бұрын
Pense à dormir qd même. Merci pour ton travail,
@fabrice9552 Жыл бұрын
Croire que la recherche en IA soit un lieu où les enjeux humains et financiers soient absents est une hypothèse osée. La vidéo est peu longue et très motivée , pour simplement dire que les données d'apprentissages sont le fondement de la qualité du Machine Learning. Ensuite que les grosses entreprises qui ont la main sur les données sensibles profitent de leur position pour en tirer profit ouvertement ou secrètement est une évidence. Bref ignorer que l'IA ou la médecine ou la science fondamentale soient des champs où le meilleur peut côtoyer le pire est un voeux pieu, un peu d'histoire des science balaye ce point rapidement, sachons garder les yeux et les oreilles ouverts.Merci pour la vidéo.
@SMH540002 жыл бұрын
Salut Lê, merci infiniment pour cette vidéo. Penses-tu pouvoir en faire une version anglaise ? Je pense qu'elle gagnerait vraiment à faire le tour du monde dans la commu IA / ML. Typiquement, même à l'EPFL que tu connais (mais pas au département IC), il y a des chercheurs qui ne parlent pas français mais pourraient être intéressés (voire, "convertis") par ce que tu exposes ici. J'y ai récemment entendu parler d'apprentissage fédéré de façon beaucoup trop élogieuse, il faut qu'ils voient ta vidéo, mais préférablement dans une langue qu'ils comprennent... Plus généralement, j'ai l'impression que tu t'orientes de plus en plus vers le lancer d'alertes académiques, et je pense que cette activité mérite d'être menée aussi en anglais, l'anglais étant par excellence la langue de publication scientifique.
@le_science4all2 жыл бұрын
Il y a une version anglaise : kzbin.info/www/bejne/mH_Ji2OvnbuWmdk
@SMH540002 жыл бұрын
@@le_science4all Merci beaucoup ! En même temps si je ne m'abonne pas à la chaîne anglophone aussi... Me voilà abonné :-) Merci encore pour ton travail !
@alexmge91822 жыл бұрын
Je peux comprendre que des chercheurs protègent leur travail sans mauvaise intention, en occultant les conséquences sociales ou environnementales à long terme. Aujourd'hui, que ça soit en sécurité numérique ou en recherche appliquée, tout tend vers un impact négatif. Toute action de transformation génère de l'entropie. La précaution reviendrait à paralyser la société et à mettre l'industrie, les chercheurs au chômage. Que faire ? Niveau donnée personnelle, il y a sûrement des solutions pour rendre le principe de donnée personnelle caduc. Mais côté réchauffement climatique, il partait impossible d'inverser le cours des choses hormis réduire, voir stopper toute activité humaine
@clairelesaffre2492 жыл бұрын
Merci beaucoup pour cette vidéo!
@leGEEK842 жыл бұрын
J'adore ton travail et jsuis évidemment d'accord avec toi. J'aimerais quand même étendre le problème, oui le système de publication est en cause, le financement par projet également. Mais en fait, la multiplication et la normalisation des partenariats publique/privé me semble aussi une cause possible du phénomène (du moins un facteur qui empêchera de prendre le problème à la racine). Sauf qu'on est dans cette situation parce que l'état a décidé qu'il ne voulait plus prendre en charge les coûts d'une recherche et d'un enseignement publique. Je ne vois pas comment ça pourrait aller mieux dans une situation où les universités en France tombent littéralement en ruine, devront fermer faute de pouvoir payer l'électricité et qui doivent encore rogner sur les budgets pour financer les augmentations de salaires promisent par l'état mais absolument pas compensées dans ce que l'état donne. De plus en plus les universités sont dépendantes des industries, autant pour les financements que pour le recrutement des étudiants, donc autant la recherche que l'enseignement devront se plier aux règles imposées par des entreprises comme Google et Facebook, les sujets de recherche seront décidés par eux, et les résultats attendus aussi. La qualité de la recherche va nécessiter le renforcement d'un service publique qui soit vraiment indépendant, et je ne vois pas comment ça pourra s'améliorer sans défendre l'université (Grève le 18 octobre)
@samp.8975 Жыл бұрын
Je ne comprend pas, au sein de cette communauté scientifique, n'y a-t-il pas que des chercheurs de google, ou presque ? Cela n'alarme t-il pas les autres chercheurs qui n'auraient pas de lien direct avec google ? Le conflit d'intérêt, même s'il peut être difficilement prouvable est certainement et légitimement questionnable !? non ? Ne voit-on pas là, la limite de la validation par les pair où une part significative de ces pairs serait corrompu, un peu à l'image de l'attaque à 51 chez les cryptos, sauf que la taille de l'échantillon d'expert est par définition pas comparable??? J'ai horreur des théories complotistes mais là, au vu des enjeux, la vérification par davantage d'experts indépendants me semble fondamental. Ici, j'attaque les politiques qui devraient mettre vraiment les moyens pour attirer les meilleurs experts dans leurs domaines afin de réguler et contôler ces agissements. Google et les Gafams deviennent trop puisssants pour ce satisfaire de ces dires...
@gbio2 жыл бұрын
@Science4all... une question me turlupine. Citer un article scientifique pour le critiquer le rend-il plus visible ? Est-ce compté comme une augmentation de l'impact factor ?
@yannrapaz37062 жыл бұрын
La science et un outil. L humanité et faillible. Croire que l on peut être dans une croissance infinie et une utopie.
@guedelplayer2022 жыл бұрын
"Performance et sécurité". Il est effectivement très compliqué de concilier les deux, et pas uniquement dans le domaine de l'informatique... Vous vivriez bien dans un bunker où on vérifie votre identité à chaque passage ? La surprotection peut être également un handicap...
@ducgus2 жыл бұрын
Merci pour ce travail.
@kamykro54272 жыл бұрын
Très intéressante vidéo, merci.
@yoananda92 жыл бұрын
Malheureusement, parler de "paix dans le monde" est pour moi le signal d'une totale immaturité politique et philosophique. Sans prétendre être un expert, je ne peux pas confier l'éthique des IA à quelqu'un qui se contente d'affirmations dignes d'un concours de miss America.
@590quentin2 жыл бұрын
Il faut que les régulateurs se penchent sur la question des recherches financées par des organismes privés
@Daniel-js2pk2 жыл бұрын
Merci super vidéo comme d'habitude. Une question subsidiaire aux aspects que tu traites dans la vidéo, penses-tu que ce serait souhaitable et techniquement faisable de bloquer par défaut les publicités, voire de les interdire complètement, car j'ai l'impression que c'est vraiment le nerf de la guerre, aussi bien pour la désinformation qui vise le buzz et les revenus publicitaires que pour google, et pour faire du greewashing. J'ai souvent entendu l'idée de resquilleur du net, mais voire de la pub n'est pas gratuit, sinon personne ne paierait pour nous la mettre sous les yeux.
@raphaelplouseau85782 жыл бұрын
C'est le sujet de sa vidéo précédente
@Daniel-js2pk2 жыл бұрын
@@raphaelplouseau8578 A ok merci !
@greysky17862 жыл бұрын
C'est vraiment une super vidéo ! Au début j'étais un peu dubitatif, parce que je me disais que quelqu'un-e qui faisait du droit aurait été le ou la bienvenu-e pour accompagner tes propos sur la privacy (tu est avant tout un matheux, je t'accorde moins de crédit lorsque tu t'aventures sur le droit ^^), mais vraiment cette vidéo était excellente, iel y a dû y avoir beaucoup de travail, je vais essayer de la partager au maximum !
@SaMusz732 жыл бұрын
referencement ! Merci Le !
@46_800 Жыл бұрын
Pourquoi tu dis que le génocide au Myanmar est lié à la désinformation sur internet ? (Autour de 2:00)
@lugnasad51 Жыл бұрын
je viens de découvrir cette chaine, je n'ai pas encore tous les codes, ça veut dire quoi quand il ya une fleur avec un chiffre, comparisons et contributeurs ?
@davidleroux38492 жыл бұрын
Bonjour et merci pour cette video @Science4All ! Mais je m'étonne de ton étonnement ^^ Ce qui prime dans tous nos choix, ce sont les émotions (et avec d'excellentes raisons) et en outre pourquoi les scientifiques seraient plus éthiques que d'autres catégories. Enfin si on revient a ton introduction : Tabac, pluie acides, amiante, couche d'ozone; une fois le calme revenu et la poussière retombée les faits émergent N'ai pas peur : nous allons tous mourir et ça va très bien se passer 😁