Le longtermisme, la philo des ultra riches I Vortex Off I ARTE

  Рет қаралды 28,556

Le Vortex - ARTE

Le Vortex - ARTE

Күн бұрын

Пікірлер: 106
@kanibayez4390
@kanibayez4390 2 ай бұрын
On veut bien une vidéo de 3h sur le sujet du coup x)
@TheonlyShinji
@TheonlyShinji 2 ай бұрын
Clairement 😊
@lucaschebance3135
@lucaschebance3135 2 ай бұрын
Trop cool de voir Mr Phi sur Arte ! Merci Le longtermisme c'est surtout mettre la poussière sous le tapis et ce fixer un rêve quasi-impossible en prétendant sauver le monde...
@Αλέξανδρος56
@Αλέξανδρος56 2 ай бұрын
Vous allez beaucoup trop loin pour une ouverture sur le sujet. On a des exemples concrets actuels : les coréens ont sacrifié une génération, passant d'un des pays les plus pauvres à un pays 'riche', pour que la suivante en profite. La délocalisation à outrance de part la vision court termiste des investisseurs fait qu'aujourd'hui on a plus de travail en France et qu'on reçoit de la merde en plastique depuis l'Asie un peu plus chaque année... Y'a beaucoup à discuter sur l'actualité avant de partir sur les délires d'Elon Musk
@sdwqbvlwdslbvlbwflbunlwbf
@sdwqbvlwdslbvlbwflbunlwbf 2 ай бұрын
Oui et Taiwan aussi, la situation de la corée et de taiwan ont d'ailleurs tout a voir avec les coréens et les tawainais et pas avec la géopolitique de la région 🤡
@lucofparis4819
@lucofparis4819 2 ай бұрын
Ces sont les longtermistes eux-mêmes qui vont très loin, mais c'est normal quand on ne fait que spéculer : avec des 'si' on refait le monde. Heureusement, on peut facilement recourir à la bonne vieille béquille morale de l'éthique de la vertu pour identifier qu'ignorer les problèmes systémiques du moment, c'est faire preuve d'un défaut de pensée à long terme. À l'inverse, mettre de côté des problèmes imminents comme le changement climatique au profit de questions très spéculatives, comme les bénéfices nets en capacité de survie de la civilisation si on décide de coloniser Mars tout de suite... Ben ça c'est clairement un excès délétère de pensée à long terme. Il y a clairement un juste milieu vertueux entre ces deux extrêmes, indépendamment de l'actualité brûlante, qui peut difficilement être encore qualifiée de sujet à long terme. Les effets du changement climatique, en réalité, on commence déjà à les voir.
@gePanzerTe
@gePanzerTe Ай бұрын
Et les problématiques de l'eugénisme. 😊
@KingsOfMadness
@KingsOfMadness 2 ай бұрын
Sujet très intéressant et avec des implications profondes , même si, entendons nous bien, je n'ai pas vu cette vidéo comme vous l'avez suggéré.
@conscious-atoms
@conscious-atoms 2 ай бұрын
Les deux principaux domaines d'action du longtermisme, c'est la sécurité de l'IA et la prévention des pandémies. Dans les deux cas, c'est pas un risque hyper lointain, ça nous impacte déjà. Et il y a quelque chose de potentiellement malsain à porter des accusations morales sur les gens qui se soucient d'un domaine d'action A parce qu'on considère que le domaine d'action B est plus important. Si je me soucie par exemple avant tout du bien-être animal, je peux argumenter courtoisement que c'est important, mais c'est pas une raison pour agresser les gens qui font autre chose, comme porter soutien à des SDFs.
@Wepawetmose2
@Wepawetmose2 2 ай бұрын
Merci pr cette vidéo ! J'aime beaucoup cette chaîne et ses formats :) c'est très simple, avec de sacré.e.s intervenant.e.s et une production au top. (Bravo au monteur pour avoir calé Mr Phi sur la musique à la fin haha)
@Estus5807
@Estus5807 2 ай бұрын
Trolley problem mais les rails sont trop loin pour voir s'il y a un précipice ou des humains en danger
@lucofparis4819
@lucofparis4819 2 ай бұрын
Tout est question d'échelle. Jusqu'à il y a peu, vouloir combattre le changement climatique c'était jugé inutile et absurde, et un nombre bien trop grand de gens continuent de le penser. Pourtant on parle seulement de se projeter 80 ans dans le futur, soit quelque chose comme quatre générations plus tard. Le problème quand on essaie d'aller trop loin dans le futur, c'est que nos capacités de prédiction sont très largement surestimées. Donc pas assez de longtermisme, et on risque de s'anéantir soi-même à coup de rejets dans l'atmosphère. Trop de longtermisme, et on pourrait bien s'anéantir soi-même en ignorant les problèmes du moment au bénéfice d'une utopie très vaguement plausible, et au profit de quelques personnes qui "par hasard" se feraient un max d'argent en vendant ce rêve-là aux esprits faib.... pardon, aux "visionnaires".
@oujifarg3850
@oujifarg3850 2 ай бұрын
on veut les 3h sur le sujet !! j'ai adoré la vidéo en tout cas
@sapumali4943
@sapumali4943 2 ай бұрын
C’est cool de voir les deux points de vue. C’est chouette bravo
@olivierblaize8813
@olivierblaize8813 2 ай бұрын
Super épisode car c'est un sujet passionnant, merci beaucoup pour m'avoir appris cette tendance philosophique. ❤❤❤
@malcolm1399
@malcolm1399 2 ай бұрын
Trop bien les Vortex Off !
@IrmaCEREVO
@IrmaCEREVO Ай бұрын
J’ai un gros souci avec la prise en compte de gens qui n’existent pas, et qui n’existeront que si on le décide. Avec ce raisonnement, on pourrait à nouveau interdire l’avortement et la contraception. Il ne faut jamais oublier que le futur n’est pas écrit, et qu’il résultera de la conjonction d’un nombre incalculable de paramètres, parmi lesquels figurent les choix que nous faisons. L’idée d’un bouton actionné aujourd’hui et qui déclencherait un événement précis dans 500 ans n’a pas vraiment de sens, et encore moins le calcul de la population humaine du futur.
@ryke_masters
@ryke_masters 2 ай бұрын
Un des problèmes que je trouve assez peu abordé avec le longtermisme (pour faire des recommandations concrètes, hein, parce que malheureusement même en-dehors de Musk c'est très populaire dans certains cercles), c'est tout simplement que ça concerne généralement des futurs lointains, incertains et contingents, et conséquemment c'est extrêmement difficile (impossible, en réalité) d'établir les liens de causalité et de probabilité qu'ils voudraient établir entre des actions actuelles et des résultats futurs. Quand un scénario futur qui se déroulerait dans 30 000 ans dépend déjà du déroulement de centaines d'événements précédents dont chacun est très incertain et chacun dépend des précédents, et que déja on ne peut que vaguement établir un lien probable entre certaines actions actuelles (disons le fait de dépenser sur l'exploration spatiale au lieu de l'aide sociale) et un seul "outcome" futur, de fait une recommandation sur ce qui pourrait se passer dans 30 000 ans ne vaut rien. On empile des "si" sur des "si" dont chacun est extrêmement incertain et dépend entièrement du précédent, et sur cette base on conseille parfois des conneries dont on a de très solides raisons de croire à relativement court terme que ça va causer des tas de problèmes. Les longtermistes s'appuient sur cette idée que le poids moral des vies à venir est énorme et que ça justifie de se préparer à des scénarios improbables, ce qui n'est pas forcément faux et peut justifier des tas de choses raisonnables. Mais ce poids moral est nul si le scénario appréhendé ne se produit pas, et dans certains scénarios suggérés, soit la probabilité du scénario apparaît assez homéopathique (ou totalement impossible à estimer mais contingente d'un tas de trucs), soit c'est notre capacité à lier des actions actuelles aux conséquences dans le scénario futur qui apparaît minime ou nulle. Parfois on atteint un point où n'importe-qui peut inventer un scénario, pas particulièrement plus improbable que d'autres, et qui justifie n'importe-quoi. Dans ces situation l'approche longtermiste apparaît extrêmement douteuse mais séduit pourtant des gens qui devraient comprendre en quoi c'est douteux!
@lucofparis4819
@lucofparis4819 2 ай бұрын
En fait, c'est encore bien plus vicieux que ça. Les longtermistes utilisent non seulement des calculs de probabilités aux fraises qui n'ont pas lieu d'être, mais ils ont, continuent encore, et vont persister à ignorer les solutions bien réelles qui se sont déjà présentées d'elles-mêmes à leurs soi-disants problèmes : ▪︎ Encore peur d'une guerre nucléaire en 2024 ? Bienvenue dans l'après-guerre froide, qui a prouvé que la doctrine de la destruction mutuelle assurée exploitait efficacement l'instinct de survie de ces foutus primates qui se croient trop intelligents avec leurs gros pétards à hydrogène. ▪︎ Terrifiés à l'idée de finir comme les dinosaures*, éradiqués par un astéroïde exterminateur**? Bienvenue au 21ème siècle, où une NASA sous-financée au possible, avec la coopération d'autres agences spatiales, est parvenue à dévier un astéroïde avec une mission toute simple et comparativement pas chère (DART). ▪︎ La perspective d'une pandémie vous horrifie, car elle pourrait causer l'apocalypse ? Oups, les pandémies sont déjà des événements récurrents dans l'histoire, et chacune génère son lot de mesures innovantes pour juguler le problème, au point que des charlatans, des débiles profonds et les gens qui les croient, peuvent se permettre d'y survivre et de se faire de l'argent avec, tout en prétendant qu'elle n'existe pas, ou qu'elle n'est pas un problème. ▪︎ Vous manquez la crise cardiaque chaque fois que vous pensez à l'arrivée quasi inévitable de SkyNet, des Machines de Matrix ou encore du Maximiseur de Trombones ? Oups, vous avez oublié qu'une sonde de Von Neumann, ça se détruit, comme n'importe quelle sonde, que les Machines de Matrix ne constituent en rien un problème pour le futur à moyen terme, et encore moins à court terme, vu que l'IA générale n'est pas du tout près d'exister (surtout pas avec des LLM dans l'histoire). Et enfin, que SkyNet a beaucoup plus de chance de s'appeler DroneGPT, et de ne jamais se retrouver utilisé nulle part sur quoi que ce soit de près ou de loin lié à une arme de destruction massive, pour la simple raison que même les technologies plus ou moins modernes ne s'y retrouvent pas (ce genre d'armes est Cylon proof, si tu vois ce que je veux dire). Et comme implicitement suggéré, un LLM n'est en rien une IA au sens de SkyNet ou de Matrix, et ne pourra jamais l'être. On attend encore le paradigme technologique qui pourrait se prêter à leur création. Et un domaine comme l'éthique de l'IA est déjà là pour encadrer la recherche dans le domaine.
@LeVraiPoio
@LeVraiPoio 2 ай бұрын
Fut un temps, j'pouvais donner mon sang. Je m'étais fait la réflexion que c'était un peu étrange qu'on ait une case sur le formulaire "je ne souhaite pas que mon sang soit utilisé pour la recherche" et pas la case "je souhaite que mon sang soit utilisé exclusivement pour la recherche". D'un sens, j'suis bien content de pas avoir eu à plonger dans la philo pour trancher si je voudrais cocher telle case. Y'a quand même un truc étrange à mes yeux dans ce raisonnement à base de poids moral quasi quantifiable dû aux possibles futurs. C'est quoi l'unité de mesure du SI pour le poids moral et quels sont nos outils de mesures ? En l'état, la science nous dit qu'il y aura une fin de l'univers avec une entropie maximale, et donc qu'il y a forcément un nombre fini d'humains (ou autres) futurs. Plus on avance dans le temps, plus ce nombre baisse, parce qu'il y a de plus en plus d'humain présents et de moins en moins d'humains futurs. Du coup, chaque génération qui passe serait "moins redevable" que la précédente du non avènement d'une utopie. J'aurais tendance à mettre les choses dans l'autre sens, en disant que plus le temps passe, plus les moyens de faire advenir une utopie augmentent. Bref, mon sentiment serait plutôt que si on est pas dans une utopie actuellement, c'est plus de notre faute collective à nous, humains présents, que la faute de nos prédécesseurs.
@bzhastro
@bzhastro 2 ай бұрын
Grou le référencement 😊
@jeffreyhoungbadji
@jeffreyhoungbadji 2 ай бұрын
Très intéressant! Merci !
@Roxar96
@Roxar96 2 ай бұрын
N'aidons pas notre prochain, il faut optimiser les ressources pour les générations futures ! Et avec un peu de chance, les générations futures seront aussi logique que nous et n'aideront pas leur prochain pour la même raison 🤣🤣🤣🤣🤣🤣 Excellente logique 🐸👌 Toujours privilégier ce qui n'existe pas, ceux qui disent le contraire n'ont pas les pieds sur terre 😵‍💫
@conscious-atoms
@conscious-atoms 2 ай бұрын
Tout à fait d'accord avec Thibault sur le fait que coloniser Mars ne fait pas vraiment de sens d'un point de vue longtermiste. À noter aussi que le risque de "pressions dysgéniques" (12:50) n'est pas considéré comme un risque sérieux par Nick Bostrom. Il a juste mentionné le risque pour être exhaustif dans son papier de 2002, en écrivant que les échelles de temps sont beaucoup trop longues pour que ça ait un effet significatif. Certains de ses opposants comme Émile Torres ou Timnit Gebru continuent de répéter ça, mais c'est un homme de paille. Possible que ce soit un risque significatif aux yeux d'Elon Musk, mais les organisations longermistes s'en fichent et j'ai jamais entendu parler d'un financement pour éviter des "pressions dysgéniques".
@vincentduhamel7037
@vincentduhamel7037 2 күн бұрын
Pourquoi ça ne fait pas de sens ? Il faudra quitter la planète un jour. Mars est simplement le point le plus accessible à partir d'ici.
@knightofphenix
@knightofphenix 2 ай бұрын
Très intéressant. Je vote pour la vidéo de 3 heures sur la question dont parle Cha (Edit: j'ai oublié un mot)
@humancrashtest6791
@humancrashtest6791 2 ай бұрын
Très agréable
@claudebbg
@claudebbg 2 ай бұрын
Intéressant comme discuss', ça met bien certaines questions en perspectives. Pour la vidéo de 3h, invitez un statisticien (pour l'utilisation de statistiques au futur long, car 1% de risque d'éliminer l'humanité entière c'est en fait un gros risque). Et un arbitre Godwin/historien de la (dé)colonisation, parce que ces idées c'était pas que dans les années 40 et pas que chez les autres. Idée pour entamer, l'inventeur de la pilule contraceptive, sauveur de l'humanité ou pas ? (pour changer de Fritz Haber).
@rolletroll2338
@rolletroll2338 2 ай бұрын
C'est un peu le concept de taux d'actualisation qui manque (volontairement) à la vision de longtermiste des mégalo milliardaires. Que le bonheur de gens vivant maintenant et qui existent a plus d'importance que la potentialité d'existence d'un humain dans un million d'années, dont nous connaissons aucune des aspirations si tant est qu'il existera bel et bien.
@ygorjensouniev-mafabriquea6992
@ygorjensouniev-mafabriquea6992 2 ай бұрын
Une vidéo de 3h, soit, mais un live, avec des invités hors Vortex, pour ouvrir le débat (et quelques bons gros contrexemples à poutrer en direct).
@jclheriteau
@jclheriteau 2 ай бұрын
Ce qui manque dans le raisonement c'est le "discount rate", taux d'actualisation en francais je crois. Gilles, d'eureka, connait tres bien,
@EmmanuelBouillon0
@EmmanuelBouillon0 2 ай бұрын
Merci !
@nashaut7635
@nashaut7635 Ай бұрын
J'ai rencontré il y a pas longtemps un voyageur temporel qui était parti à la rencontre de Pytagore, Socrate et d'autres grands philosophes connus d'aujourd'hui. De fil en aiguille, mû aussi par la curiosité, sans doute, les hôtes d'alors se sont enquis de l'état de l'humanité de notre époque. Le voyageur a bien dû leur avouer la vérité; je cite: " _ah, m'en parlez pas, les humains sont devenus complètement cons et égocentriques, ils ne voient même pas les problèmes gigantesques qu'ils ont causés et se contentent de pérorer au lieu de s'occuper de leur propre survie_ ". Là-dessus, paraîtrait (je dois employer le conditionnel, n'ayant pas été là-bas le constater par moi-même), que Aristote a déclaré " _Tracasse, on s'en occupe_ ". C'est fou, non? Dire qu'il y a deux mille cinq cents ans, la même discussion a eu lieu. Si ça se trouve, ils avaient déjà la solution. En tout cas, ça me la sectionne.
@malluinmalluin5569
@malluinmalluin5569 2 ай бұрын
Ha ben faut se méfier de l'argument qui est que le nombre de personne affectée détermine la moralité de l'action. On trouvera de bon sens que si répandre une épidémie qui va tuer 1 000 personne c'est moralement préférable que la même chose qui va tuer 1 000 000 de personnes. Mais c'est plus de constater que c'est plus grave. Ya bien un jugement moral. Par contre on peut considérer les deux actions de façon identique moralement. Les deux tuent des gens et les deux sont détestables. La conséquence n'est pas le seul aspect moral mais c'est vite invisibilisé. Le soucis de l'utilitarisme en prenant le nombre de personnes touchées, le degré de bonheur, de maximiser le bonheur total comme si c'était une valeur comptable, c'est qu'on oublie un peu que c'est souvent illusoire et que ça introduit des biais assez problématiques. Et aspect comptables qui sont bien pollués par les conceptions économiques très discutables en vogue dans notre société actuelle. On doit pas oublier que quand une mesure devient un objectif elle cesse d'être une bonne mesure. Je pige même pas pourquoi maximiser le nombre de personnes même heureuses changerait l'aspect désirable d'un futur. Pourquoi pas le faire en pourcentages à la place ? Et ça serait pas mieux pour autant. Enfin dans tous les cas on est vraiment dans le monde des idées très abstraites et on oublie un peu ce qui se cache concrètement derrière. Comme le simple concept de bonheur qui n'est jamais assez interrogé et qui n'a pas vraiment, a mon avis, de sens concret. C'est un terme parapluie et mobilisateur ou chacun peu voir ce qu'il a envie et qui devrait être remplacé par un truc bien plus concret et en rapport avec le réel. Et on oublie tout autant comment on détermine le bonheur d'une personne, méthodologiquement, concrètement. Est-ce qu'on demande aux personne directement ou est-ce qu'on a une structure qui va tenter d'évaluer le bonheur (à remplacer avec la chose qu'on met vraiment derrière) ? Ceux qui n'existent pas ne peuvent pas donner leur avis mais ceux qui le déterminent le font avec leur propre conception morale et quelque par imposent une vision aux autres. Est-ce très moral ? Le conceptions abstraites de l'utilitarisme sont intéressantes, et peuvent enrichir la pensée. Par contre on doit pas oublier qu'on a un monde réel avec des choix moraux et politiques et que la façon d'organiser la société dépend beaucoup de la structure de pouvoir et de comment on détermine qui veut quoi et qui doit avoir quoi. La confrontation à la réalité est assez compliquée pour l'utilitarisme. Las expériences de pensée ça a un intérêt mais la confrontation au réel et aux connaissances concrète sur la psychologie et la sociologie et les conditions de vie et comment ça détermine ce qu'on appelle très vaguement bonheur ça doit en faire partie aussi.
@BaptisteTesson
@BaptisteTesson 2 ай бұрын
Je trouve ce sujet très intéressant. L'un des problèmes qu'il soulève, selon moi, est le calcul de l'espérance. Par exemple, appuyer sur un bouton qui a 1 % de chances de multiplier le nombre de personnes heureuses par 1 000, et 99 % de chances de détruire l'univers, serait-il vraiment préférable, simplement parce qu'en moyenne cela augmenterait le bonheur global ? Concernant les récupérations politiques de ce sujet pour négliger les problèmes du présent, je pense qu'on peut légitimement défendre que, pour maximiser nos chances d'avoir un futur sympathique, une bonne manière est d'abord de rendre le présent plus sympathique : renforcer les démocraties, améliorer l'éducation, réduire les risques de conflits etc.
@shoobidoosan5827
@shoobidoosan5827 2 ай бұрын
c'est court et superficiel. Une vidéo plus travaillée s'il vous plait ! Le sujet est intéressant
@flaw6074
@flaw6074 2 ай бұрын
Super intéressant! Vous êtes basés! Comme, à un moment, vous parlez de pourcentage de risques, j'en profite pour rappeler qu'il y a entre 5% et 30% (oui, c'est une grosse fourchette, mais c'est déjà colossal) de développer des séquelles potentiellement incurables (il n'y a en tout cas pas de soins efficaces qui "dissiperaient le mal absolument" à ce jour, en 2024) à chaque infection par le Covid. C'est ce qu'on appelle le Covid Long, mais pas seulement, ce sont aussi les PASC (Post Acute Sequelae of Covid-19 = Séquelles post phase aigüe du Covid-19), c'est-à-dire tout une variété de symptômes déclenchés ou aggravés par les effets du virus dans le corps (ça va de la tachycardie à l'AVC en passant par les troubles de la concentration ou la dépression). Si vous voulez plus d'informations, je vous redirige vers l'Association Winslow pour la santé publique (prévention en santé), l'Association AprèsJ20 (asso de patients Covid Long), l'Association pour la Réduction des Risques Aéroporés (Association ARRA, qui investit le versant politique de la prise en charge des pandémies - ils travaillent avec notamment avec ActUp, comme Winslow aussi, d'ailleurs). Pour ceux qui comprennent l'anglais, il y a aussi le John Snow Project, le World Health Network ou le People's CDC. Prenez soin de vous!
@heyho6809
@heyho6809 2 ай бұрын
Voudrais tu faire une vidéo sur l'utilisation de l'adverbe forcément? J'ai remarqué que les Français l'utilisent très souvent et je me demande d'où ça vient. (Ce n'est pas une critique, juste une observation).
@abogado2347
@abogado2347 2 ай бұрын
C'est trop court ! en plus, vu les images de la fin, la discussion a l'air de se pronlonger :). Une vidéo plus longue ???
@bbbenj
@bbbenj Ай бұрын
Et si pn met ça en application avec la dérive climatique, ça donne quoi ?
@Elzaiide
@Elzaiide 2 ай бұрын
14 min ??? trop court ! ce sujet mérite tellement mieux :(
@grumfur
@grumfur 2 ай бұрын
ça m'amène pleins de questions pour @MonsieurPhi et je ne sais pas si il y répondra un jour : Peut on dire que l'issue de la 2de Guerre Mondiale a réellement été positive ? Comment peut-on en être sûr ? Peut on dire que la pandémie de COVID a eu un impact positif sur le monde ? (certainement un peu trop tôt) Peut on réellement traiter des conséquences d'un choix ? Personnellement, grâce à mes expériences personnelles, je perçoit que les actions conscientes que l'on mène aujourd'hui se font dans un dessein d'un monde désirable qu'on imagine grâce à une vision portée par certaines personnes. Et je n'ai probablement pas les compétences actuellement pour mieux développer mon idée ici T__T
@conscious-atoms
@conscious-atoms 2 ай бұрын
Il faut pas vraiment s'attendre à des conséquences certaines et parfaitement prédictibles, mais plutôt raisonner en termes d'espérance mathématique, ce qui permet de prendre en compte l'incertitude, même si c'est subjectif.
@JoNouveaj
@JoNouveaj 2 ай бұрын
6:00 la marche est grande entre les deux considérations. Ne pas faire exister quelqu’un lui cause t’il du tord ? Ça ne me paraît absolument pas évident… Un couple refusant d’avoir des enfants alors qu’ils le pourraient causeraient donc du tord aux enfants qu’ils ne créent pas ? Je trouve ça déjà bcp bcp moins évident. Et cet argument est très important car il est probable que le nombre d’humain stagne aux alentours des 10Milliards. Dès lors, la croissance ne sera plus exponentielle. La bombe causera du tord aux 10Milliards de personne qui existent mais pas forcément plus. Or, 10Milliards est un nombre comparable avec 7 milliards. L’argument du nombre de personne impacte est bcp plus faible si on admet pas cette hypothèse
@foxwit6731
@foxwit6731 2 ай бұрын
J'ai l'impression que le longtermisme ne fait que de mettre en exergue notre vision de comment faire pour arriver à une société meilleure. Et fatalement celle des ultras riches ne passe pas par du social.
@jokiri46
@jokiri46 2 ай бұрын
Intéressant mais ça renforce mon sentiment : la philo morale et ses absolus, on est mal équipé pour gérer.😅
@ArseneBRESSAC-us9vw
@ArseneBRESSAC-us9vw 2 ай бұрын
Grâce à cette vidéo je comprend mieux le film Megalopolis, et je l'aime encore moins qu'avant
@arnaudsmith1890
@arnaudsmith1890 2 ай бұрын
Je préfère des gens qui vont de l'avant plutôt que des arriérés qui croient en un dieu inexistant.
@wans728
@wans728 Ай бұрын
L'un n'empêche pas l'autre (croire en un dieu inexistant en regardant vers le futur) je vois pas le lien^^. Et si regarder vers le futur t'empêche de voir le présent , c'est pas très glop non plus.
@AlexandreAuCambodge
@AlexandreAuCambodge 2 ай бұрын
Ref ☀️
@SoloUnAnimal
@SoloUnAnimal 2 ай бұрын
Ce qui me surprend le plus dans les discussions sur le long-termisme (de la part de ses premiers partisans, notamment, mais jusqu'à aujourd'hui) c'est cette obsession avec les humains, comme s'il n'y avait pas d'autres êtres moralement importants sur terre. Il y a déjà beaucoup plus d'êtres sensibles/sentients non-humains (plusieurs ordres de grandeur) que les humains, et il est fort probable que cela restera vrai pour une bonne partie de l'avenir à long terme. Je pense qu'un tel anthropocentrisme est totalement injustifié et qu'il rend la plupart de ses propositions totalement inefficaces pour rendre l'avenir à long terme moins mauvais qu'il ne le serait autrement.
@pierrestempin100
@pierrestempin100 2 ай бұрын
Sans compter ceux qui se basent sur un croissance exponentielle infinie du nombre d'humains, alors que bon les projections partent plutôt sur un max vers 10 milliards en 2080 et qu'après ça redescend.
@buttyobject575
@buttyobject575 2 ай бұрын
Le paradox du basilisk de Rocco
@g.3481
@g.3481 2 ай бұрын
Oula attention Thibault, si tu commences à considérer comme victimes d'une action, des personnes qui ne sont pas nées du fait de cette action, tu ouvres la voie à rendre de possibles géniteur.rices comme responsables d'un préjudice envers la descendance qu'il/elles auraient pu avoir et qu'il/elles n'ont pas voulu avoir. Et je ne te parle même pas de l'i.v.g😅
@Hephawesome
@Hephawesome 2 ай бұрын
Il en a déjà parlé dans une précédente vidéo
@Biro517
@Biro517 2 ай бұрын
Générique de fin : Avec Charlotte (OK) Louise (🤣 ah je savais pas)
@wans728
@wans728 Ай бұрын
Tien, c'est marrant, mais la fin de la vidéo m'a refait penser a l'histoire du basilic de roko ^^.
@mentat92
@mentat92 Ай бұрын
2:07 cela me paraît sain le longtermiste sur le risque du réchauffement et de l effondrement de la biodiversité… non ? A moins que je sois le seul.. 😞
@esyra
@esyra 2 ай бұрын
La chose qui me gêne le plus avec le longtermisme ou la fin justifie les moyens, c'est que le temps est très très long, donc chaque génération aurait un devoir envers le futur pour toujours sans jamais profiter puisqu'il y aura toujours une génération plus tard. Pour moi, chaque chose doit se faire au cas par cas selon la durée, la gravité, etc et pas systématiquement privilégier le futur.
@eruditinconnu9921
@eruditinconnu9921 2 ай бұрын
je suis un peu étonné du sens unique de ce débat. Je trouve que la discussion est un peu trop à charge à mon goût. Vous n'exposez absolument pas les avantages de cette idéologie. Il y en a déja un que je vois qui concerne l'Humanité au sens large. Comment pouvons nous permettre à l'humanité de durer dans le temps si nous ne sommes même pas capable de nous projeter sur des centaines d'années?
@Fine_Mouche
@Fine_Mouche 2 ай бұрын
Mais qu'est ce que j'ai bien pu regarder ?
@christopherbalme123
@christopherbalme123 Ай бұрын
je crois que j'ai la solution aux longtermisme
@Yanis-bnsheikh67a-z1b
@Yanis-bnsheikh67a-z1b Ай бұрын
Il faut sauver le soldat Rayan,
@ParlonsAstronomie
@ParlonsAstronomie 2 ай бұрын
Je pense que comme pour la question de l'avortement il ne faut pas que les droits de potentielles personnes prennent le pas sur le droit des personnes existantes. Réduire le réchauffement climatique c'est un grand oui, mais pourrir la vie des gens sur une durée indéterminée pour un but purement hypothétique c'est non.
@KryssAA
@KryssAA 2 ай бұрын
Arf trop tard je j'ai vu !
@TheRoro390
@TheRoro390 2 ай бұрын
Mais du coup, j'ai beau avoir regardé la vidéo en entier, je ne comprends pas. C'est quoi clairement qui est problématique dans ce mode de pensée ? Parce que là, de ce que j'ai compris, c'est que tout le monde est d'accord pour dire que c'est une vision parfaitement recevable, mais que comme 2-3 riches la soutiennent, elle est mauvaise. (il y a souvent le même soucis avec le transhumanisme et l'eugénisme d'ailleurs, qui sont souvent attaqués sans arguments autre que "Dans les années 40 ....")
@Shalashaskaism
@Shalashaskaism 2 ай бұрын
Oh le beau commentaire qui va attirer quelques réponses en pavés !
@theogrn4547
@theogrn4547 2 ай бұрын
Le problème c’est pas tant le mode de pensée en lui même, mais la récupération politique de ces concepts pour ensuite justifier des innovations technologiques alors que d’un point de vue des ressources ( matières premières et énergie ) bah c’est insoutenable, déjà à l’heure actuelle notre manière de vivre n’est pas soutenable sur le long terme, et la vision que partage elon musk ou Jeff bezos n’est donc vraiment pas la solution pour un monde moderne qui perdure dans le temps. Et donc, vis à vis du concept, la vision de Musk et Bezos serait plutôt à ranger du côté de ceux qui considèrent qu’il faut des innovations technologiques et de la croissance, quand bien même c’est pas soutenable avec notre planète, et donc pour contrer cela, il faut croire en la conquête spatiale, et la vis sur plusieurs planète, sauf que en réalité la croissance sans limite nous même vers une exponentielle, avec des besoins qui seraient de plus en plus importants et pas durable dans le temps, malgré la vie sur plusieurs planètes ( je vous conseille les travaux de Phillipe bihouix, en particulier ça dernière BD « ressources »)
@TheRoro390
@TheRoro390 2 ай бұрын
​@@theogrn4547 Oui mais la récupération politique qui détourne une idée pour se justifier, c'est le cas (ou au minimum une possibilité) avec absolument toutes les idées. C'est pas une raison valable de descendre l'idée en question, ni un argument pour montrer qu'elle est mauvaise. Et ici, l'idée n'est pas de faire tenir le monde moderne dans le temps mais de faire prospérer l'humanité sur le long terme, ca n'a rien à voir et c'est pas spécialement incompatible. De la même manière qu'en cours, taffer jusqu'à 3h du mat c'est pas un rythme soutenable long terme mais ca peut être un coup de boost qui permet d'avoir une scolarité réussie. Utiliser une grosse dose de ressources pour trouver une solution aux problèmes qui arrivent dans le futur proche, c'est pas soutenable sur le long terme mais ca peut permettre à l'humanité de continuer d'exister
@YoannKRIEGER
@YoannKRIEGER 2 ай бұрын
En fait je dirais que tout dépend de comment tu fais tes calculs. Exemple : à 2% de croissance des besoins énergétiques annuelle de l'humanité (ce qu'on a actuellement) -> d'ici environ 400 ans on utilise 100% de l'énergie que nous envoie le soleil sur l'entièreté de la Terre (l'intégralité de la surface terrestre recouverte de panneau solaire parfait de rendement 100%) -> Si on trouve une autre source d'énergie (ex fusion nucléaire) d'ici moins de 200ans la chaleur crée in fine par cette source d'énergie (car à la fin toute l'énergie fini en chaleur) sera équivalente au réchauffement climatique actuelle, donc il faudrait mettre des radiateurs géant dans l'espace pour refroidir la planète. Donc, si on est longtermiste ou bien on se dit que la croissance infini sur une Terre finie est impossible ou alors on arrive à la conclusion qu'il faut coloniser Mars et la Galaxie. Bon le seul petit soucis c'est que dans environ 2000ans, on doit avoir conquis l'intégralité de la galaxie et utiliser l'intégralité de l'énergie de toutes ses 200 à 400 milliards d'étoiles. Et dernière petit fun fact, le faire en moins de 2000ans alors que la taille de la galaxie est de plus de 100 000 année lumière ca veut dire qu'on saura aller à 50 fois la vitesse de la lumière. (source kzbin.info0BHvHrQ9Uv0?si=HIJzpHOOuITnlEzT&t=3054 et calculs perso) Bref, un longtermiste sérieux c'est l'antithèse même de Elon Musk, C'est un Pablo Servigne ou un Timothé Parrique
@matthiaslegall9691
@matthiaslegall9691 2 ай бұрын
C'est mal formulé : contrairement à ce qui est sous-entendu dans cette video, Musk se fout mais alors COMPLETEMENT de "l'intérêt des autres"... Seul le sien compte (voire ses proches parents), comme l'idéologie capitaliste libéral l'a engrammé comme jaja dans son cerveau! Le problème est là avant tout : qu'est-ce que ne pas se foutre de l'intérêt d'autrui? Et la réponse à ça, bien que simplissime, est parfois introuvable, et le capitalisme libéral nous en éloigne davantage à chaque nouveau jour de soumission et de consentement : car la réponse à ça est juste "aimer", c'est-à-dire donner et prendre soin. Le reste n'est que du vent dans les mots. Et présentifier cela, c'est ça le VRAI longtermisme, humanisé (...ni "optimisé" ni transhumaniste, ni "capitalisé" en pur retour sur investissement sonnant et trébuchant dans l'escarcelle de son clan). Enlevez le fétichisme de l'argent, et ce "longtermisme" ne deviendra alors qu'un simple paramètre à intégrer plus ou moins, toujours avec humilité, douceur et intelligence, au présent.
@wans728
@wans728 Ай бұрын
Surment. Après t'es pas dans la tête de musk.
@MojoVince
@MojoVince 2 ай бұрын
Sans la seconde guerre mondial nous n'existerions quasiment pas tous, nos aïeux nés juste avant auraient rencontré d'autres personnes, vécu d'autres vies etc... Est ce que ça en fait une bonne chose
@kyrnuhb7736
@kyrnuhb7736 2 ай бұрын
C'est un peu le jeu de la poule tout ça. Plus on y pense plus on perd. Mais vu que c'est hypothétique et lointain ça reste fantaisiste de vouloir améliorer la vie des gens futurs en oubliant d'améliorer nos conditions actuels. Si la création d'un futur heureux était une obligation pour nous alors oui il faut le faire. Mais pourquoi pas l'inverse ? Si on crée un futur malheureux volontairement ? alors on devrait absolument ne rien faire ?
@titouanlefevre
@titouanlefevre 2 ай бұрын
J'ai pas bien compris pourquoi cette théorie devrait aider les riches a justifier leur inactions face aux inégalité, la pauvreté, la faim a travers le monde. Si on est longtermiste alors il me semble que pour améliorer le futur il faudrait favoriser la créativité des humains en améliorant leur bien être en résolvant des PB de guerre, maladie, accès a l'éducation, famine etc... Or les ultra riches font strictement l'inverse donc soit il se place dans un futur ou les guerres de classes continues et dans lequel les pauvres seront redevenus des esclaves et les riches les maîtres. Et donc je ne voit pas en quoi c'est altruiste ou moralement acceptable de préparer un tel futur. Soit j'y pô tout compris m'voyez ! A mon sens un ultra riche longtermiste ne devrait pas être ultra riche en fait puisque ne jouerai pas le jeu de la finance et investirait dans l'économie réelle pour résoudre des PB societaux. (C'est sûrement mon cote islamogauchiste qui veut ça) Si vous avez des éléments de réponses je suis preneur ! :)
@DamienLby
@DamienLby 2 ай бұрын
Alors, je peux te faire une explication, mais ça nécessite de raisonner comme eux, au travers du même prisme idéologique et sans se préoccuper des faits, du coup ça peut être un peu dur à supporter mentalement ^^" Déjà, premier point, la vidéo mentionne une expérience de pensée sur une humanité numérisée: pour le groupe de Musk et ses potes, ce n'est pas une expérience de pensée, c'est le but à atteindre absolument. L'idée c'est que si on numérise un humain, alors on peut lui faire vivre n'importe quelle expérience dans la simulation (comme la machine à expériences de Nozick), et donc on peut maximiser son bonheur individuel. Mais on peut aussi le dupliquer, et donc si on utilise toutes les ressources de l'univers pour faire des machines qui font tourner les simulations et qu'on y multiplie les humains numérisés, alors on atteint le niveau maximum de bonheur possible pour les humains. Et donc vu l'importance de cette quantité de bonheur futur, il faut absolument que toutes les ressources présentes soient investies pour y aller. Bien sûr il y a des objections possibles à toutes les étapes de ce raisonnement, mais pour les pseudo-longtermisme Musk & co, aucune objection ne tient et c'est leur ligne: ils doivent construire ce futur là. (d'où l'IA, les voyages spatiaux, l'expansion des réseaux dans l'espace, neuralink...) Second point: ils sont libertariens extrêmes, donc pour eux seuls les entreprises privées et les marchés sont efficients pour allouer les ressources, et tout devrait être privé. Troisième point: ils croient en une forme de méritocratie dans laquelle le mérite équivaut à une supériorité naturelle et se mesure par la capacité à devenir riche. On peut considérer, comme moi, que ces trois prémisses sont complètement éclatées, mais c'est ça qui leur sert de justification. comme ils sont riches, ils ont prouvé leur supériorité naturelle (point 3), donc leur croyance dans le point 1 (et n'importe quelle autre de leur croyance) est forcément bonne, et ils sont forcément les mieux à même de décider comment il faut allouer les ressources pour atteindre le point 1. Il faut une guerre pour qu'ils aient des matières premières ? Pas grave, car d'après le point 1 l'objectif vaut n'importe quelle vie du présent. Et par la vertu du point 3, tant que ce sont des pauvres qui meurt, ils étaient de toute façon inférieurs et n'auraient pas contribué autant qu'eux à atteindre l'objectif du point 1. Il faut enfreindre des lois ? Pas grave, en vertu du point 2, ces lois qui limitent les actions du privé ne devraient de toute façon pas exister. Si un problème se pose dans le futur, ils pourront forcément le résoudre avec leur technologie, en vertu du point 3. Etc. Dans leur système de croyance, tout se tient. (et on ne va pas se mentir, ça tient surtout de par le troisième point )
@DamienLby
@DamienLby 2 ай бұрын
@@guyg.8529 Comme je le disais, la première premisse est une version mal digérée par Musk et sa clique d'une expérience de pensée très spécifique qui fait partie du corpus long-termiste. Et comme le dit la vidéo, Musk n'y a rien pigé. Mais ça ne l'empêche de dire que sa version, c'est du long-termisme, et de s'en servir pour justifier ses actions. La question à laquelle je répondais est, telle que je l'ai comprise en paraphrasant: "comment les ultra-riches utilisent le prétexte du long-termisme pour justifier leurs actions en étant convaincus que leur justification est bonne." (et j'ai interprété "ultra-riche" ici par "le groupe de Musk", ce qui est peut-être une erreur de ma part) Or, si on ne considère que le besoin de réduire le risque existentiel, les "solutions" des ultra riches sont déconnectées. Il n'y a qu'en croisant avec le logiciel idéologique qu'ils utilisent (donc les prémisses 2 et 3) que les solutions qu'ils retiennent "font sens" dans leur grille de lecture. Après j'ai aussi peut-être mal compris la question, et si elle était en fait "qu'y a-t-il d'inhérent au long-termisme qui en fait un concept facile à détourner par les riches pour justifier leur actions anti-sociales ?", alors il ne faut pas prendre en compte ma réponse car ce n'est pas ce que j'adresse.
@DamienLby
@DamienLby 2 ай бұрын
@@guyg.8529 Comme je te l'ai très clairement dit, j'ai répondu à la question telle que je l'ai comprise, et en prenant soin d'écrire noir sur blanc le cadre de ma réponse. C'est en recevant ton commentaire que j'ai décidé d'être charitable et de penser qu'il y avait une seconde interprétation de la question que j'aurais manqué plutôt que de te considérer comme un gros bourrin obtus venant me troller juste parce qu'il y a le mot long-termisme dans mon commentaire et des trucs qui t'ont semblé négatifs en les lisant. J'ai donc re-clarifié le contexte de mon propos. J'ai manifestement été trop charitable. Si tu veux répondre à la question de l'OP en te basant sur la façon dont tu l'as comprise, et si tu as des choses constructives à dire dessus, et bien fait donc ça, réponds-lui directement, et à lui de décider de ce dont il se fiche ou non. Et libre à toi de te complaire dans ton sentiment de supériorité en te disant que je suis quand même très bête d'avoir compris différemment un truc qui te semblait évident, je t'accorde ce plaisir profites-en bien ! J'ai d'autres choses à faire dans la vie que d'interagir avec les trolls.
@Intrus178
@Intrus178 2 ай бұрын
A chaque fois que M. Phi essaie d'élever le débat, elle rabaisse le niveau avec du bla bla, une stat ridicule, de la morale enfantine... Quoi "c'est un peu réducteur, quand même" ? Bref, je suis intéressé par une vidéo bien plus longue par M. Phi, mais sans béotien pour l'interrompre.
@ajvcc
@ajvcc 2 ай бұрын
MrPhi qui mansplain dès la seconde 50 de la vidéo Charlotte, pour arriver à 4'10'' à : « il peut y avoir, effectivement, de l'incertitude sur les faits futurs » ... Merci de nous abreuver de ta pensée complexe et puissante, senpai : on aurait eu du mal à le penser nous-mêmes, que le futur (surtout le « long futur », qui a un nom technique : on appelle ça « hyperfutur ») c'est incertain. La fausse logique qui se donne de grands airs finit par montrer comme un précipité chimique de qui elle est la pensée, sitôt l'impression exercée par ses artifices abstraits levée dans l'esprit de qui l'écoute.
@Jiraton
@Jiraton 2 ай бұрын
Je pense que toutes les incongruités et incohérences morales qu'on voit ici montrent les limites de la pensée morale conséquentialiste basée sur des probabilités. J'ai l'impression qu'avec des arguments moraux probabilistes on peut assez rapidement justifier n'importe quoi et son contraire. Par exemple imaginez qu'il y ait une probabilité infime mais non nulle que le bonheur de l'Humanité future soit liée, même faiblement, à la quantité d'attache-trombones produites. Ben pour éviter une "catastrophe morale" dans le futur, on devrait mettre tous nos efforts présents et toutes nos préoccupations à produire le maximum de trombones, juste au cas où...car si on ne le fait pas, une baisse même infime de bonheur produit multiplié par les chiffres astronomiques de la population humaine future, en font une catastrophe morale majeure. Ou bien ça montre les limites du calcul conséquentialiste purement quantitatif.
@bugul_noz
@bugul_noz 2 ай бұрын
Les problèmes posés par un conséquentialisme poussé à l'extrême sont connus depuis longtemps. Il y même des œuvres qui exploitent de thème. Ceci-dit, c'est la même chose pour le déontologisme (sauf que les conséquences arrivent bien plus vite) et il faudrait aussi imaginer ce que seraient des sociétés qui ne feraient aucun calcul de type conséquentialiste, par exemple et dépensant d'un coup toutes les ressources de l'humanité pour sauver une unique personne.
@gaellenimois6907
@gaellenimois6907 2 ай бұрын
Deuxième commentaire :o
@damienetourneau3652
@damienetourneau3652 2 ай бұрын
J'appuie sur le bouton. Ou pas.
@catmistigrise
@catmistigrise 2 ай бұрын
Bah...on vote?
@Hephawesome
@Hephawesome 2 ай бұрын
​@@catmistigrise le démocratie est un échec... Idiocracy 😬
@adrienrivas5531
@adrienrivas5531 2 ай бұрын
👍👌👏🥼
@themightytdp
@themightytdp 2 ай бұрын
Heureusement qu'il y a des gens, comme Elon Musk, qui ont une vision long terme, et qui regardent au delà de leur nombril. Cela donne de l'espoir à l'humanité, et quelque chose dans lequel croire / se projeter, à l'heure où les sociétés occidentales rejettent les religions
@Faune13
@Faune13 2 ай бұрын
Oh l’enfer 😱 y a des gens qui se disent ça ?
@Main936
@Main936 2 ай бұрын
Le « modérateur » qui a plus servi à couper la parole à Cha qu’à modérer quoi que ce soit 😂
@babasc9640
@babasc9640 2 ай бұрын
??? De quoi tu parles??? On regarde pas la même video je crois
@ronnyrockel5293
@ronnyrockel5293 2 ай бұрын
Je suis transhumaniste et voir cette vidéo a été très douloureux
@babasc9640
@babasc9640 2 ай бұрын
Bichette! Envoie un mail a Elon il aura surement une place pour toi dans sa fusée
@TintinDelespace
@TintinDelespace 2 ай бұрын
C'est du troll ?
@TintinDelespace
@TintinDelespace 2 ай бұрын
"On est d'accord que" c'est pas un argument valable. Ensuite, le dilemme proposer d'activer le bouton pour 2 ou 1000 personnes c'est le Dilemme du tramway, et on est pas d'accord que c'est plus moral de sacrifier les deux personnes plutôt que 1000. Ça le serait si où on se donnait le rôle de vie sur une vie sur la base d'un investissement comparé
@ronnyrockel5293
@ronnyrockel5293 2 ай бұрын
S'il te plaît Mr. Phi fait une vraie vidéo sur le transhumanisme au lieu de laisser l'autre déblatérer ses idioties techno pessimistes
@groschacalreloaded2360
@groschacalreloaded2360 2 ай бұрын
j'en ai marre de vos émissions de bobo, ca devient grave. vous perdez des vues tout le temps vous n'avez rien compris. En plus, je viens de me rendre compte que vous avez supprimé la première saison ........ j'ajoute rien les biens pensants, ca ne sert à rien, chiao, je me désabonne.
@ozymandias4385
@ozymandias4385 2 ай бұрын
Pourtant le plus utile c'est une critique construite, on ne comprend même pas pourquoi tu penses qu'ils sont à côté de la plaque.
@Eldiran1
@Eldiran1 2 ай бұрын
Quel argumentaire de la part d'OP. On est pourtant pas dans sa tête et sans explication de sa part, c'est nous qui n'avons rien compris. Moi aussi j'en ai marre de ces gens qui donne leur avis alors que ton avis (comme le mien), c'est pas tres intelligent. Elever la discussion au dessus du stade de l'opinion, ca serait pas mal.
@groschacalreloaded2360
@groschacalreloaded2360 2 ай бұрын
J'ai ajouté un lien vers la vidéo de dirtbiology qui a été supprimé
@Hephawesome
@Hephawesome 2 ай бұрын
​@@groschacalreloaded2360 mdr gros argumentaire ça 😂🫵
Elon et la NASA vont nous détester I  @BaladeMentale  I ARTE
12:22
Le Vortex - ARTE
Рет қаралды 84 М.
Aller sur Mars, une idée pas ouf ? I Vortex Off I ARTE
14:56
Le Vortex - ARTE
Рет қаралды 28 М.
黑天使只对C罗有感觉#short #angel #clown
00:39
Super Beauty team
Рет қаралды 36 МЛН
To Brawl AND BEYOND!
00:51
Brawl Stars
Рет қаралды 17 МЛН
Quand 🍑🍆💦 remplacent les mots | Linguisticae | Le Vortex#34
16:03
Le Vortex - ARTE
Рет қаралды 232 М.
Le problème de la génération procédurale
24:27
Underscore_
Рет қаралды 217 М.
Les animaux ont une culture et ça pète le crâne. (le mien en tout cas)
34:10
C'est une autre histoire
Рет қаралды 120 М.