Le 'long-termisme' : la nouvelle croyance d'Elon Musk et des autres milliardaires high tech
Le 'long-termisme' est une idéologie qui concentre nos actions sur la manière de sauver l'humanité de l'avenir. Selon les détracteurs de cette doctrine philosophique, cette obsession du futur rend les long-termistes prêts à sacrifier la vie de ceux qui vivent dans le présent. Revenons un peu sur les fondamentaux de ce courant de pensée que Musk est loin d’être le seul à partager.
Elon Musk et d'autres techno-milliardaires apprécient énormément cette philosophie, car elle permet de justifier leurs projets. Bien souvent, ces derniers représentent souvent un gaspillage de millions de dollars dans des entreprises qui seront probablement utiles dans un avenir lointain. (En parallèle, ils parviennent à "économiser" sur les salaires de leurs travailleurs ou améliorent la vie réelle des gens aujourd'hui).
L'un des fondateurs du 'long-termisme' est William MacAskill. Philosophe écossais, né à Glasgow en 1987, il défend ''l'altruisme efficace". Il propose de vivre avec suffisamment d'argent (un peu à la manière monastique) et de consacrer le reste aux causes qui sont vraiment prioritaires. Mais, comment bien choisir ?
Photo : De Sam Deere - Ses travaux, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=113303441
''L'altruisme efficace" tente d'appliquer des calculs économiques à la charité : il faut placer son argent, affirme William MacAskill, dans des causes qui, avec peu d'investissement, donnent beaucoup de bénéfices. Les règles du capitalisme boursier seraient appliquées en quelque sorte à la solidarité humaine.
Mais peu à peu, William MacAskill a évolué vers un 'long-termisme' qui croit que l'extinction de l'humanité est une possibilité absolument certaine. Selon lui, la seule chose qui vaille la peine de se battre est que, dans des milliers d'années, il y aura des survivants de notre espèce pour perpétuer la civilisation.
Photo : Ryan Cheng / Unsplash
William MacAskill soutient que nous ne devrions pas (entièrement) abandonner les préoccupations du présent, mais selon certains experts, d'autres auteurs long-termistes se seraient installés dans une sorte de millénarisme avec quelques obsessions fondamentales : l'intelligence artificielle et les armes biologiques.
Photo : Fallon Michael / Unsplash
Le changement climatique est un risque à prendre en compte, mais les long-termistes n'y attachent pas beaucoup d'importance. Selon eux, la science peut y mettre un terme.
Photo : Roya Ann Miller / Unsplash
William MacAskill a écrit dans un article pour la 'BBC' : "De notre vivant, nous serons confrontés à des défis tels que le développement d'une intelligence artificielle avancée et la menace d'armes biologiques utilisées dans une troisième guerre mondiale, qui pourraient s'avérer déterminants pour tout l'avenir de la race humaine".
Un autre auteur long-termiste, retweeté par Elon Musk, est Nick Ostrom, qui a écrit que l'exploration spatiale doit être une priorité pour échapper à une planète qui, tôt ou tard, sera inhabitable.
Photo : Pete Linforth / Pixabay
Le 'long-termisme' tend à considérer l'extinction de la race humaine comme certaine. En fin de compte, il s'agirait de préserver une communauté survivante optimale pour poursuivre la civilisation.
Photo : Nicoli Afina / Unsplash
Le 'long-termisme' s'inscrit dans la vision de nouveaux riches comme Sam Bankman-Fried (en photo), qui a fait fortune grâce aux crypto-monnaies. Philanthrope, il fait régulièrement des dons aux associations qui se rallient à cette cause. Pour ces milliardaires du XXIe siècle, le présent ne présage rien de bon et il faut inventer un futur (virtuel ou réel) pour remplacer les problèmes de cette planète.
Photo : Cointelegraph, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=117330237
Les auteurs du 'long-termisme' essaient de transformer en mathématiques ce qui n'est que pure spéculation sur l'avenir. Et c'est donc là que réside tout le problème de ce concept.
Photo : Tom Parkes / Unsplash
Gideon Lewis-Kraus a côtoyé des long-termistes. Dans le 'New Yorker', il publie : "Selon les chances que l'on attribue à tel ou tel résultat, une réduction de 0,0001 % du risque existentiel global pourrait valoir plus que l'effort pour sauver un milliard de personnes aujourd'hui".
Certains auteurs long-termistes appliquent donc la logique en évitant tout sentimentalisme ou une quelconque forme de moralité. C'est d'ailleurs le cas de Nick Beckstead qui a déclaré : "Il me semble maintenant plus plausible qu'une vie dans un pays riche est bien plus importante que celle d'un état pauvre".
C'est pourquoi certains pensent que les long-termistes sont des esprits brillants qui, au fond, ont tout simplement besoin de s'échapper de leur quotidien. Ils parlent de l'avenir et de la menace de l'intelligence artificielle, mais ne souhaitent pas affronter le présent.
Photo : Diane Picchiottino / Unsplash
Dans ce même article, Gideon Lewis-Kraus compare le 'long-termisme' a une sorte de culte religieux.
Photo : Timothy Eberly / Unsplash
Il ne reste plus qu'à Elon Musk, dans sa quête incessante de notoriété, de pouvoir et de postérité, de fonder l'Église du 'long-termisme' et de s'en faire le prophète. Cette idée est loin d'être farfelue, bien au contraire.
Lire aussi : La sixième extinction de masse pourrait arriver plus rapidement que prévu