
« Des idées inspirées de mouvements comme le transhumanisme ou le long-termisme »
Après une période assez défensive dans le secteur de la tech, des dirigeants comme Sam Altman, le père de ChatGPT, ou Elon Musk renouent avec des accents prométhéens, voire messianiques. Des idées inspirées de mouvements comme le transhumanisme ou le long-termisme, que les voix critiques jugent dangereuses.
ARTICLE
Derrière l’intelligence artificielle, le retour d’utopies technologiques
« Nous avons perdu notre sens de l’optimisme à propos de l’avenir – parfois pour de bonnes raisons. Mais je crois que c’est notre devoir à tous de le raviver. (…) Et le seul moyen que je connais pour le retrouver, c’est d’utiliser la technologie pour créer l’abondance. » Ce credo a été formulé par Sam Altman, le PDG d’OpenAI, le 15 mai, lors d’une conférence à Toronto. Moins de six mois après avoir lancé le robot conversationnel ChatGPT, l’entrepreneur américain de 38 ans s’exprimait dans la métropole canadienne à l’occasion d’une tournée mondiale digne d’un chef d’Etat qui l’a mené à Bruxelles, Rio, Londres, Tokyo ou Paris – où Emmanuel Macron l’a reçu à l’Elysée. Son entreprise, OpenAI, a remis en lumière l’intelligence artificielle (IA), qui sera un des sujets stars du salon VivaTech, organisé à Paris du 14 au 17 juin, avec comme intervenants le président français, Elon Musk ou des responsables de Google DeepMind.
Un changement de ton dans le secteur de la tech
Cette profession de foi en faveur du « techno-optimisme », Sam Altman l’avait déjà théorisée en 2021, dans un billet titré « La loi de Moore pour toute chose ». Une référence au principe, énoncé par l’ingénieur Gordon Moore, de croissance exponentielle de la capacité de calcul des puces d’ordinateur.
« Le progrès technologique que nous ferons dans les cent prochaines années dépassera largement tout ce que nous avons fait depuis que nous avons maîtrisé le feu et inventé la roue »,y prédisait le dirigeant d’OpenAI, concédant que « cela semble utopique ». « Nous pouvons bâtir une intelligence artificielle générale. Nous pouvons coloniser l’espace. Nous pouvons faire marcher la fusion nucléaire et massifier l’énergie solaire. Nous pouvons guérir toutes les maladies. Nous pouvons construire de nouvelles réalités », a-t-il depuis détaillé, dans une série de tweets de février 2022… peu avant le lancement de ChatGPT et de DALL-E2, ces logiciels capables de créer, à partir d’instructions écrites, des textes et des images bluffants.
Le propos de Sam Altman illustre le retour, dans la tech, de discours plus conquérants, voire prométhéens et messianiques. Depuis 2016, le ton était souvent plus défensif et policé chez les dirigeants des géants du numérique Facebook, Google, Apple ou Amazon, tour à tour accusés d’avoir laissé des Etats interférer dans l’élection de Donald Trump, mal protégé des données personnelles, abusé de leur position dominante…
Lire le décryptage : ChatGPT, le logiciel capable d’écrire des petits textes confondants
Ces messages plus ambitieux sont nourris par l’essor de l’IA. Mais aussi par l’émergence de start-up dans des domaines éloignés du Web, comme les biotechnologies ou l’énergie. Ils sont portés par des figures telles que Sam Altman, ex-PDG de l’incubateur de start-up Y Combinator, ou Elon Musk, qui continue – dans son style provocateur rappelant Donald Trump – d’étendre son conglomérat, dans l’automobile (Tesla), les implants cérébraux (Neuralink), l’espace (SpaceX)… Dans ce dernier domaine, il a pour rival Jeff Bezos, l’ex-PDG d’Amazon, désormais investisseur multisecteur.
Le paradoxe des messages alarmistes sur l’IA
Redevenu utopiste, le secteur de la tech ? La lecture des titres de presse sur l’intelligence artificielle ne dépeint pourtant pas un tableau aussi uniformément rose. « Il y a autour de l’IA une résurgence de discours utopiques, mais aussi dystopiques et apocalyptiques. C’est une dichotomie très californienne »,décrypte Alexei Grinbaum, membre du Comité national pilote d’éthique du numérique. En effet, deux lettres ouvertes alarmistes ont pointé les risques existentiels que créeraient des systèmes d’IA avancés, capables de dépasser les humains sur de nombreuses tâches – une capacité souvent résumée dans l’expression « intelligence artificielle générale ». L’un des textes, soutenu par Elon Musk, réclamait une « pause » des recherches.
Mais les apparences peuvent se révéler trompeuses : certains des signataires de ces tribunes sont souvent aussi des apôtres d’une« superintelligence » : Sam Altman a ainsi signé la pétition du 13 mai comparant les « risques d’extinction posés par l’IA » à ceux « des pandémies ou de la guerre nucléaire ». Demis Hassabis, directeur du fleuron de l’IA Google DeepMind, est également signataire, mais il a rappelé sur la chaîne CBS avoir « toujours cru que l’IA allait être l’invention la plus importante jamais faite par l’humanité ».
Le paradoxe exprimé dans ces prises de position est en fait présent depuis les débuts d’OpenAI, en 2015. A l’époque, Elon Musk, cofondateur d’OpenAI et de DeepMind – qu’il a quittés depuis – voyait déjà dans l’IA une menace « potentiellement plus grande que les bombes nucléaires ». Mais, jugeant cette technologie inarrêtable, les créateurs d’OpenAI se sont donné pour mission de « faire émerger l’intelligence artificielle générale de façon sûre et bénéfique pour tous ». « Malgré l’angoisse existentielle liée à l’IA, je préfère être vivant aujourd’hui et témoin de l’émergence de l’intelligence artificielle générale », a résumé Elon Musk sur Twitter en février.
Lire aussi : OpenAI : dans la tête des créateurs de ChatGPT
Ce mélange de pessimisme et d’optimisme radical est présent même chez Nick Bostrom, pourtant vu comme un chef de file des personnes inquiètes des dangers d’une IA hors de contrôle. Le directeur du Future of Humanity Institute, un think tank de l’université britannique d’Oxford, a mis en avant le concept de « risque existentiel » et publié, en 2014, Superintelligence (Dunod, 2017, pour l’édition française), considéré comme un livre de référence sur les menaces de l’IA.
Mais M. Bostrom estime aussi que « les bénéfices potentiels de cette technologie, tout comme ses risques potentiels, sont très grands »,comme il l’explique par e-mailau Monde. Un euphémisme : pour lui, créer une superintelligence permettrait « l’élimination du vieillissement, de la maladie et de la pauvreté, le voyage dans l’espace, une durée de vie indéfinie »,voire « le téléchargement de nos esprits dans des ordinateurs, puis leur amélioration et leur expansion »,a-t-il listé en mai dans Philosophie Magazine.
« Une techno-utopie dangereuse »
Des oracles aussi futuristes sont bien sûr loin de faire consensus. Certains y voient une pensée toxique : « Derrière la lettre demandant une pause, il y a des courants transhumanistes »,a mis en garde le 12 avril, sur France Inter, Jean-Gabriel Ganascia, ex-président du comité d’éthique du CNRS, voyant dans les textes alarmistes une expression de la pensée de « Nick Bostrom, ce philosophe suédois théoricien de la superintelligence et du long-termisme ». En effet, ce dernier est une figure de proue du transhumanisme, mouvement visant à « améliorer » les capacités humaines par la technologie, car il a cofondé en 1998 la World Transhumanist Association. Et M. Bostrom est également connecté au long-termisme, qui est né à l’université d’Oxford et qui lui emprunte son concept de « risques existentiels ».
Pour les long-termistes, éviter ces derniers est un enjeu central car ce courant de pensée invite ses adeptes à prioriser dans leurs décisions les « trillions de vies humaines » qui vivront dans le futur. Dans le cas de l’intelligence artificielle générale, face à « l’incertitude » entourant cette technologie, il convient de soutenir les organisations qui tentent « d’orienter sa trajectoire » vers son « développement dans des bonnes conditions de sûreté »,écrit le philosophe écossais et figure du mouvement William MacAskill, dans What We Owe to the Future (« ce que nous devons à l’avenir » Oneworld Export, 2022, non traduit), dont Elon Musk a dit qu’il « était assez proche de sa philosophie ».
Lire aussi l’enquête : Gagner plus pour donner plus : l’altruisme efficace, philanthropie de l’extrême
« Le fait que l’intelligence artificielle générale soit discutée dans les médias remet en lumière une techno-utopie dangereuse », décrypte Emile P. Torres. Doctorant en philosophie à l’université Leibniz de Hanovre, cet Américain connaît bien cette famille de pensée… puisqu’il en a été un apôtre. « J’y ai cru à partir de 2014, parce que je pensais que le développement technologique était inarrêtable et que le futur serait transhumaniste. Mais à partir de 2019, j’ai commencé à me dire que c’était un truc de mâle capitaliste occidental blanc qui veut exploiter la nature… Et, lors de recherches sur les mouvements apocalyptiques, j’ai trouvé des similitudes qui m’ont inquiété. »
Ce repenti combat désormais le mouvement pour lequel il a inventé un acronyme : Tescreal. Les initiales de « transhumanisme » et de trois variantes : l’« extropianisme », cofondé en 1991 par Max More et Natasha Vita-More, le « singularitarisme », popularisé par l’ingénieur Ray Kurzweil et centré sur la « singularité », ce moment où l’IA est supposée dépasser l’intelligence humaine, et enfin le « cosmisme », lié au manifeste de conquête de l’espace du transhumaniste Ben Goertzel. M. Torres y associe le « long-termisme » et le mouvement dont ce dernier est issu, l’« altruisme effectif », fondé sur l’analyse des moyens les plus efficaces de faire des dons… mais terni par l’inculpation pour fraude de son soutien Sam Bankman-Fried, de la plate-forme de cryptomonnaies FTX.
Lire aussi l’enquête :Les vertiges du transhumanisme
Dans sa croisade, M. Torres s’est allié à Timnit Gebru, l’ex-chercheuse en éthique de Google licenciée après avoir écrit un article dénonçant les biais des modèles de traitement du langage par l’IA. Leur offensive contre les « tescrealists » fait réagir : le très technophile investisseur Marc Andreessen a, par défi, inclus le mot dans sa biographie sur Twitter, au côté d’« accélérationniste de l’IA ».
Les apôtres de la tech sortis des marges
« Après chaque avancée de l’IA, il y a une pulsion prométhéenne »,estime Laurent Alexandre, l’essayiste et polémiste français qui, depuis des années, se fait le héraut de l’avènement du transhumanisme.Pour lui, la précédente poussée remonte à 2012-2016, quand, à la fin des années Obama, AlphaGo de DeepMind devenait champion du jeu de go et les fondateurs de Google, Sergey Brin et Larry Page, embauchaient Ray Kurzweil ou lançaient dans Time un « défi à la mort » avec leur filiale consacrée à l’allongement de la vie, Calico. Aujourd’hui, pour M. Alexandre, les idées transhumanistes réémergent, avec de nouveaux « porte-drapeaux », comme MM. Musk ou Altman.
Lire aussi : Google, une certaine idéologie du progrès
Dans la mouvance transhumaniste, on dénonce « l’amalgame » du terme Tescreal,mais on trouve l’époque enthousiasmante. « Il y a dix ans, l’idée de changement exponentiel, lié à la loi de Moore, était une hypothèse. Aujourd’hui, cela se produit »,pense Darlene Damm, de la Singularity University, un think tank de la Silicon Valley créé par Ray Kurzweil et Peter Diamandis, grand promoteur de l’exploration spatiale privée et de l’idée qu’on pourrait « inverser » le vieillissement.
« Beaucoup des choses dont nous parlions dans les forums spécialisés il y a dix ans ressortent aujourd’hui »,s’amuse Allison Duettmann, une Allemande qui raconte d’emblée s’être intéressée au transhumanisme car elle a « toujours refusé de mourir ». Autrice dès 2014 d’un mémoire sur les risques existentiels de l’IA, celle-ci dirige aujourd’hui le Foresight Institute, créé à San Francisco en 1986 autour des nanotechnologies. Habituée à prêcher dans les marges, elle se réjouit de l’émergence de nouvelles start-up dans les domaines promus par son think-tank : l’IA, les biotechnologies et la longévité.
Implants cérébraux, biotech, longévité et fusion nucléaire…
Fondé par Elon Musk, Neuralink a ainsi marqué les esprits fin mai en obtenant le feu vert pour tester sur des humains ses implants cérébraux permettant de piloter un ordinateur « par la pensée ». L’objectif, thérapeutique, vise à restaurer les capacités des personnes atteintes de paralysie ou aveugles, a expliqué M. Musk. Mais ces implants – dont il compte s’équiper – pourraient aussi permettre aux humains d’éviter de se faire doubler par les machines en « réussissant la symbiose avec l’intelligence artificielle », a-t-il exposé au site Axios en 2019.
Neuralink a plusieurs concurrents, dont Synchron, soutenu par Jeff Bezos et Bill Gates, le fondateur de Microsoft. Sam Altman a, lui, investi dans Neuralink et, en 2018, dans Nectome, une start-up proposant à ses clients de conserver leur cerveau – après les avoir euthanasiés – dans l’espoir d’en numériser un jour le contenu, a rapporté la revue du MIT, MIT Technology Review.
Dans le domaine de la longévité et des recherches contre le vieillissement, la start-up Altos Labs a été fondée en 2019 avec, selon la revue du MIT, parmi ses actionnaires l’entrepreneur russe Iouri Milner et Jeff Bezos – qui n’a pas confirmé ni démenti. Un autre projet, Retro Biosciences, s’est installé en 2022 dans un ex-entrepôt de San Francisco et a pour actionnaire Sam Altman.
Dans les biotechs, ce dernier a investi – avec Jaan Tallinn, le cofondateur de Skype – dans Conception, qui travaille sur la gamétogenèse, une technique de création in vitro d’œufs à partir de cellules souches. « Cela permettrait aux femmes d’avoir des enfants passé leur cinquantaine, et potentiellement aux couples d’hommes d’avoir des enfants biologiques », explique le site de la start-up. Cette technique est également étudiée par la start-up Gameto et par l’université Oregon Health & Science. Et elle permettra à terme, selon Conception, de pratiquer « des tests génétiques à large échelle sur les embryons ».
Dans un tout autre domaine, des magnats du numérique se sont lancés dans la fusion nucléaire, beaucoup plus prometteuse – et incertaine – que la fission des centrales actuelles. Google DeepMind s’y intéresse. Jeff Bezos soutient la start-up General Fusion, Bill Gates Commonwealth Fusion Systems, et Sam Altman Helion. Cette dernière vient de nouer un accord d’achat de son énergie future avec Microsoft, déjà investisseur dans OpenAI.
Lire aussi : Intelligence artificielle : Microsoft prêt à investir davantage dans la pépite OpenAI
Enfin, dans l’industrie spatiale, deux milliardaires affichent aussi des ambitions presque sans limite : Elon Musk veut faire de l’humanité une « espèce multiplanétaire » en colonisant Mars, et Jeff Bezos imagine un « trillion d’humains » – soit « mille Mozart, mille Einstein, mille de Vinci » – vivant dans des stations cylindriques en orbite.
Distraction et « solutionnisme »
Pour les critiques, ces visions d’un futur radieux sont porteuses de dangers. « Dans l’IA, se focaliser sur des choses lointaines et hypothétiques, comme l’intelligence artificielle générale et ses risques supposés, détourne l’attention de la lutte contre les dangers bien réels à court terme de cette technologie »,estime Alex Hanna, une ancienne de Google qui a cofondé avec Timnit Gebru Distributed AI Research Institute, un institut de recherche sur l’IA indépendant. En ligne de mire : les biais sexistes ou racistes des algorithmes, l’usage de logiciels dans l’accès à l’emploi, au crédit ou à l’asile, le pillage d’œuvres protégées pour entraîner les IA ou le recours à des salariés sous-payés au Kenya pour les modérer… Ce risque de distraction a aussi été souligné par l’ONG AI Now Institute, l’entreprise Hugging Face ou la chercheuse Joelle Pineau, de Meta (Facebook, Instagram).
Lire aussi l’éditorial du « Monde » : Intelligence artificielle : ne pas se tromper de régulation
En outre, espérer que des technologies futures, comme une super-IA, puissent résoudre les problèmes du changement climatique, de l’accès à la santé ou à l’éducation, comme le croit OpenAI, serait « solutionniste », selon l’expression d’Evgeny Morozov, auteur de Pour tout résoudre, cliquez ici (FYP, 2014). « Pour les “tescrealists”, tout est une question d’ingénierie. Ils minimisent les causes politiques, sociales et économiques »,pense Emile P. Torres. « C’est étrange de parler de longévité l’année où, pour la première fois, l’espérance de vie des Américains est en baisse »,ironise Alex Hanna, rappelant que San Francisco n’arrive pas à limiter les ravages de l’opioïde fentanyl dans ses rues…
Le reproche de l’eugénisme
M. Torres et Mme Gebru vont plus loin : pour eux, le concept d’intelligence artificielle générale est élitiste, discriminatoire et même eugéniste. Ils invoquent certaines références historiques – Julian Huxley, inventeur en 1957 du mot« transhumanisme » et frère d’Aldous, l’auteur du Meilleur des mondes, était un théoricien de l’eugénisme, et M. Bostrom a affirmé que les « Noirs sont plus stupides que les Blancs », en 1997, sur un forum, avant de formuler des excuses. Surtout, les critiques dénoncent la volonté de créer des capacités « surhumaines ».
Marcy Darnovsky, de l’ONG Center for Genetics and Society, rappelle aussi la volonté de transhumanistes comme Max More de créer des « bébés OGM » ou « sur mesure »,aux gènes choisis. « Certes, les modifications du génome transmissibles à la descendance sont interdites dans 70 pays,concède-t-elle. Mais cette situation pourrait être remise en cause. Et les tests génétiques sont très peu régulés aux Etats-Unis. » L’activiste craint l’apparition d’un « eugénisme hipster » – pointé par le site Business Insider – chez des couples aisés recourant aux tests polygéniques, censés prédire la probabilité pour l’enfant d’exprimer certains traits, voire son « niveau d’études ». Elle ajoute que la gamétogenèse a été citée par M. Bostrom en 2013 comme un moyen « d’améliorer cognitivement » la population, en testant puis sélectionnant, en série, les œufs jugés les meilleurs. « L’IA surhumaine va arriver, l’amélioration génétique va arriver, les interfaces cerveau-machine vont arriver »,prédisait de son côté M. Altman, en 2017, sur son blog.
Les réponses prudentes de Sam Altman
Que pense aujourd’hui le PDG d’OpenAI ? Interrogé lors de son passage à Paris, où les autorités ont insisté sur la régulation de l’IA, Sam Altman tient un discours optimiste mais prudent. L’intelligence artificielle générale est un « outil »,qu’il ne faut pas « anthropomorphiser », plaide-t-il, lors d’un échange avec quelques journalistes, après une conférence à l’incubateur de start-up Station F (lancé par Xavier Niel, actionnaire du Monde à titre individuel).Le père de ChatGPT assure aussi « ne pas être totalement utopiste ». « Je ne pense pas que la tech peut résoudre tous les problèmes. Il faut une combinaison entre la technologie, la société et les autorités. Et fixer des limites »,explique-t-il.
Lire aussi : Sam Altman, PDG d’OpenAI : « Il faut trouver le bon équilibre entre régulation et innovation »
S’il affirme « ne pas avoir d’échanges » avec les long-termistes, M. Altman « n’est pas d’accord avec l’idée qu’il vaudrait mieux se concentrer sur le présent plutôt que sur le futur » : « L’intuition humaine est mauvaise pour prévoir les courbes exponentielles », argumente-t-il, ironisant sur ceux qui, en 2019, à la sortie de GPT-2, l’ancêtre de ChatGPT, « disaient que cela n’irait nulle part ».
Est-il favorable au branchement des cerveaux sur une machine ? « Je ne veux pas d’un implant Neuralink dans ma tête »,répond-il, non sans ajouter que « son opinion pourrait évoluer » et que « la tech nous augmente »,à l’image des smartphones. L’investisseur, qui dit avoir misé sur « des centaines » de start-up, nie croire au rêve d’immortalité : il dit avec Retro Biosciences chercher à « garder les gens en bonne santé jusqu’à 90 ou 100 ans ».
Sur l’accusation d’eugénisme, M. Altman raconte avoir entendu « qu’on ne devrait pas utiliser l’IA pour éliminer toutes les maladies génétiques, car ce serait discriminatoire, notamment envers les handicapés ». « Je ne suis pas d’accord », ajoute-t-il. Mais passerait-il de la suppression de maladies à l’amélioration des capacités d’une personne ? « Je ne sais pas si je peux vous dire de façon parfaitement claire où se trouve la limite, explique-t-il. D’une certaine façon, toute la médecine moderne nous a améliorés… Toutefois, pour mes enfants, je suis favorable aux tests génétiques mais je ne modifierais pas leur génome pour les rendre super ceci ou super cela. »
Des prédictions très futuristes
Certains seraient prêts à aller plus loin : en janvier, dans ses excuses après son message raciste, Nick Bostrom se reconnaissait « favorable à un large choix parental, incluant certaines applications qu’on qualifierait d’“améliorations”, plutôt que de “thérapies” ». Modifier son génome « ne serait qu’une option supplémentaire et les gens ne choisiraient peut-être pas tous les mêmes choses, cela pourrait créer des nouvelles sous-cultures », spécule de son côté Allison Duettmann.
« Nous pourrions imaginer de meilleures façons d’être humains : pourrions-nous collaborer davantage avec les machines ou avoir des implants pour augmenter notre mémoire ? »,s’interroge le chercheur Jonathan Stray, du Center for Human-Compatible AI de l’université de Berkeley. Pour Laurent Alexandre, « la neuro-augmentation, soit par l’IA, soit par voie génétique, va être une option considérée par la société ».
Bien sûr, les conjectures les plus futuristes sont à prendre avec recul. On est tenté de sourire des gens qui ont pris des dispositions pour se faire cryogéniser à leur mort dans l’espoir d’être un jour ravivés, à l’image de Nick Bostrom, Ray Kurzweil, Max More, Mme Duettmann ou Peter Thiel, le milliardaire libertarien qui a cofinancé le lancement de DeepMind et OpenAI. De même, Calico n’a pas fait reculer la mort.
Quant à l’idée d’une superintelligence amicale ou hostile, elle existe depuis les années 1960 et ce concept est contesté. Pour l’heure, les IA n’ont pas la capacité de raisonnement d’un enfant, répète Yann Le Cun, de Meta. Faire des prédictions fascinantes serait aussi une façon d’alimenter le buzz et le business. Quant à la génétique, son rôle dans les qualités humaines reste méconnu, de même que la définition et les déterminants de l’intelligence.
Un nouveau clivage politique ?
Mais, même s’ils ne se réalisent pas, les discours des apôtres de la tech ont une portée « politique », souligne Mme Darnovsky : ainsi, « améliorer » le génome d’individus, même si c’était inefficace, pourrait créer une « perception » que ceux-ci sont supérieurs… Plus largement, pense la militante, les idées transhumanistes ou long-termistes se développent car il existe un « vide idéologique » aux Etats-Unis, à côté de la droite conservatrice. Le discours pro-technologie, note-t-elle, peut trouver un écho du côté républicain – Elon Musk soutient le candidat à la présidentielle Ron DeSantis et Peter Thiel a conseillé M. Trump – mais aussi du côté démocrate – Sam Altman s’est revendiqué opposant à M. Trump.
Dans son billet sur « La loi de Moore pour toute chose », le PDG d’OpenAI imagine un « capitalisme pour tous » où la « richesse phénoménale » créée par l’IA serait redistribuée par l’intermédiaire d’une taxation des entreprises et des terrains fonciers. Le recul de l’emploi serait compensé par un « revenu universel ».
A l’heure de la guerre en Ukraine, de l’inflation, de la crise énergétique et des appels à la sobriété, les discours pro-tech sont aussi des plaidoyers pour la croissance. Ainsi, sur le changement climatique, plutôt que « faire culpabiliser les gens pour qu’ils fassent le moins de choses possible et n’aient pas d’enfants », il faut chercher « des innovations permettant une énergie illimitée et propre »,a tweetté M. Altman en 2022, fustigeant « l’austérité » et « la décroissance ».
Pour Laurent Alexandre, auteur de La Guerre des intelligences à l’heure de ChatGPT (JC Lattès, 480 pages, 21,90 euros), « il va y avoir une opposition entre transhumanistes et bioconservateurs et cet axe politique va devenir plus important que l’axe droite-gauche ». L’essayiste – qui, en 2022, dans Valeurs actuelles, ne cachait pas sa sympathie pour Jordan Bardella, le président du Rassemblement national, vu comme « le Raymond Barre de 2030 » – n’a pas de mots assez durs contre « les écologistes qui cassent le nucléaire pour faire de la décroissance » et les « programmes de retour au Moyen Age que nous vendent les Khmers verts ». « Jeff Bezos gagnera contre Greta Thunberg »,n’hésite-t-il pas à écrire, en référence à l’écologiste suédoise et au fondateur d’Amazon, qui justifie la colonisation de l’espace par un refus de « l’arrêt de la croissance ».
Lire l’entretien (2017) : « La tech doit être une force politique »
Quelle portée auront les discours des prophètes de l’IA et de la tech ? « La tech doit être une force politique »,disait Sam Altman en 2017, après l’élection de M. Trump. « La plupart des gens veulent “plus et mieux”, pas “moins et pire” », tweetait-il en 2022. Mais la société veut-elle pour autant des utopies technologiques ?
Alexandre Piquard