Est-on en train de créer un monde dans lequel l’humain est de trop ?
Alors que la course technologique s’accélère, une question essentielle devrait être traitée : Si l’IA et les robots peuvent tout faire pour nous, est-on en train de pousser l’être humain vers l’obsolescence ?
Il y a vingt-trois ans, Bill Joy, co-fondateur et chef scientifique du géant technologique Sun Microsystems, publiait un long article dans la revue WIRED intitulé « Why the Future Doesn’t Need Us » (Pourquoi le futur n’a pas besoin de nous) dans lequel il partageait la révélation qu’il avait eue peu avant. Après une série de rencontres avec d’autres figures clés de la Silicon Valley, telles que le célèbre Ray Kurzweil, ce technologue-né au pédigrée scientifique et entrepreneurial irréprochable se rendait compte que l’univers technologique que l’être humain était en train de tisser constituait un environnement dans lequel lui-même risquait de ne plus avoir sa place.
Malgré un bagage et une réputation qui parlaient d’eux-mêmes, Joy dédiait onze paragraphes de cet article à se défendre contre toute suspicion de luddisme à son égard. Comme si n’importe quel discours qui questionnait la nécessaire corrélation entre développement technologique et progrès pour notre espèce constituait un potentiel signal d’irrationalité. En ce sens, les temps ont légèrement changé depuis quelques années : à mesure que les excès des géants technologiques ont été mis à la lumière du jour, qu’on a observé scientifiquement les conséquences psychologiques et sociales adverses de l’hyperconnectivité, ou encore, que l’Intelligence Artificielle (IA) laisse entrevoir des risques systémiques pour la société, il est aujourd’hui plus commun d’écouter des discours critiques à propos du numérique, y compris de la part des propres leaders technologiques qui en sont à l’origine.
Être un lanceur d’alerte a plus de cachet et bénéficie d’une plus grande bienveillance en 2023 qu’au moment où Joy publia cet article. Il y a quelques mois, Geoffrey Hinton – un des pères de l’IA générative – démissionnait de son poste chez Google pour retrouver sa liberté de parole et affirmait : « Une partie de moi se repentit du travail auquel j’ai dédié une grande portion de ma vie ». D’autres voix critiques – en commençant par le propre créateur du World Wide Web, Tim Berners-Lee – nous alertent depuis des années du tournant qu’Internet a pris et qui s’éloigne de ses nobles objectifs initiaux. Pour ne pas mentionner les doutes exprimés par les leaders des deux plus grandes puissances de l’IA du moment : Google et OpenAI. Sundar Pichai, CEO de la première, disait il y a quelques mois que les risques posés par l’IA le maintenaient éveillés pendant la nuit ; tandis que Sam Altman, le médiatique chef de l’entreprise derrière ChatGPT reconnaissait qu’il était « un peu préoccupé ».
En revenant à l’article que Bill Joy publia en avril de l’an 2000, rétrospectivement, celui-ci n’attire pas seulement l’attention pour le courage dont fit preuve son auteur à l’époque, mais aussi pour la clairvoyance de quelqu’un qui fut capable, en rassemblant les pièces d’un puzzle complexe et en s’appuyant sur une vision ample et profonde de l’industrie technologique, d’apprécier l’essence du défi sans précédents que la technologie qu’on commençait à développer allait supposer pour notre espèce. Et si cet effort requerrait alors des connaissances avancées ou beaucoup d’imagination, plus de deux décennies plus tard, l’actualité tout comme notre vie quotidienne permettent davantage au commun des mortels de voir se profiler de façon très concrète les scénarios esquissés par Joy. Cependant, le débat sur les risques existentiels de la technologie dont ce dernier regrettait qu’il soit aussi peu avancé en est resté à peu près au même point.
« Pourquoi le futur n’a pas besoin de nous » fait partie de ces textes dans lesquels on est tenté de tout surligner à mesure qu’on les lit, et il n’est donc pas facile d’en résumer sa vingtaine de pages. Sa thèse générale est que la combinaison entre IA, robotique, ingénierie génétique et nanotechnologies présente le risque de remplacer l’humanité de différentes façons possibles –éventualité avec laquelle Joy, en tant qu’acteur de cette industrie, se sentait très mal à l’aise.
Les interrogations du technologue se focalisent d’un côté sur le sens de la vie et la place de l’être humain dans un monde où la machine sera susceptible d’exécuter de plus en plus de tâches pour lui – et supposément, mieux que lui – et de l’autre, sur des scénarios d’extinction plus violentes pour l’espèce humaine.
Marginalisés ou réduits en esclavage
Dans le cas où nous serions capables de créer des machines intelligentes dont les capacités seraient supérieures à celles des humains, Joy distingue deux scénarios. Dans le premier cas, les machines seraient à mêmes de prendre leurs propres décisions sans supervision humaine, tandis que dans le second, les humains maintiendraient un certain degré de contrôle sur elles.
Dans le premier scénario, il serait impossible de nous faire une idée de comment elles se comporteraient une fois « libres » de prendre leurs propres décisions, mais l’humanité serait quoiqu’il arrive à leur merci. Même s’il peut sembler invraisemblable que les humains concèdent aux machines un pouvoir aussi élevé, Joy prédit que cela se produirait graduellement, sans suivre un plan prémédité : la société leur délèguerait de plus en plus de problèmes complexes et, à mesure que les humains perdraient la capacité de les résoudre par eux-mêmes, les machines prendraient effectivement le contrôle. Arrivés à ce stade, on ne serait non plus en mesure de les débrancher car nous ne serions plus capables de vivre sans elles.
Ce qui pouvait paraître, au moment où l’auteur écrivait, un exercice intellectuel purement spéculatif rencontre aujourd’hui un écho concret dans de nombreuses innovations. Au-delà des débats sur la super intelligence ou l’intelligence artificielle générale, ne sommes-nous pas en train de nous rapprocher de ce seuil ? La branche de l’IA qui s’est imposée dans les quinze ou vingt dernières années – fondée sur l’apprentissage automatique puis sur le deep learning – implique justement une supervision faible sur les machines de la part des humains : celles-ci ne sont plus programmées pour faire quelque chose mais font de plus en plus de choses par elles-mêmes. En même temps, à titre individuel, on a externalisé une grande partie de nos facultés cognitives aux smartphones et, dans ce processus, nous les avons progressivement perdues.
Cette dépendance et la perte de contrôle qui en a résulté promet de s’intensifier à mesure que les machines autonomes pénètreront plus profondément dans tous les recoins de nos vies. Quand toutes les voitures seront autonomes, nous ne saurons plus conduire et nous nous laisserons guider par ces dernières sur le chemin qu’elles choisiront pour nous – ce que nous faisons déjà lorsque nous nous laissons diriger par Waze. Serons-nous en mesure de formuler une réflexion complexe si nous l’externalisons à ChatGPT et nous cessons d’entraîner notre cerveau ? Que se passera-t-il si les armes létales autonomes (killer robots), auxquelles on délèguerait la décision de tuer, se perfectionnaient et devenaient complètement autonomes ? Nous ne pouvons pas le savoir mais tous ces cas illustrent cette perte de contrôle entrevue par Joy.
Dans le second scénario – dans lequel les humains maintiennent un certain contrôle sur les machines – la personne moyenne, prédisait-il, serait susceptible de contrôler à la rigueur une petite portion de la technologie qu’elle utiliserait à titre privé, mais le contrôle des infrastructures serait dans les mains d’une toute petite élite. Même si cela a toujours eu lieu, la différence réside dans le fait que, avec une technologie de plus en plus avancée de laquelle nous dépendrons dans toutes les facettes de notre existence, le pouvoir de ces micro-élite sur le reste de l’humanité sera incomparable.
L’avertissement de l’auteur nous renvoie aujourd’hui à une réalité encore plus palpable. Bien que les grands monopoles aient existé depuis les débuts du capitalisme industriel, les conglomérats qui les composaient exerçaient leur domination sur des portions limitées de la vie des personnes, avec des conséquences surtout économiques. Aussi colossal que fût leur poids, leur pouvoir d’influencer les marchés et les distorsions de la concurrence dont ils étaient responsables, ni la Standard Oil aux débuts du XXe siècle, ni AT&T dans les années 1980, et même pas Microsoft dans les années 1990, ne nous accompagnaient jour et nuit ou ne pénétraient dans nos esprits comme le font les géants de la tech aujourd’hui. Ils ne conditionnaient pas nos décisions, ne façonnaient pas nos relations sociales ou la manière dont nous employions notre temps au quotidien.
Les grandes compagnies technologiques actuelles, elles, sont capables d’actionner des leviers agissant sur notre comportement, sur notre pensée (la neurotechnologie devrait permettre, littéralement, d’accéder de façon de plus en plus invasive à notre activité cérébrale) et in fine, sur qui nous sommes. Et leur gouvernance est telle, qu’effectivement, une poignée de personnes dans le monde contrôlent leur devenir. Jamais le ratio entre l’influence exercée sur nos vies et le nombre de personnes responsables des entités qui en sont responsables n’a-t-il été aussi élevé.
Extinction
La caractéristique sur laquelle Bill Joy insiste le plus, conférant à la technologie du XXIe siècle un niveau de risque incomparable à celle des vagues d’innovation précédentes, a trait à sa capacité d’autoréplication : alors qu’une bombe n’explose qu’une seule fois, un bot peut se multiplier et se propager de telle manière qu’il échappe à notre contrôle. Et à mesure que ces bots ne seront plus purement numériques et seront capables de sauter au monde physique grâce aux croisements entre la robotique, l’IA, les nanotechnologies et les biotechnologies, les risques d’une autoréplication hors-de-contrôle changeraient de nature.
Pour illustrer cela, l’auteur évoque, entre autres images, le roman The White Plague de Frank Herbert, dans lequel un biologiste moléculaire devenu fou dissémine une peste ultra-contagieuse qui élimine les humains de manière sélective. Dans le récent documentaire The Unknown : Killer Robots (juillet 2023), le professeur de pharmacologie Sean Ekins – CEO de l’entreprise Collaboration Pharmaceuticals, qui utilise l’IA pour concevoir des molécules maximisant leurs propriétés curatives – partage une expérience personnelle qui présente une version actualisée et réaliste de l’abîme face à laquelle la combinaison de ces technologies pourrait nous mener :
Pour le compte d’une conférence sur les risques de l’IA dans son domaine, l’idée lui vient de remplacer un simple 1 par un 0 dans son modèle informatique, ce qui implique de donner à l’IA l’ordre opposé : celui de concevoir les molécules les plus létales possibles pour les humains. En se réveillant le lendemain, le chercheur trouve sur son ordinateur un fichier contenant les formules de quarante mille molécules dont la nocivité extrême aurait probablement conduit à l’extinction de l’humanité si jamais elles eussent été produites. Dans ce cas précis, tout est resté confiné sur un ordinateur et Ekins élimina immédiatement le fichier après avoir été pris d’un sérieux vertige. Mais il est facile d’imaginer comment un terroriste, un groupe criminel, un individu désespéré ou déséquilibré ou un simple accident de laboratoire, pourrait transformer en une expérience funeste pour notre espèce.
Un autre scénario d’extinction de l’humanité évoqué par Joy repose sur la difficile compatibilité entre les humains et une intelligence qui les dépasserait de loin. « Les espèces biologiques ne survivent presque jamais à une rencontre soudaine avec des concurrents supérieurs », argumente Joy en s’appuyant sur des épisodes historiques. Comme l’a expliqué par la suite le philosophe Nick Boström, la coexistence entre deux espèces intelligentes n’est pas réaliste ». Dans les dernières années, cette préoccupation a gagné du terrain chez de nombreux spécialistes sans qu’elle n’ait pour autant donné lieu à un véritable débat. Peu avant de mourir, Stephen Hawking plaisantait sur la question : « Si une civilisation extraterrestre nous envoyait un message pour nous prévenir de leur arrivée sur notre planète dans quelques décennies, est-ce que nous nous limiterions à leur répondre : “D’accord, appelez-nous quand vous serez là” ? Probablement non, et pourtant, c’est ce que nous sommes en train de faire avec l’IA ». Le seul champ dans lequel on se pose cette question est le domaine économique – plus précisément celui du travail – où on se demande quels emplois il nous restera lorsque les machines feront tout mieux que nous. Mais il n’existe pas de vrai questionnement sur ce que signifie nous auto-marginaliser en tant qu’espèce dans le monde que nous habitons.
En définitive, la recherche d’efficience poussée à son paroxysme, dans un but d’optimisation appliquée à tous les aspects de notre vie, et la nostalgie d’un Eden dans lequel nous n’aurions pas à travailler et pourrions nous consacrer au loisir, semble nous conduire progressivement vers un monde dans lequel l’être humain est de moins en moins essentiel, et par conséquent, où il est plus facile d’en faire l’économie. Voici ce que Bill Joy perçut il y a vingt-trois ans et qu’il est désormais plus facile d’imaginer. La boite de Pandore « presque ouverte » qu’il décrivait pourrait désormais l’être complètement, mais la fascination continue à s’imposer au détriment d’un débat plus que fondamental sur la place que notre espèce souhaiterait véritablement occuper d’ici vingt-trois ans de plus.