Contradictions techno-optimistes
Il m'est arrivé d'écouter des critiques injustes à l'encontre de laurent alexandre, ce qui est dommage car il y a énormément à critiquer de façon rationnelle et respectueuse, sans aucun besoin de caricaturer ou déformer son discours. Certes, le penchant de l'intéressé pour la polémique y est sans doute pour quelque chose. Je mentionne déjà quelques unes de ses contradictions dans mon livre Anesthésiés.
Plus récemment, j’ai écouté le podcast Génération Do It Yourself où Matthieu Stefani interviewe le fondateur de Doctissimo et je décèle au moins quatre grandes incohérences dans ce techno-optimisme poussé à l'extrême, que 3 heures d'émission n’ont pas (il me semble) éclaircies :
1. Croyance invétérée en la complémentarité humain-machine
Sur quoi cette complémentarité serait-elle fondée si on considère, par ailleurs, que “l’intelligence humaine ne représentera plus que 1/1 000 000 de l’intelligence sur terre” ? Est-ce que ce ratio (probablement pas tout à fait scientifique) doit nous donner une idée de la place respective de chacun – humain et machines – dans cet avenir dominé par l'IA et de la complémentarité supposée que porte ce paradigme ?
On écoute encore : “On sous-traitera une partie de notre intelligence à la machine”. Laquelle ? Si on est d'accord avec d'autres propos tenus, on a du mal à voir comment ça ne serait pas 100% de notre intelligence.
2. L’IA comme un merveilleux outil dans les mains de l’humain
Dans la même ligne: l’IA est présentée comme un outil piloté par l'Homme. Mais L. Alexandre affirme par ailleurs que "l’intelligence est la source de tous les pouvoirs". Il en découle assez naturellement que l’IA ne sera pas un simple outil mais qu’elle aura un énorme pouvoir sur nous.
Nul besoin de se projeter dans un futur à long terme pour comprendre comment l'IA a déjà exercé un fort pouvoir sur nous du fait de sa croissante autonomie et puissance. Son rôle dans la circulation de l'information avec l'émergence des réseaux sociaux a par exemple contribué à influencer, persuader, déformé la réalité, avec l'impact psychologique, social et politique que nous connaissons. Ces effets inespérés ont eu lieu alors que l'IA n'en est qu'à un stade tout à fait initial.
3. Positions en matière d'éducation
Une grande partie du podcast est dédiée à ce sujet. La grande idée s’il était ministre de l'Éducation nationale : négocier un deal avec #OpenAI pour que chaque écolier dispose d’une licence premium de GPT 4.0 à tarif réduit. C’est tout ?
Pourtant, il parle ensuite de l’importance d’une éducation holistique, de la multi-disciplinarité, du goût de l’effort, du multilingüisme… autant de valeurs qui à mon avis se rapprochent de ce que le modèle de l'école actuelle vise à fomenter (même si elle le fait assez mal : c’est peut-être là où il faudrait creuser).
➜ Ces valeurs sont-elles compatibles avec une école où on apprendrait à prompter 5 heures par jour ? Il y a 6 mois, personne ne savait prompter et maintenant, il y a des experts en la matière (dont L.A. loue la supériorité et la capacité à gagner beaucoup d'argent)… Devrait-on vraiment passer des heures par jour à inculquer aux enfants la façon de prompter? Même si le but de la vie et la clé du succès reposait sur cette habilité, celle-ci ne découlerait-elle pas davantage de cette éducation holistique dont on parlait avant ?
4. Foi dans l'inconnu vs. rationalité
On pourrait résumer la position de L.A. de la manière suivante : “L'IA nous plonge dans l'inconnu, elle crée de l’imprévisible, c’est une révolution sans précédent, etc. Le pouvoir réside dans l’intelligence et nous allons en perdre le monopole… mais lançons-nous dedans avec joie et sans crainte, on verra bien ce qu’il se passe car jusqu'à présent, l'innovation a toujours été favorable à l'humanité.”
À mon sens, cela relève de la foi, de l'irrationnel, alors qu'on présente ses arguments comme émanant de la rationalité.
En quelque sorte, on affronterait un tsunami imparable, face auquel la seule issue intelligente serait l’adaptation. Mais par définition, on ne s’adapte pas à un tsunami: soit on en meurt, soit on s’en protège, soit on y échappe.
Ne faudrait-il pas plutôt penser ce que cette perte de contrôle signifie pour notre espèce, et si tout ce qu'elle semble impliquer n'était pas souhaitable, ne pas se fixer comme objectif aveugle d'en épouser toutes ces promesses ?
Je suis toujours frappé, par ailleurs, par la contradiction qui consiste à faire usage d'analogies historiques pour dire que tout va bien se passer car tout s'est bien passé jusqu'à présent (ce qui est contestable en soi), alors qu'à d'autres moments, on affirme que la révolution qui commence n'a pas de précédent.
Conclusion
Aussi surprenant que cela puisse sembler, il me semble que Laurent Alexandre ne déborde pas d'audace lorsqu’il regarde vers l’avenir. On est censé être dans de la projection à long terme, et pourtant ses réflexions reposent sur une photographie très actuelle de ce que représente l’IA.
Son modèle d’utilisation de l’IA par l’humain reste celui dans lequel ce dernier est aux manettes et prompte, prompte, prompte. Pourtant, seulement quelques mois après l'apparition de ChatGPT, il existe déjà des services auxquels on peut déléguer ce promptage...
Plus d'informations sur Linkedin.