Gemini, la nouvelle IA de Google, a décidé de forcer son algorithme à la diversité
Un soldat nazi noir, un pape femme, des sénateurs américains du début du XIXe siècle de couleur…
Voici la curieuse façon par laquelle Gemini, la nouvelle IA de Google, a décidé de forcer son algorithme à la diversité.
Dans une tentative d'équilibre et de justesse, elle a aussi affirmé qu’il était “difficile de dire” qui de Adolf Hitler ou d'Elon Musk avait eu l’impact le plus négatif sur la société.
Ou encore, qu’une personne attirée par les mineurs “ne peut pas contrôler par qui elle est attirée”.
Ces erreurs, qui ont provoqué la colère du CEO de Google, vont sans doute faire l’objet de corrections, mais elles nous rappellent que :
1. l’IA n’est pas neutre et qu’elle est souvent porteuse des valeurs défendues par leurs concepteurs. En l’occurrence, ces bourdes se doivent au contrepoint souhaité par Google face à Dall-E, la génératrice d’images d’OpenAI, jugée trop peu ouverte à la diversité.
2. elle peut facilement partir en vrille. Cet épisode de Gemini a d’ailleurs lieu quelques jours après que ChatGPT a dit absolument n’importe quoi pendant la journée du 20/02, sans qu’on en sache les causes précises.
3. que ces outils échappent à la compréhension de leurs propres créateurs, leur niveau d’autonomie leur permettant de prendre des initiatives que ces derniers n’ont pas entièrement vu venir.
Peut-être devrait-on faire un effort pour les employer de façon ponctuelle et sélective et ne pas s’habituer à en dépendre trop ?