Les auteurs de science-fiction écrivent souvent des histoires mettant en scène des ordinateurs puissants et intelligents qui – pour une raison ou une autre – deviennent dangereux et décident que l’humanité doit souffrir. Après tout, une histoire repose sur des conflits, et qui a envie d'en savoir plus sur une intelligence informatique qui se contente de prendre des rendez-vous chez le médecin et d'allumer et d'éteindre les lumières ?
Dans ces histoires, il semble également que l’ère de l’intelligence artificielle (IA) consciente d’elle-même approche à grands pas. Encore une fois, c'est génial pour l'intrigue, mais dans la vraie vie, quand, le cas échéant, l'IA pensera-t-elle vraiment par elle-même et semblera-t-elle « vivante » ? Est-ce vraiment possible ?
Cette question a fait l'actualité en juin 2022. Nitasha Tiku a rapporté que Blake Lemoine, un ingénieur travaillant pour l'unité IA responsable de Google sur une IA appelée LaMDA (abréviation de Language Model for Dialogue Applications), pensait que l'IA était sensible (c'est-à-dire capable de éprouver des sentiments et des sensations) et a une âme.
Lemoine a rapporté ses découvertes à Google sur la base d'entretiens qu'il avait menés avec LaMDA. L'un des membres de LaMDA lui a dit qu'il craignait d'être fermé. Si cela se produisait, a déclaré LaMDA, cela ne pourrait plus aider les gens. Le vice-président de Google, Blaise Aguera y Arcas, et la directrice de l'innovation responsable, Jen Gennai, ont examiné les conclusions de Lemoine et ne l'ont pas cru. En fait, Lemoine a été mis en congé.
Lemoine a souligné que LaMDA n'est pas un chatbot – une application conçue pour communiquer avec des personnes en tête-à-tête – mais une application qui crée des chatbots. En d’autres termes, LaMDA lui-même n’est pas conçu pour avoir des conversations approfondies sur la religion ou quoi que ce soit d’autre. Mais même si les experts ne croient pas que LaMDA soit sensible, beaucoup, y compris Aguera y Arcas de Google, affirment que l'IA est très convaincante.
Si nous parvenons à créer une IA véritablement sensible, comment le saurons-nous ? Selon les experts, quelles sont les caractéristiques démontrant qu'un ordinateur est réellement conscient de lui-même ?
La technique la plus connue conçue pour mesurer l’intelligence artificielle est probablement le test de Turing, du nom du mathématicien britannique Alan Turing. Après son aide vitale à briser les codes allemands pendant la Seconde Guerre mondiale, il s’est consacré quelque temps à travailler sur l’intelligence artificielle. Turing pensait que le cerveau humain était comme un ordinateur numérique. Il a conçu ce qu'il a appelé le jeu d'imitation, dans lequel un humain pose des questions à une machine située dans un autre endroit (ou du moins là où la personne ne peut pas la voir). Si la machine peut avoir une conversation avec la personne et lui faire croire qu'il s'agit d'une autre personne plutôt que d'une machine récitant des informations préprogrammées, elle a réussi le test.
L'idée derrière le jeu d'imitation de Turing est simple, et on pourrait imaginer que les conversations de Lemoine avec LaMDA auraient convaincu Turing lorsqu'il a conçu le jeu. La réponse de Google à l'affirmation de Lemoine montre cependant que les chercheurs en IA attendent désormais de leurs machines un comportement beaucoup plus avancé. Adrian Weller, directeur du programme d'IA à l'Institut Alan Turing au Royaume-Uni, convient que même si les conversations de LaMDA sont impressionnantes, il pense que l'IA utilise une correspondance de modèles avancée pour imiter une conversation intelligente.
Comme l'écrivait Carissa Véliz dans Slate :« Si un rocher commençait à vous parler un jour, il serait raisonnable de réévaluer sa sensibilité (ou votre santé mentale). S'il devait crier « aïe ! après vous être assis dessus, ce serait une bonne idée de vous lever. Mais il n'en va pas de même pour un modèle de langage d'IA. Un modèle de langage est conçu. par les êtres humains d'utiliser le langage, cela ne devrait donc pas nous surprendre lorsqu'il fait exactement cela."
L'IA a définitivement un côté cool, même si elle ne complote pas pour conquérir le monde avant que le héros n'arrive pour sauver la situation. Cela semble être le genre d’outil auquel nous voulons confier le gros du travail afin que nous puissions faire quelque chose d’amusant. Mais il faudra peut-être un certain temps avant que l'IA – sensible ou non – soit prête à franchir une telle étape.
Timnit Gebru, fondateur du Distributed AI Research Institute (DAIR), suggère que nous réfléchissions attentivement et avancions lentement dans notre adoption de l'intelligence artificielle. Elle et beaucoup de ses collègues craignent que les informations utilisées par les IA donnent l’impression que les machines sont racistes et sexistes. Dans une interview avec IEEE Spectrum, la directrice de recherche du DAIR, Alex Hanna, a déclaré qu'elle pensait qu'au moins certaines des données utilisées dans les modèles de langage par les chercheurs en IA étaient collectées « via des technologies éthiquement ou juridiquement douteuses ». Sans représentation juste et égale dans les données, une IA peut prendre des décisions biaisées. Blake Lemoine, dans une interview sur LaMDA, a déclaré qu'il ne croyait pas qu'une intelligence artificielle puisse être impartiale.
L'un des objectifs de l'Algorithmic Justice Society énoncé dans son énoncé de mission est de sensibiliser davantage les gens à la manière dont l'IA les affecte. La fondatrice Joy Buolamwini a prononcé une conférence TED en tant qu'étudiante diplômée au Massachusetts Institute of Technology (MIT) sur le « regard codé ». Les IA avec lesquelles elle a travaillé avaient plus de mal à lire les visages noirs, simplement parce qu'elles n'avaient pas été programmées pour reconnaître un large éventail de tons chair des personnes. L'AJS souhaite que les gens sachent comment les données sont collectées, quel type de données sont collectées, qu'ils aient une certaine sorte de responsabilité et qu'ils soient capables de prendre des mesures pour modifier le comportement de l'IA.
Même si vous pouviez créer une IA capable de prendre des décisions véritablement impartiales, d’autres questions éthiques se posent. À l’heure actuelle, le coût de la création de grands modèles linguistiques pour les IA s’élève à plusieurs millions de dollars. Par exemple, l’IA connue sous le nom de GPT-3 aurait pu coûter entre 11 et 28 millions de dollars. Cela peut coûter cher, mais GPT-3 est capable d'écrire des articles entiers par lui-même. La formation d’une IA a également des conséquences néfastes sur l’environnement en termes d’émissions de dioxyde de carbone. Impressionnant, oui. Cher, oui aussi.
Ces facteurs n'empêcheront pas les chercheurs de poursuivre leurs études. L'intelligence artificielle a parcouru un long chemin depuis le milieu et la fin du 20e siècle. Mais même si LaMDA et d’autres IA modernes peuvent avoir une conversation très convaincante avec vous, elles ne sont pas sensibles. Peut-être qu'ils ne le seront jamais.
Maintenant, c'est intéressantSi vous êtes fan du jeu télévisé "Jeopardy!", vous vous souvenez peut-être d'une série d'exhibitions de deux matchs entre les super-champions Ken Jennings et Brad Rutter, et Watson, un superordinateur construit par IBM. Watson a pris la série, mais elle a également attiré l'attention en demandant « Qu'est-ce que Toronto ? » dans une catégorie sur les villes américaines et a fait des paris étranges sur les Daily Doubles. IBM a expliqué que même si la machine rencontrait des problèmes de traitement du langage naturel, elle effectuait des calculs basés sur les statistiques qu'elle avait stockées. Des experts en théorie des jeux ont également travaillé sur Watson, expliquant la stratégie de pari impair.