Crédit :domaine public Unsplash/CC0
Des assistants virtuels comme Siri d'Apple et Alexa d'Amazon, aux aspirateurs robotiques et aux voitures autonomes, en passant par les gestionnaires de portefeuilles d'investissement automatisés et les robots marketing, l'intelligence artificielle est devenue une grande partie de notre vie quotidienne. Pourtant, en pensant à l'IA, beaucoup d'entre nous imaginent des robots ressemblant à des humains qui, selon d'innombrables histoires de science-fiction, deviendront un jour indépendants et rebelles.
Personne ne sait, cependant, quand les humains créeront une IA intelligente ou sensible, a déclaré John Basl, professeur agrégé de philosophie au Northeastern's College of Social Sciences and Humanities, dont les recherches portent sur l'éthique des technologies émergentes telles que l'IA et la biologie synthétique.
"Quand vous entendez parler de Google, ils parlent comme si c'était juste au coin de la rue ou définitivement dans notre vie", a déclaré Basl. "Et ils sont très cavaliers à ce sujet."
C'est peut-être pour cette raison qu'un récent article du Washington Post a fait tant de bruit. Dans l'histoire, l'ingénieur Google Blake Lemoine dit que le générateur de chatbot artificiellement intelligent de l'entreprise, LaMDA, avec qui il a eu de nombreuses conversations approfondies, pourrait être sensible. Cela lui rappelle un enfant de 7 ou 8 ans, a déclaré Blake au Washington Post.
Cependant, Basl pense que les preuves mentionnées dans l'article du Washington Post ne sont pas suffisantes pour conclure que LaMDA est sensible.
"Je pense que des réactions telles que "Nous avons créé une IA sensible" sont extrêmement exagérées", a déclaré Basl.
Les preuves semblent être fondées sur les capacités linguistiques de LaMDA et sur les choses dont il parle, a déclaré Basl. Cependant, LaMDA, un modèle de langage, a été conçu spécifiquement pour parler, et la fonction d'optimisation utilisée pour l'entraîner à traiter le langage et à converser incite son algorithme à produire cette preuve linguistique.
"Ce n'est pas comme si nous étions allés sur une planète extraterrestre et que nous n'avions jamais incité à commencer à communiquer avec nous [a commencé à parler pensivement]", a déclaré Basl.
Le fait que ce modèle de langage puisse tromper un humain en lui faisant croire qu'il est sensible témoigne de sa complexité, mais il devrait avoir d'autres capacités au-delà de ce pour quoi il est optimisé pour montrer la sensibilité, a déclaré Basl.
Il existe différentes définitions de la sensibilité. Sentient est défini comme étant capable de percevoir ou de ressentir des choses et est souvent comparé à conscient.
Basl pense que l'IA sensible serait peu consciente. Il peut être conscient de l'expérience qu'il vit, avoir des attitudes positives ou négatives comme ressentir de la douleur ou vouloir ne pas ressentir de douleur, et avoir des désirs.
"Nous voyons ce genre de gamme de capacités dans le monde animal", a-t-il déclaré.
Par exemple, Basl a déclaré que son chien ne préférait pas que le monde soit dans un sens plutôt que dans l'autre au sens profond du terme, mais elle préfère clairement ses biscuits aux croquettes.
"Cela semble suivre une certaine vie mentale intérieure", a déclaré Basl. "[Mais] elle ne ressent pas de terreur face au changement climatique."
Il n'est pas clair d'après l'histoire du Washington Post, pourquoi Lemoine compare LaMDA à un enfant. Il pourrait vouloir dire que le modèle linguistique est aussi intelligent qu'un petit enfant ou qu'il a la capacité de souffrir ou de désirer comme un petit enfant, a déclaré Basl.
"Il peut s'agir de choses diverses. Nous pourrions créer une IA pensante qui n'a pas de sentiments, et nous pouvons créer une IA pensante qui n'est pas vraiment douée pour la réflexion", a déclaré Basl.
La plupart des chercheurs de la communauté de l'IA, qui se compose de spécialistes de l'apprentissage automatique, de spécialistes de l'intelligence artificielle, de philosophes, d'éthiciens de la technologie et de scientifiques cognitifs, réfléchissent déjà à ces questions d'un avenir lointain et s'inquiètent de la partie réflexion, selon Basl.
"Si nous créons une IA super intelligente, cela pourrait finir par tous nous tuer", a-t-il déclaré.
Cependant, la préoccupation de Lemoine n'est pas là-dessus, mais plutôt sur l'obligation de traiter différemment les capacités d'IA en évolution rapide.
"Je suis, dans un sens large, sensible à ce genre d'inquiétude. Nous ne faisons pas très attention à ce que cela soit possible", a déclaré Basl. "Nous ne pensons pas assez aux choses morales concernant l'IA, comme, que pourrions-nous devoir à une IA sensible ?"
Il pense que les humains sont très susceptibles de maltraiter une IA sensible parce qu'ils ne reconnaîtront probablement pas qu'ils l'ont fait, croyant qu'elle est artificielle et qu'elle s'en moque.
"Nous ne sommes tout simplement pas très sensibles à ces choses", a déclaré Basl.
Il n'y a pas de bon modèle pour savoir quand une IA a atteint la sensibilité. Que se passe-t-il si le LaMDA de Google n'a pas la capacité d'exprimer sa sensibilité de manière convaincante, car il ne peut parler que via une fenêtre de chat au lieu d'autre chose ?
"Ce n'est pas comme si nous pouvions faire des scanners cérébraux pour voir s'il nous ressemble", a-t-il déclaré.
Un autre courant de pensée est que l'IA sensible pourrait être impossible en général en raison des limites physiques de l'univers ou d'une compréhension limitée de la conscience.
Actuellement, aucune des entreprises travaillant sur l'IA, y compris les grands acteurs comme Google, Meta, Microsoft, Apple et les agences gouvernementales, n'a pour objectif explicite de créer une IA sensible, a déclaré Basl. Certaines organisations sont intéressées par le développement de l'IAG, ou intelligence artificielle générale, une forme théorique d'IA où une machine, intelligente comme un humain, aurait les capacités de résoudre un large éventail de problèmes, d'apprendre et de planifier l'avenir, selon IBM .
"Je pense que la véritable leçon à en tirer est que nous n'avons pas l'infrastructure dont nous avons besoin, même si cette personne se trompe", a déclaré Basl, faisant référence à Lemoine.
Une infrastructure autour des questions d'IA pourrait être construite sur la transparence, le partage d'informations avec les agences gouvernementales et/ou publiques et la réglementation de la recherche. Basl préconise un comité interdisciplinaire qui aiderait à construire une telle infrastructure et un second qui superviserait les technologues travaillant sur l'IA et évaluerait les propositions et les résultats de la recherche.
"Le problème des preuves est vraiment difficile", a déclaré Basl. "Nous n'avons pas une bonne théorie de la conscience et nous n'avons pas un bon accès aux preuves de la conscience. Et puis nous n'avons pas non plus l'infrastructure. Ce sont les éléments clés."