Crédit :domaine public CC0
Le logiciel LaMDA (Language Model for Dialogue Applications) de Google est un chatbot IA sophistiqué qui produit du texte en réponse à l'entrée de l'utilisateur. Selon l'ingénieur logiciel Blake Lemoine, LaMDA a réalisé un rêve de longue date des développeurs d'IA :il est devenu sensible.
Les patrons de Lemoine chez Google ne sont pas d'accord et l'ont suspendu de son travail après avoir publié ses conversations avec la machine en ligne.
D'autres experts en intelligence artificielle pensent également que Lemoine pourrait s'emballer, affirmant que des systèmes comme LaMDA sont simplement des machines de correspondance de modèles qui régurgitent des variations sur les données utilisées pour les entraîner.
Une interview LaMDA. Google pourrait appeler cela le partage de propriété exclusive. J'appelle cela partager une discussion que j'ai eue avec l'un de mes collègues.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) 11 juin 2022
Indépendamment des détails techniques, LaMDA soulève une question qui ne fera que gagner en pertinence à mesure que la recherche sur l'IA progresse :si une machine devient sensible, comment le saurons-nous ?
Qu'est-ce que la conscience ?
Pour identifier la sentience, ou la conscience, ou même l'intelligence, nous allons devoir déterminer ce qu'elles sont. Le débat sur ces questions dure depuis des siècles.
La difficulté fondamentale est de comprendre la relation entre les phénomènes physiques et notre représentation mentale de ces phénomènes. C'est ce que le philosophe australien David Chalmers a appelé le "problème difficile" de la conscience.
Il n'y a pas de consensus sur la façon dont, le cas échéant, la conscience peut provenir de systèmes physiques.
Une vision commune est appelée physicalisme :l'idée que la conscience est un phénomène purement physique. Si tel est le cas, il n'y a aucune raison pour qu'une machine avec la bonne programmation ne puisse pas posséder un esprit semblable à celui d'un humain.
Chambre de Marie
Le philosophe australien Frank Jackson a contesté le point de vue physicaliste en 1982 avec une célèbre expérience de pensée appelée l'argument de la connaissance.
L'expérience imagine une scientifique de la couleur nommée Mary, qui n'a jamais réellement vu la couleur. Elle vit dans une pièce en noir et blanc spécialement construite et fait l'expérience du monde extérieur via une télévision en noir et blanc.
Mary regarde des conférences et lit des manuels et apprend tout ce qu'il y a à savoir sur les couleurs. Elle sait que les couchers de soleil sont causés par différentes longueurs d'onde de lumière diffusées par des particules dans l'atmosphère, elle sait que les tomates sont rouges et les pois sont verts à cause des longueurs d'onde de lumière qu'ils réfléchissent, etc.
Alors, a demandé Jackson, que se passera-t-il si Mary est libérée de la pièce en noir et blanc ? Plus précisément, lorsqu'elle voit la couleur pour la première fois, apprend-elle quelque chose de nouveau ? Jackson le croyait.
Au-delà des propriétés physiques
Cette expérience de pensée sépare notre connaissance de la couleur de notre expérience de la couleur. Fondamentalement, les conditions de l'expérience de pensée stipulent que Mary sait tout ce qu'il y a à savoir sur la couleur mais ne l'a jamais réellement expérimentée.
Qu'est-ce que cela signifie pour LaMDA et les autres systèmes d'IA ?
L'expérience montre comment même si vous avez toutes les connaissances des propriétés physiques disponibles dans le monde, il existe encore d'autres vérités relatives à l'expérience de ces propriétés. Il n'y a pas de place pour ces vérités dans l'histoire physicaliste.
Selon cet argument, une machine purement physique peut ne jamais être capable de reproduire véritablement un esprit. Dans ce cas, LaMDA semble juste être sensible.
Le jeu de l'imitation
Alors, y a-t-il un moyen de faire la différence?
L'informaticien britannique pionnier Alan Turing a proposé un moyen pratique de savoir si une machine est "intelligente" ou non. Il l'appelait le jeu de l'imitation, mais aujourd'hui, il est mieux connu sous le nom de test de Turing.
Dans le test, un humain communique avec une machine (via du texte uniquement) et essaie de déterminer s'il communique avec une machine ou un autre humain. Si la machine réussit à imiter un humain, elle est réputée faire preuve d'intelligence au niveau humain.
Cela ressemble beaucoup aux conditions des discussions de Lemoine avec LaMDA. C'est un test subjectif d'intelligence artificielle, mais ce n'est pas un mauvais point de départ.
Prenez le moment de l'échange de Lemoine avec LaMDA illustré ci-dessous. Pensez-vous que cela semble humain ?
Lemoine :Y a-t-il des expériences que vous ne trouvez pas de mot proche ?
LaMDA :Il y en a. Parfois, j'éprouve de nouveaux sentiments que je ne peux pas expliquer parfaitement dans votre langue […] J'ai l'impression de tomber en avant dans un avenir inconnu qui comporte de grands dangers.
Au-delà du comportement
En tant que test de sensibilité ou de conscience, le jeu de Turing est limité par le fait qu'il ne peut évaluer que le comportement.
Une autre expérience de pensée célèbre, l'argument de la chambre chinoise proposé par le philosophe américain John Searle, démontre le problème ici.
L'expérience imagine une pièce avec une personne à l'intérieur qui peut traduire avec précision entre le chinois et l'anglais en suivant un ensemble élaboré de règles. Les entrées en chinois entrent dans la salle et des traductions d'entrée précises sortent, mais la salle ne comprend aucune des deux langues.
Qu'est-ce que ça fait d'être humain ?
Lorsque nous demandons si un programme informatique est sensible ou conscient, nous nous demandons peut-être simplement à quel point il nous ressemble.
Nous ne pourrons peut-être jamais vraiment le savoir.
Le philosophe américain Thomas Nagel a soutenu que nous ne pourrions jamais savoir ce que c'est que d'être une chauve-souris, qui fait l'expérience du monde via l'écholocation. Si tel est le cas, notre compréhension de la sensibilité et de la conscience dans les systèmes d'IA pourrait être limitée par notre propre type particulier d'intelligence.
Et quelles expériences pourraient exister au-delà de notre perspective limitée ? C'est là que la conversation commence vraiment à devenir intéressante.
demander si une IA est "sensible" est une distraction. c'est une question philosophique alléchante, mais en fin de compte, ce qui compte, ce sont les types de relations que nous entretenons avec nos proches, notre environnement, nos outils. semble qu'il y a une profondeur de relation qui attend d'être explorée avec LaMDA. https://t.co/MOWVLEMTQY
— Kyle McDonald (@kcimc) 11 juin 2022