Crédit :Université de Western Ontario
Alors que David Bowman - le membre d'équipage survivant à bord du vaisseau spatial Discovery One dans Stanley Kubrick's 2001:A Space Odyssey - démonte HAL 9000, l'ordinateur sensible plaide d'une manière impassible, voix monotone :
"J'ai peur, Dave."
"Dave, mon esprit va. Je peux le sentir."
Comme la conscience de HAL - ou plutôt, sa logique – s'estompe, il meurt en chantant Daisy Bell, la première chanson « chantée » par un ordinateur du monde réel. Avec la menace supprimée, tout est apparemment à nouveau juste.
Célébrant son 50e anniversaire ce mois-ci, Le chef-d'œuvre de Kubrick a jeté une ombre sur le genre depuis sa création. Son influence s'étend au-delà des représentations de l'espace et des voyages spatiaux, touchant plus que Star Wars, Alien ou Blade Runner.
Par exemple, son effet sur notre vision de l'intelligence artificielle (IA) est palpable.
Pensez à Alexa d'Amazon, qui, comme HAL, écoute tout ce que vous dites.
Mais maintenant, cinq décennies plus tard, avons-nous évolué au-delà du cauchemar d'un sensible de Kubrick, machine menaçante ? Comment notre compréhension de, et relation avec, L'IA a changé ? Avons-nous une raison de craindre les machines que nous programmons ?
Pour Catherine Stinson, qui a récemment terminé une bourse postdoctorale au Rotman Institute of Philosophy de Western, la vision de Kubrick, bien que très différent de l'état actuel de l'IA, est toujours une menace imminente. La menace, cependant, n'est pas la machine.
"Les gens pensaient à l'IA très différemment à l'époque, le danger étant que ça allait être un agent qui agirait différemment de nous, avec des priorités différentes de celles que nous avons, " elle a dit.
"C'est moins le souci maintenant. Ce ne sera pas les interactions en tête-à-tête (avec une machine sensible) que nous ne savons pas comment gérer. Ce sera quelque chose dans lequel nous avons mis tout notre mal. , et maintenant il s'agit de faire des choses qui sont une extension des problèmes des humains - mais à une plus grande échelle, nous n'aurions pas pu imaginer. Ce n'est pas tant que les machines sont différentes de nous, c'est qu'elles reproduisent les problèmes des humains."
Une partie du problème, Stinson a expliqué, Ce sont les humains qui programment l'IA. Comment les humains peuvent-ils programmer des machines éthiques ? Les machines peuvent-elles être éthiques ? Nous nous considérons comme compétents pour prendre des décisions éthiques parce que nous décidons régulièrement entre le bien et le mal, elle a dit. Nous nous appuyons sur un instinct que nous connaissons du bien du mal dans les situations de tous les jours.
"Mais dans les situations plus compliquées qui se présentent - comme les voitures autonomes - c'est vraiment difficile, même pour quelqu'un qui a une formation en éthique, pour concevoir ce qu'il faut y intégrer, " a noté Stinson.
Par exemple, si la voiture évite de percuter un piéton, même si cela va entraîner la mort du conducteur ? Comment évaluez-vous les deux vies différentes en danger ? Programmez-vous la voiture pour sauver les occupants du véhicule ou ceux avec qui elle pourrait entrer en collision ?
"Je ne sais pas comment prendre ce genre de décision. Je ne sais pas si cette décision est quelque chose que la personne moyenne sait prendre. Cela nécessite une approche plus prudente et quelqu'un avec plus d'expertise doit être impliqué. Mais c'est difficile de voir qu'il y a ce besoin, parce que tout le monde se prend pour un expert, " ajouta Stinson.
Les personnes qui suivent des cours d'ingénierie et de technologie doivent être formées à l'éthique, elle a ajouté. Sauf ça, les entreprises travaillant dans l'IA pourraient bénéficier d'un éthicien interne. Les institutions académiques demandent de plus en plus aux ingénieurs et informaticiens de suivre des cours qui touchent au sujet. Bien que la question des « machines éthiques » fasse débat, le simple fait que nous puissions les programmer pour accomplir des actes qui sont bons ou mauvais les implique dans un "jeu éthique, " a déclaré Stinson.
"Peut-être pourrions-nous programmer une machine pour qu'elle fasse la bonne chose plus souvent que nous ne le ferions. Mais y a-t-il des raisons d'avoir peur ? Bien sûr. Il y a des machines utilisées dans le système judiciaire aux États-Unis, prendre des décisions qui ne sont peut-être pas les bonnes. Nous ne savons pas comment ils prennent ces décisions et il n'y a aucune responsabilité à qui est la faute s'ils prennent la mauvaise décision, " a-t-elle noté.
Pour la condamnation en particulier, il existe des programmes d'IA qui aident les juges à décider quelle devrait être la peine appropriée pour une personne reconnue coupable d'un crime. L'algorithme est conçu pour rendre la peine moins biaisée en tenant compte de facteurs du passé de la personne, dans quel genre de quartier ils ont grandi, quel genre de personnes ils connaissaient, arrestations antérieures, âge du premier contact avec la police, etc.
Toutes ces choses ne sont pas des informations neutres, dit Stinson. De tels programmes d'IA ont été critiqués pour avoir renforcé les stéréotypes qu'ils étaient censés éviter.
"Nous ne savons pas quels sont les dangers. Une partie de s'inquiéter des dangers consiste à essayer de prédire ce qu'ils pourraient être, et de décider de ce que nous valorisons, et quel genre de choses nous voulons qu'il se passe, Pour des raisons pratiques, " a déclaré Stinson.
Tim Blackmore, professeur à la Faculté des sciences de l'information et des médias, a enseigné 2001:A Space Odyssey aux étudiants pendant plus d'une décennie. Il a fait écho à Stinson, notant que les dangers de l'IA résident dans l'élément humain en jeu. Pour lui, quelle que soit sa forme dans les films ou les livres, L'IA a toujours été une extension de l'humain.
"Les machines pensantes sont souvent décrites comme étant conscientes de leur propre existence et conscientes des problèmes existentiels. Elles sont l'un des nombreux miroirs que les humains utilisent pour refléter ce que c'est que d'être humain, " dit Blackmore.
Et c'est le cauchemar.
"Jusqu'à maintenant, ça a été une sorte de cauchemar de «machine qui gouverne le monde». Cela sort des années 1960 et est très façonné par le Vietnam, ainsi que l'idée de ces mainframes, ces grosses machines, faisaient partie d'une vision du monde qui nous plongeait dans un monde inhumain, mode de vie déterministe qui conduirait à des génocides, " il expliqua.
Mais la menace aujourd'hui ne réside pas dans notre vision de l'IA comme une machine du futur capable de nous surpasser ou de nous conquérir.
"Nous imaginons beaucoup moins WALL-E - la machine d'aide. Mais c'est bien plus que ça. Ce ne sont pas les machines qui sont un problème, ce sont les humains. Les gens font de mauvaises choses, " Blackmore a noté, ajoutant qu'il est nerveux au sujet des machines "d'aide" que nous embrassons aveuglément.
"Je suis inquiet pour ces disques et cylindres ou quoi que ce soit d'Amazon, Google ou Facebook veulent ensuite s'immiscer dans notre maison. Les gens veulent ça; c'est un gadget et c'est cool parce qu'il est si difficile de prendre son téléphone portable et d'y taper quelque chose ou de lui parler. Nous allons dans le creux et nous aspirons ce truc, et puis nous allons avoir des téraoctets de données qui volent dans des pools où ils pourraient être nettoyés pour tout. Ces données peuvent être manipulées par des agents d'IA qui seront de mieux en mieux à chercher comment jouer avec les êtres humains, " il a continué.
"Comment cette technologie va se développer pour que les gens puissent pousser les gens - c'est ce qui a tendance à être une mauvaise nouvelle pour nous. Le soulèvement des robots est plus bas sur ma liste."