25 janvier, 1979 : Robert Williams, un ouvrier de 25 ans dans une usine de moulage de Ford Motor Company à Flat Rock, Michigan, est invité à mettre à l'échelle une étagère massive pour y compter manuellement les pièces. La machine à cinq étages utilisée pour récupérer les moulages donne de fausses lectures, et c'est le travail de Williams de monter et de découvrir combien il y en a vraiment.
Pendant que Williams est là-haut, faire le travail qu'on lui a ordonné de faire, un bras robotisé également chargé de la récupération des pièces s'acquitte de son travail. Assez tôt, le robot vient silencieusement sur le jeune homme, le frappant à la tête et le tuant sur le coup. Le robot continue de fonctionner, mais Williams est resté là mort pendant 30 minutes avant que son corps ne soit retrouvé par des collègues inquiets, selon les rapports de Knight-Ridder.
En ce jour d'hiver, Williams devient le premier humain de l'histoire à être tué par un robot.
La mort, cependant, était complètement involontaire. Il n'y avait tout simplement pas de garanties en place pour protéger Williams. Aucune alarme ne l'a averti de l'approche du bras, et aucune technologie ne pouvait modifier le comportement du robot en présence d'un humain. En 1979, l'intelligence artificielle impliquée n'était pas assez sophistiquée pour faire quoi que ce soit pour empêcher une telle mort. Un jury a convenu que la conception du robot n'avait pas été suffisamment soignée pour éviter une mort comme celle-ci. La famille de Williams a remporté un procès de 10 millions de dollars pour sa mort injustifiée de Unit Handling Systems, une division de Litton Industries, le fabricant qui a conçu le robot.
La prochaine mort par robot surviendrait un peu plus de deux ans plus tard, au Japon, dans des circonstances similaires :un bras de robot n'a de nouveau pas détecté un travailleur, Kenji Urada, 37 ans, et l'a accidentellement poussé à la mort.
Dans les années suivantes, roboticiens, les informaticiens et les experts en intelligence artificielle ont continué à se débattre avec la question de savoir comment les robots peuvent interagir en toute sécurité avec les humains sans leur causer de dommages.
Des décennies plus tard, les rapports de décès humains causés par des robots ou des intelligences artificielles semblent plus courants. Uber et Tesla ont fait l'actualité avec des reportages sur leurs voitures autonomes et autonomes, respectivement, avoir des accidents et tuer des passagers ou heurter des piétons. Bien que de nombreuses garanties soient désormais en place, le problème n'a toujours pas été résolu.
Aucun de ces décès n'est causé par la volonté du robot; ils sont plutôt tous accidentels. Mais il y a un souci, attisé par les flammes des films et des histoires de science-fiction comme les séries "Terminator" et "Matrix", que les intelligences artificielles pourraient développer leur propre volonté et, dans ce développement, désir de nuire à un humain.
Shimon Whiteson, professeur agrégé au département d'informatique de l'Université d'Oxford et scientifique en chef et co-fondateur de Morpheus Labs, appelle cette préoccupation le « sophisme anthropomorphique ». Whiteson définit le sophisme comme « l'hypothèse qu'un système doté d'une intelligence semblable à l'homme doit également avoir des désirs semblables à ceux de l'homme, par exemple., survivre, sois libre, avoir de la dignité, etc. Il n'y a absolument aucune raison pour que ce soit le cas, car un tel système n'aura que les désirs que nous lui donnons. »
Désalignement de la valeur, il argumente, est la plus grande menace existentielle, où il existe un écart entre ce qu'un programmeur dit à une machine de faire et ce que le programmeur voulait vraiment se produire. "Comment communiquez-vous vos valeurs à un système intelligent de telle sorte que les actions qu'il entreprend remplissent vos véritables intentions ? L'écart entre les deux devient plus conséquent à mesure que l'ordinateur devient plus intelligent et autonome, " explique Whiteson.
Au lieu, Whiteson nous dit que la plus grande menace est que les scientifiques conçoivent délibérément des robots capables de tuer des cibles humaines sans intervention humaine à des fins militaires. C'est pourquoi les chercheurs en IA et en robotique du monde entier ont publié une lettre ouverte appelant à une interdiction mondiale de cette technologie. Et c'est pourquoi les Nations Unies se réunissent à nouveau en 2018 pour discuter de l'opportunité et de la manière de réglementer les soi-disant "robots tueurs". Bien que ces robots n'aient pas besoin de développer leur propre volonté de tuer, ils pourraient être programmés pour le faire.
Maintenant c'est effrayantLe Guardian rapporte que 381 systèmes d'armes et de robotique militaire partiellement autonomes ont été déployés ou sont en cours de développement dans une douzaine de pays, dont la Chine, La France, Israël, le Royaume-Uni et les États-Unis. De plus, les systèmes automatiques existent déjà, mais ils ne peuvent pas agir de manière autonome.