Crédit : intelligence-artificielle-503593_1920/flickr
L'hystérie sur l'avenir de l'intelligence artificielle (IA) est partout. Les nouvelles sensationnalistes ne manquent pas sur la façon dont l'IA pourrait guérir les maladies, accélérer l'innovation humaine et améliorer la créativité humaine. Rien qu'en regardant les gros titres des médias, vous pourriez penser que nous vivons déjà dans un avenir où l'IA a infiltré tous les aspects de la société.
S'il est indéniable que l'IA a ouvert une multitude d'opportunités prometteuses, cela a également conduit à l'émergence d'un état d'esprit qui peut être décrit comme un « solutionnisme de l'IA ». C'est la philosophie qui, étant donné suffisamment de données, les algorithmes d'apprentissage automatique peuvent résoudre tous les problèmes de l'humanité.
Mais il y a un gros problème avec cette idée. Au lieu de soutenir les progrès de l'IA, il compromet en fait la valeur de l'intelligence artificielle en ignorant d'importants principes de sécurité de l'IA et en fixant des attentes irréalistes sur ce que l'IA peut vraiment faire pour l'humanité.
Le solutionnisme de l'IA
En quelques années seulement, Le solutionnisme de l'IA a fait son chemin de la bouche des évangélistes de la technologie dans la Silicon Valley à l'esprit des responsables gouvernementaux et des décideurs du monde entier. Le pendule est passé de la notion dystopique selon laquelle l'IA détruira l'humanité à la croyance utopique que notre sauveur algorithmique est là.
Nous voyons maintenant des gouvernements s'engager à soutenir les initiatives nationales d'IA et participer à une course aux armements technologique et rhétorique pour dominer le secteur en plein essor de l'apprentissage automatique. Par exemple, le gouvernement britannique s'est engagé à investir 300 millions de livres sterling dans la recherche sur l'IA pour se positionner comme un leader dans le domaine. Amoureux du potentiel de transformation de l'IA, le président français Emmanuel Macron s'est engagé à faire de la France un hub mondial de l'IA. Pendant ce temps, le gouvernement chinois augmente ses prouesses en matière d'IA avec un plan national visant à créer une industrie chinoise de l'IA d'une valeur de 150 milliards de dollars américains d'ici 2030. Le solutionnisme de l'IA est en hausse et il est là pour rester.
Réseaux de neurones – plus facile à dire qu'à faire
Alors que de nombreux manifestes politiques vantent les effets transformateurs de la « révolution de l'IA » imminente, ils ont tendance à sous-estimer la complexité du déploiement de systèmes avancés d'apprentissage automatique dans le monde réel.
Les réseaux de neurones sont l'une des variétés les plus prometteuses de technologies d'IA. Cette forme d'apprentissage automatique est vaguement calquée sur la structure neuronale du cerveau humain, mais à une échelle beaucoup plus petite. De nombreux produits basés sur l'IA utilisent des réseaux de neurones pour déduire des modèles et des règles à partir de gros volumes de données. Mais ce que de nombreux politiciens ne comprennent pas, c'est que le simple fait d'ajouter un réseau de neurones à un problème ne signifie pas automatiquement que vous trouverez une solution. De la même manière, ajouter un réseau de neurones à une démocratie ne signifie pas qu'elle sera instantanément plus inclusive, équitable ou personnalisé.
Défier la bureaucratie des données
Les systèmes d'IA ont besoin de beaucoup de données pour fonctionner, mais le secteur public ne dispose généralement pas de l'infrastructure de données appropriée pour prendre en charge l'apprentissage automatique avancé. La plupart des données restent stockées dans des archives hors ligne. Les quelques sources de données numérisées qui existent ont tendance à être enfouies dans la bureaucratie. Le plus souvent, les données sont réparties entre différents départements gouvernementaux qui nécessitent chacun des autorisations spéciales pour y accéder. Par dessus tout, le secteur public manque généralement de talent humain doté des capacités technologiques appropriées pour tirer pleinement parti des avantages de l'intelligence artificielle.
Pour ces raisons, le sensationnalisme sur l'IA a attiré de nombreux critiques. Stuart Russell, professeur d'informatique à Berkeley, a longtemps préconisé une approche plus réaliste qui se concentre sur de simples applications quotidiennes de l'IA au lieu de la prise de contrôle hypothétique par des robots super-intelligents. De la même manière, professeur de robotique du MIT, Rodney Brooks, écrit que "presque toutes les innovations en robotique et en IA vont loin, loin, plus long à être vraiment déployé que les gens sur le terrain et hors du terrain ne l'imaginent".
L'une des nombreuses difficultés rencontrées lors du déploiement de systèmes d'apprentissage automatique est que l'IA est extrêmement sensible aux attaques contradictoires. Cela signifie qu'une IA malveillante peut cibler une autre IA pour la forcer à faire de fausses prédictions ou à se comporter d'une certaine manière. De nombreux chercheurs ont mis en garde contre le déploiement de l'IA sans normes de sécurité et mécanismes de défense appropriés. Toujours, La sécurité de l'IA reste un sujet souvent négligé.
L'apprentissage automatique n'est pas magique
Si nous voulons récolter les bénéfices et minimiser les dommages potentiels de l'IA, nous devons commencer à réfléchir à la manière dont l'apprentissage automatique peut être appliqué de manière significative à des domaines spécifiques du gouvernement, entreprise et société. Cela signifie que nous devons discuter de l'éthique de l'IA et de la méfiance de nombreuses personnes à l'égard de l'apprentissage automatique.
Plus important encore, nous devons être conscients des limites de l'IA et des domaines où les humains doivent encore prendre les devants. Au lieu de brosser un tableau irréaliste de la puissance de l'IA, il est important de prendre du recul et de séparer les capacités technologiques réelles de l'IA de la magie.
Pendant longtemps, Facebook pensait que des problèmes tels que la propagation de la désinformation et des discours de haine pouvaient être identifiés et arrêtés par un algorithme. Mais sous la récente pression des législateurs, l'entreprise s'est rapidement engagée à remplacer ses algorithmes par une armée de plus de 10, 000 évaluateurs humains.
La profession médicale a également reconnu que l'IA ne peut pas être considérée comme une solution à tous les problèmes. Le programme IBM Watson for Oncology était un élément d'IA destiné à aider les médecins à traiter le cancer. Même s'il a été développé pour fournir les meilleures recommandations, les experts humains ont eu du mal à faire confiance à la machine. Par conséquent, le programme d'IA a été abandonné dans la plupart des hôpitaux où il a été testé.
Des problèmes similaires se sont posés dans le domaine juridique lorsque des algorithmes ont été utilisés dans les tribunaux américains pour condamner des criminels. Un algorithme a calculé les scores d'évaluation des risques et a conseillé les juges sur la peine. Le système s'est avéré amplifier la discrimination raciale structurelle et a ensuite été abandonné.
Ces exemples démontrent qu'il n'y a pas de solution d'IA pour tout. Utiliser l'IA simplement pour le bien de l'IA n'est pas toujours productif ou utile. Tous les problèmes ne sont pas mieux traités en leur appliquant l'intelligence artificielle. C'est la leçon cruciale pour tous ceux qui souhaitent augmenter les investissements dans les programmes nationaux d'IA :toutes les solutions ont un coût et tout ce qui peut être automatisé ne devrait pas l'être.
Cet article a été initialement publié sur The Conversation. Lire l'article original.