• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Vous craignez que l'IA ne conquiert le monde ? Vous faites peut-être des hypothèses plutôt non scientifiques

    Crédit :Phonlamai Photo/Shutterstock

    , Doit-on avoir peur de l'intelligence artificielle ? Pour moi, c'est une question simple avec encore plus simple, réponse en deux lettres :non. Mais tout le monde n'est pas d'accord - beaucoup de gens, dont le regretté physicien Stephen Hawking, ont fait craindre que la montée de puissants systèmes d'IA ne sonne la fin de l'humanité.

    Clairement, votre point de vue sur la conquête du monde par l'IA dépendra de votre capacité à développer un comportement intelligent dépassant celui des humains - ce que l'on appelle la "super intelligence". Voyons donc à quel point c'est probable, et pourquoi l'avenir de l'IA suscite beaucoup d'inquiétude.

    Les humains ont tendance à avoir peur de ce qu'ils ne comprennent pas. La peur est souvent blâmée pour le racisme, l'homophobie et d'autres sources de discrimination. Il n'est donc pas étonnant que cela s'applique également aux nouvelles technologies – elles sont souvent entourées d'un certain mystère. Certaines réalisations technologiques semblent presque irréalistes, dépassant clairement les attentes et, dans certains cas, la performance humaine.

    Pas de fantôme dans la machine

    Mais démystifions les techniques d'IA les plus populaires, connu collectivement sous le nom de « machine learning ». Ceux-ci permettent à une machine d'apprendre une tâche sans être programmée avec des instructions explicites. Cela peut sembler effrayant, mais la vérité est que tout est dû à des statistiques plutôt banales.

    La machine, qui est un programme, ou plutôt un algorithme, est conçu avec la capacité de découvrir des relations au sein des données fournies. Il existe de nombreuses méthodes différentes qui nous permettent d'y parvenir. Par exemple, on peut présenter à la machine des images de lettres manuscrites (a-z), un par un, et demandez-lui de nous dire quelle lettre nous montrons à chaque fois dans l'ordre. Nous avons déjà fourni les réponses possibles – il ne peut s'agir que de (a-z). La machine au début dit une lettre au hasard et on la corrige, en fournissant la bonne réponse. Nous avons également programmé la machine pour qu'elle se reconfigure afin que la prochaine fois, si présenté avec la même lettre, il est plus susceptible de nous donner la bonne réponse pour la suivante. En conséquence, la machine au fil du temps améliore ses performances et « apprend » à reconnaître l'alphabet.

    En substance, nous avons programmé la machine pour exploiter les relations communes dans les données afin d'accomplir la tâche spécifique. Par exemple, toutes les versions de "a" se ressemblent structurellement, mais différent de "b", et l'algorithme peut exploiter cela. De façon intéressante, après la phase de formation, la machine peut appliquer les connaissances acquises sur de nouveaux échantillons de lettres, par exemple écrit par une personne dont l'écriture manuscrite n'a jamais été vue par la machine.

    Humains, cependant, sont bons en lecture. Un exemple peut-être plus intéressant est le lecteur de Go artificiel de Google Deepmind, qui a dépassé tous les joueurs humains dans leur performance du jeu. Il apprend clairement d'une manière différente de celle des humains - en jouant avec lui-même à un certain nombre de jeux auxquels aucun humain ne pourrait jouer de son vivant. Il a été spécifiquement chargé de gagner et dit que les actions qu'il prend déterminent s'il gagne ou non. On lui a aussi dit les règles du jeu. En rejouant au jeu encore et encore, il peut découvrir dans chaque situation quelle est la meilleure action - inventer des mouvements qu'aucun humain n'a jamais joués auparavant.

    Les tout-petits contre les robots

    Cela rend-il le joueur AI Go plus intelligent qu'un humain ? Certainement pas. L'IA est très spécialisée dans un type de tâches particulier et n'affiche pas la polyvalence que les humains font. Au fil des années, les humains développent une compréhension du monde qu'aucune IA n'a atteinte ou ne semble susceptible d'atteindre de si tôt.

    Le fait que l'IA soit qualifiée d'"intelligente" est en fin de compte dû au fait qu'elle peut apprendre. Mais même lorsqu'il s'agit d'apprendre, ce n'est pas un match pour les humains. En réalité, les tout-petits peuvent apprendre simplement en regardant quelqu'un résoudre un problème une fois. Une IA, d'autre part, a besoin de tonnes de données et de charges d'essais pour réussir. Mais alors que les humains développent rapidement une intelligence à couper le souffle au cours des premières années de la vie, les concepts clés de l'apprentissage automatique ne sont pas si différents de ce qu'ils étaient il y a une ou deux décennies.

    Le succès de l'IA moderne est moins dû à une percée dans de nouvelles techniques qu'à la grande quantité de données et de puissance de calcul disponibles. Surtout, bien que, même une quantité infinie de données ne donnera pas à l'IA une intelligence humaine - nous devons d'abord faire des progrès significatifs dans le développement de techniques artificielles d'"intelligence générale". Certaines approches pour ce faire impliquent la construction d'un modèle informatique du cerveau humain - ce que nous ne sommes même pas près de réaliser.

    Finalement, juste parce qu'une IA peut apprendre, il ne s'ensuit pas vraiment qu'il va soudainement apprendre tous les aspects de l'intelligence humaine et nous surpasser. Il n'y a pas de définition simple de ce qu'est l'intelligence humaine et nous avons certainement peu d'idées sur la façon dont elle est exactement représentée dans le cerveau. Mais même si nous pouvions le résoudre et ensuite créer une IA qui pourrait apprendre à devenir plus intelligente, cela ne veut pas nécessairement dire qu'il aurait plus de succès.

    Personnellement, Je suis plus préoccupé par la façon dont les humains utilisent l'IA. Les algorithmes d'apprentissage automatique sont souvent considérés comme des boîtes noires, et moins d'efforts sont faits pour identifier les spécificités de la solution que nos algorithmes ont trouvée. C'est un aspect important et souvent négligé car nous sommes souvent obsédés par la performance et moins par la compréhension. Il est important de comprendre les solutions que ces systèmes ont découvertes, car nous pouvons également évaluer s'il s'agit de solutions correctes ou souhaitables.

    Si, par exemple, nous entraînons notre système de la mauvaise manière, on peut aussi se retrouver avec une machine qui a appris des relations qui ne tiennent pas en général. Disons par exemple que nous voulons concevoir une machine pour évaluer la capacité d'étudiants potentiels en ingénierie. Probablement une idée terrible, mais suivons-le jusqu'au bout pour l'ébranlement de l'argument. Traditionnellement, c'est une discipline dominée par les hommes, ce qui signifie que les échantillons d'apprentissage proviennent probablement d'anciens étudiants masculins. Si nous ne nous en assurons pas, par exemple, que les données d'entraînement sont équilibrées, la machine pourrait finir par conclure que les étudiants en génie sont des hommes, et l'appliquer à tort aux décisions futures.

    Machine learning and artificial intelligence are tools. They can be used in a right or a wrong way, like everything else. It is the way that they are used that should concerns us, not the methods themselves. Human greed and human unintelligence scare me far more than artificial intelligence.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com