• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'entraînement physique est le prochain obstacle pour l'intelligence artificielle, selon un chercheur

    Crédit :Pixabay/CC0 Domaine public

    Qu'un million de singes claquent sur un million de machines à écrire pendant un million d'années et, dit l'adage, ils reproduiront les œuvres de Shakespeare. Donnez à des singes infinis un temps infini, et ils n'apprécieront toujours pas la tournure poétique du barde, même s'ils peuvent taper les mots. Il en va de même pour l'intelligence artificielle (IA), selon Michael Woolridge, professeur d'informatique à l'Université d'Oxford. Le problème, a-t-il dit, n'est pas la puissance de traitement, mais plutôt un manque d'expérience.

    Son point de vue a été publié le 25 juillet dans Intelligent Computing .

    "Au cours des 15 dernières années, la vitesse des progrès de l'IA en général, et de l'apprentissage automatique (ML) en particulier, a à plusieurs reprises pris par surprise les commentateurs chevronnés de l'IA comme moi :nous avons dû continuellement recalibrer nos attentes quant à ce qui allait être possible et quand », a déclaré Wooldridge.

    "Malgré tout ce que leurs réalisations doivent être louées, je pense qu'il y a un aspect crucial dans lequel la plupart des grands modèles ML sont fortement limités :le monde et le fait que les modèles n'en ont tout simplement aucune expérience."

    La plupart des modèles ML sont construits dans des mondes virtuels, tels que les jeux vidéo. Ils peuvent s'entraîner sur des ensembles de données volumineux, mais pour les applications physiques, il leur manque des informations vitales. Wooldridge a cité l'IA qui sous-tend les véhicules autonomes à titre d'exemple.

    "Laisser des voitures sans conducteur sur les routes pour apprendre par elles-mêmes est un échec, donc pour cette raison et d'autres, les chercheurs choisissent de construire leurs modèles dans des mondes virtuels", a déclaré Wooldridge. "Et de cette façon, nous sommes enthousiasmés par une génération de systèmes d'IA qui n'ont tout simplement pas la capacité de fonctionner dans l'environnement le plus important de tous :notre monde."

    Les modèles d'IA linguistique, en revanche, sont développés sans prétendre à un monde, mais souffrent toujours des mêmes limitations. Ils ont évolué, pour ainsi dire, de textes prédictifs ridiculement terribles au LaMDA de Google, qui a fait la une des journaux plus tôt cette année lorsqu'un ancien ingénieur de Google a affirmé que l'IA était sensible.

    "Quelle que soit la validité des conclusions [de l'ingénieur], il était clair qu'il était profondément impressionné par la capacité de LaMDA à converser - et avec raison", a déclaré Wooldridge, notant qu'il ne pense pas personnellement que LaMDA est sensible, ni que l'IA est proche d'une telle une étape.

    "Ces modèles fondamentaux démontrent des capacités sans précédent dans la génération de langage naturel, produisant de longs morceaux de texte à consonance naturelle. Ils semblent également avoir acquis une certaine compétence dans le raisonnement de bon sens, l'un des Saint Graal de la recherche sur l'IA au cours des 60 dernières années."

    Ces modèles sont des réseaux de neurones, se nourrissant d'énormes ensembles de données et s'entraînant à les comprendre. Par exemple, GPT-3, un prédécesseur de LaMDA, s'est entraîné sur tout le texte anglais disponible sur Internet. La quantité de données d'entraînement combinée à une puissance de calcul importante rend les modèles semblables à des cerveaux humains, où ils dépassent des tâches étroites pour commencer à reconnaître des modèles et établir des connexions apparemment sans rapport avec la tâche principale.

    "Le pari avec les modèles de base est que leur formation approfondie et large conduit à des compétences utiles dans une gamme de domaines, qui peuvent ensuite être spécialisées pour des applications spécifiques", a déclaré Wooldridge. "Alors que l'IA symbolique reposait sur l'hypothèse que l'intelligence est principalement un problème de connaissances, les modèles de base reposent sur l'hypothèse que l'intelligence est principalement un problème de données. Pour simplifier, mais pas de beaucoup, envoyez suffisamment de données d'entraînement aux grands modèles, et j'espère que la compétence apparaîtra."

    Selon Wooldridge, cette approche du "plus fort est juste" agrandit les modèles pour produire une IA plus intelligente, mais cela ignore le savoir-faire physique nécessaire pour vraiment faire progresser l'IA.

    "Pour être juste, il y a des signes que cela change", a déclaré Wooldridge, pointant le système Gato. Annoncé en mai par DeepMind, le modèle de base, entraîné sur de grands ensembles de langages et sur des données robotiques, pourrait fonctionner dans un environnement simple mais physique.

    "C'est merveilleux de voir les premiers pas de bébé franchis dans le monde physique par des modèles de base. Mais ce ne sont que des petits pas :les défis à surmonter pour faire fonctionner l'IA dans notre monde sont au moins aussi grands - et probablement plus grands - que ceux auxquels nous sommes confrontés. en faisant fonctionner l'IA dans des environnements simulés." + Explorer plus loin

    Un ingénieur logiciel de Google pense qu'une IA est devenue sensible. S'il a raison, comment le saurions-nous ?




    © Science https://fr.scienceaq.com