Crédit :CC0 Domaine public
Les preuves suggèrent que l'interface entre les humains et la technologie ne deviendra que plus centrale dans la vie moderne.
Pour que les humains puissent extraire des informations significatives des trésors de données collectées par les machines « intelligentes » avec lesquelles nous interagissons, comme les téléphones portables, les ordinateurs doivent être capables de traiter le langage comme les humains. La branche de l'intelligence artificielle qui répond à ce besoin s'appelle le traitement du langage naturel.
Un article intitulé "Les algorithmes dans l'émergence historique des sens des mots"—qui paraît aujourd'hui en ligne dans le Actes de l'Académie nationale des sciences ( PNAS )—est le premier à regarder 1, 000 ans de développement de l'anglais et détecter les types d'algorithmes que les esprits humains ont utilisés pour étendre les mots existants à de nouveaux sens. Ce type de « rétro-ingénierie » de la façon dont le langage humain s'est développé pourrait avoir des implications pour le traitement du langage naturel par les machines.
« Pour communiquer avec succès avec les humains, les ordinateurs doivent être capables d'utiliser les mots de manière flexible mais en suivant les mêmes principes qui guident l'utilisation du langage par les humains, " explique Barbara Malt, Directeur du programme de sciences cognitives à l'Université Lehigh et l'un des collaborateurs du projet.
Selon Malt, les mots accumulent des familles de sens apparentés au cours de l'histoire. Par exemple, le mot « visage » signifiait à l'origine la partie avant d'une tête, mais au fil du temps, il en est également venu à désigner la partie avant d'autres objets, comme le « visage » de la falaise, et un état émotionnel, comme mettre un « visage » courageux.
"Ce travail, " dit Malt, "visait à étudier les processus cognitifs qui créent ces familles de sens."
L'équipe, dont le chercheur principal Yang Xu, un linguiste informatique de l'Université de Toronto et Mahesh Srinivasan, professeur adjoint de psychologie à l'Université de Californie à Berkeley, avec l'étudiant de Berkeley, Christian Ramiro, ont identifié un algorithme appelé "chaînage du plus proche voisin" comme le mécanisme qui décrit le mieux comment les sens des mots s'accumulent au fil du temps.
Dans le "chaînage du plus proche voisin", les points d'entrée sont analysés comme une hiérarchie de clusters. Le modèle des chercheurs a capturé le processus d'enchaînement qui se produit lorsque les idées émergentes sont exprimées en utilisant le mot avec le sens existant le plus étroitement lié. Ce modèle de chaînage correspond mieux au modèle historique d'émergence des sens que les modèles alternatifs.
« C'est une question ouverte de savoir comment les algorithmes que nous avons explorés ici peuvent être directement appliqués pour améliorer la compréhension par la machine de l'utilisation d'un nouveau langage, " dit Xu.
Après avoir développé les algorithmes de calcul qui ont prédit l'ordre historique dans lequel les sens d'un mot ont émergé, l'équipe a testé ces prédictions par rapport aux enregistrements de l'anglais au cours du dernier millénaire en utilisant le Thésaurus historique de l'anglais, une grande base de données dans laquelle chacun des nombreux sens d'un mot est marqué pour sa date d'apparition dans la langue.
Leurs résultats suggèrent que les sens des mots émergent de manière à minimiser les coûts cognitifs, qui sont les coûts collectifs de production, interpréter et apprendre le sens des mots. En d'autres termes, de nouveaux sens des mots émergent grâce à un mécanisme efficace qui exprime de nouvelles idées via un ensemble compact de mots.
"Lorsque les idées émergentes sont encodées en anglais, ils sont plus susceptibles d'être codés en étendant le sens d'un mot existant qu'en créant un nouveau mot, " dit Malt. " Une idée populaire peut être que lorsque vous avez une nouvelle idée, vous devez inventer un nouveau mot pour cela, mais nous avons découvert que cette stratégie est en fait moins courante. »
L'année dernière, la même équipe a été la première à identifier un ensemble de principes régissant un autre aspect du développement du langage :la cartographie métaphorique.
Au cours du dernier millénaire, les sens des mots ont largement évolué des domaines littéraux aux domaines métaphoriques, appelés mappages métaphoriques. Des mots qui n'avaient à l'origine qu'un sens concret ou externe (comme « saisir » un objet physique) ont grandi pour avoir un sens dans les domaines de l'abstrait et de l'intérieur (comme dans « saisir » une idée). Le groupe a été le premier à montrer que cette progression a suivi un ensemble compact de principes psychologiques et cognitifs et que le mouvement à travers les royaumes peut être prédit.
Les découvertes du groupe ont été publiées dans Cognitive Psychology dans un article intitulé « Evolution of word senses through metaphorical mapping:Systematicity over the past millenium ».
"Ensemble, nos études commencent à montrer que la manière dont les mots ont développé de nouvelles significations n'est pas arbitraire, mais reflètent plutôt les propriétés fondamentales de la façon dont nous pensons et communiquons les uns avec les autres, " explique Mahesh Srinivasan, Assistant Professor of Psychology and director of the Language and Cognitive Development laboratory at UC Berkeley