• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    Comment obtenir la bonne culture lors de son intégration dans l'IA

    L'expérience du MIT avec une IA de tuerie en série appelée Norman, basé sur Norman Bates de Psycho, souligne l'importance de veiller à bien faire les choses lors de l'intégration de l'IA à la culture. Crédit :MIT

    Si, comme Rip Van Winkle, vous avez dormi pendant la dernière décennie et vous venez de vous réveiller, ce téléphone à clapet que vous avez est devenu très populaire parmi les technologues rétro et les survivants, et, Oh oui, L'intelligence artificielle (IA) va soit vous tuer, soit vous sauver.

    L'IA est le dernier d'une longue série de mots à la mode technologiques qui ont saisi la société, et si l'on en croit les gens de la société d'analystes technologiques respectée Gartner Inc., 2018 sera l'année où l'IA sera véritablement intégrée dans notre quotidien. Aussi déconcertant que la robotique surréaliste concoctée à Boston Dynamics ou le déploiement de l'IA de reconnaissance faciale dans les écoles publiques chinoises puissent sembler, cette technologie est un produit de la condition humaine et en tant que telle, nous intégrons notre propre culture dans son ADN codé.

    Les débats sur l'IA portent actuellement sur la notion d'éthique. Dans l'étude de la culture, l'éthique est ancrée dans les valeurs, et ils sont devenus une partie importante des délibérations sur la façon dont l'IA s'intégrera dans nos vies. Ce qui n'a pas été discuté, c'est dont éthique, et finalement dont les valeurs, on parle de.

    Est-ce occidental contre oriental, ou est-ce américain contre tout le monde ? Comme les valeurs au sein de la culture sont influencées par la communauté et la société en général, l'éthique dépend du contexte culturel dans lequel les valeurs communautaires se sont développées.

    « Enculturation »

    Ainsi, la culture joue un rôle important dans la formation de l'IA à travers ce qu'on appelle le enculturation de ces données.

    L'anthropologue Geneviève Bell, l'ancien vice-président d'Intel et visionnaire culturel, a été en mesure d'orienter le géant de la technologie vers une compréhension plus approfondie de la manière dont la culture et l'IA interagissent.

    Les recherches de Bell ont indiqué que l'interaction humaine avec la technologie n'est pas culturellement universelle. Ce n'est ni pareil ni objectif, et nous encodons la culture dans et à travers la technologie à un niveau conscient et inconscient.

    Si c'est vrai, que se passe-t-il dans le développement éventuel de la culture en IA ?

    Pour les anthropologues, l'évolution culturelle humaine a de nombreux marqueurs :La manipulation des outils, le développement de la pensée abstraite, et plus fondamentalement, la création d'un langage dans lequel communiquer.

    La culture commence lorsque deux ou plusieurs entités vivantes commencent à communiquer et à échanger des informations et, avec plus de complexité, idées. Le développement culturel parmi les entités d'IA non humaines est quelque chose qui n'a pas encore été discuté, sans parler de la fusion de la culture humaine et de l'IA.

    Les bots ont développé leur propre langage

    Récemment, Le groupe de recherche sur l'IA de Facebook (FAIR) a brièvement mentionné une expérience dans laquelle deux robots étaient chargés de négocier entre eux. Il a été rapporté à l'époque que les robots ont commencé à développer un langage plus efficace pour communiquer entre eux.

    Les chercheurs en informatique de Facebook ont ​​rapidement mis fin à ce qui devenait rapidement le développement d'un langage d'IA plus efficace entre les deux bots, non pas parce qu'ils avaient peur de l'émergence de l'auto-création de l'IA, mais parce que les bots n'ont pas renvoyé les résultats attendus - une négociation en anglais.

    Dans un monde où le code est essentiellement composé de zéros et de uns, commandes oui ou non, il n'y a pas beaucoup de place pour l'inattendu. Mais parfois, nous devons saisir l'opportunité et explorer les possibilités, car la culture ne se manifeste pas de façon singulière.

    La culture est ce que nous en faisons. C'est un ensemble de normes sur lesquelles nous, en tant que société, sommes d'accord, consciemment ou inconsciemment, et il encadre la façon dont nous opérons dans notre vie quotidienne.

    L'IA peut absorber les cultures

    L'IA a la capacité unique à l'avenir d'absorber toutes les normes et valeurs culturelles du monde, développer une véritable culture pan-globale potentiellement. Mais d'abord, nous, les créateurs de l'IA, devons comprendre nos rôles et comment nous influençons cette capacité d'absorption. L'IA représente, après tout, un microcosme de la culture des personnes qui le construisent ainsi que de ceux qui contribuent au cadre de données fondamental de l'IA.

    Le romancier de science-fiction Alastair Reynolds, dans son livre Lacune de l'absolution , décrit une planète dans laquelle la seule créature intelligente est une vaste mer qui absorbe les informations des êtres et des créatures qui y nagent. La mer apprend de cette information et redistribue cette connaissance à d'autres êtres.

    Appelé « jonglerie de motifs » dans le livre, la manifestation actuelle de l'IA telle que nous la connaissons ressemble beaucoup à cette mer fictive, absorber les connaissances et les distribuer sélectivement avec ses propres données inculturées.

    En prenant comme exemple l'océan absorbant les connaissances de Reynolds, L'IA est actuellement comme les masses séparées d'eau salée et d'eau douce de la Terre - chacune avec son propre écosystème, isolé et indépendant.

    Que se passe-t-il lorsque ces écosystèmes très uniques commencent à communiquer les uns avec les autres ? Comment les normes et les valeurs seront-elles déterminées alors que les diverses entités d'IA commenceront à échanger des informations et à négocier des réalités au sein de leurs cultures nouvellement formées ?

    Norman est un avertissement

    Normand du MIT, une personnalité de l'IA basée sur un psychopathe fictif a produit un exemple singulier de ce que nous connaissons depuis longtemps chez les humains :avec une exposition prolongée à la violence vient une vision fracturée des normes et des valeurs culturelles. Cela représente un réel danger pour l'exposition future et la transmission à d'autres IA.

    Comment?

    Imaginez que Norman et Alexa se connectent. Les deux IA sont représentatives des personnes qui les ont créées, les données humaines qu'ils consomment et un besoin intégré d'apprentissage. Alors, quelles valeurs et normes culturelles seraient les plus convaincantes ?

    Norman a été conçu pour voir toutes les données du point de vue d'un psychopathe, tandis qu'Alexa en tant qu'assistante numérique cherche juste à plaire. Il existe d'innombrables exemples humains de personnalités similaires qui tournent mal lorsqu'elles sont réunies.

    Les sociologues soutiennent que le débat sur l'IA est sur le point d'exploser et, par conséquent, que plusieurs versions de l'IA sont vouées à coexister.

    En tant que philosophes, anthropologues et autres spécialistes des sciences sociales commencent à exprimer leurs préoccupations, le moment est venu pour la société de réfléchir à l'utilité souhaitée de l'IA, questionner les réalités et nos attentes, et d'influencer son développement dans un environnement culturel véritablement pan-mondial.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com