• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'intelligence artificielle peut désormais imiter les comportements humains - bientôt ce sera dangereusement bon

    Ce visage n'est-il qu'un assemblage de bits informatiques ? Crédit :Michal Bednarek/Shutterstock.com

    Lorsque les systèmes d'intelligence artificielle commencent à devenir créatifs, ils peuvent créer de grandes choses – et des choses effrayantes. Prendre, par exemple, un programme d'IA qui permet aux internautes de composer de la musique avec un Johann Sebastian Bach virtuel en entrant des notes dans un programme qui génère des harmonies de type Bach pour les assortir.

    Géré par Google, l'application a été très appréciée pour être révolutionnaire et amusante à jouer. Il a également suscité des critiques, et a soulevé des inquiétudes concernant les dangers de l'IA.

    Mon étude de la façon dont les technologies émergentes affectent la vie des gens m'a appris que les problèmes vont au-delà de la grande préoccupation, certes, de savoir si les algorithmes peuvent vraiment créer de la musique ou de l'art en général. Certaines plaintes semblaient petites, mais ne l'étaient vraiment pas, comme des observations selon lesquelles l'IA de Google enfreignait les règles de base de la composition musicale.

    En réalité, les efforts pour que les ordinateurs imitent le comportement de personnes réelles peuvent être déroutants et potentiellement dangereux.

    Technologies d'usurpation d'identité

    Le programme de Google a analysé les notes de 306 œuvres musicales de Bach, trouver des relations entre la mélodie et les notes qui ont fourni l'harmonie. Parce que Bach suivait des règles strictes de composition, le programme apprenait effectivement ces règles, afin qu'il puisse les appliquer lorsque les utilisateurs ont fourni leurs propres notes.

    L'application Bach elle-même est nouvelle, mais la technologie sous-jacente ne l'est pas. Des algorithmes entraînés à reconnaître des modèles et à prendre des décisions probabilistes existent depuis longtemps. Certains de ces algorithmes sont si complexes que les gens ne comprennent pas toujours comment ils prennent des décisions ou produisent un résultat particulier.

    L'équipe Google Doodle explique le programme Bach.

    Les systèmes d'IA ne sont pas parfaits - beaucoup d'entre eux reposent sur des données qui ne sont pas représentatives de l'ensemble de la population, ou qui sont influencés par des préjugés humains. Il n'est pas tout à fait clair qui pourrait être légalement responsable lorsqu'un système d'IA commet une erreur ou cause un problème.

    Maintenant, bien que, les technologies d'intelligence artificielle deviennent suffisamment avancées pour pouvoir se rapprocher du style d'écriture ou de parole des individus, et même des expressions faciales. Ce n'est pas toujours mauvais :une IA assez simple a permis à Stephen Hawking de communiquer plus efficacement avec les autres en prédisant les mots qu'il utiliserait le plus.

    Des programmes plus complexes qui imitent des voix humaines aident les personnes handicapées, mais peuvent également être utilisés pour tromper les auditeurs. Par exemple, les créateurs de Lyrebird, un programme imitant la voix, ont publié une conversation simulée entre Barack Obama, Donald Trump et Hillary Clinton. Cela peut sembler réel, mais cet échange n'a jamais eu lieu.

    Du bon au mauvais

    En février 2019, La société à but non lucratif OpenAI a créé un programme qui génère du texte qui est pratiquement impossible à distinguer du texte écrit par des personnes. Il peut "écrire" un discours dans le style de John F. Kennedy, J.R.R. Tolkien dans "Le Seigneur des Anneaux" ou un étudiant écrivant un devoir scolaire sur la guerre civile américaine.

    Le texte généré par le logiciel OpenAI est tellement crédible que la société a choisi de ne pas publier le programme elle-même.

    Des technologies similaires peuvent simuler des photos et des vidéos. Début 2018, par exemple, L'acteur et cinéaste Jordan Peele a créé une vidéo qui semblait montrer l'ancien président américain Barack Obama disant des choses qu'Obama n'avait jamais dites pour avertir le public des dangers posés par ces technologies.

    Faites attention aux vidéos que vous croyez.

    Début 2019, une fausse photo nue de la représentante américaine Alexandria Ocasio-Cortez a circulé en ligne. Vidéos fabriquées, souvent appelé "deepfakes, " devraient être de plus en plus utilisés dans les campagnes électorales.

    Les membres du Congrès ont commencé à se pencher sur cette question avant les élections de 2020. Le département américain de la Défense enseigne au public comment repérer les vidéos et l'audio falsifiés. Des agences de presse comme Reuters commencent à former des journalistes à détecter les deepfakes.

    Mais, à mon avis, une préoccupation encore plus grande demeure :les utilisateurs pourraient ne pas être en mesure d'apprendre assez rapidement pour distinguer les faux contenus à mesure que la technologie de l'IA devient plus sophistiquée. Par exemple, alors que le public commence à prendre conscience des deepfakes, L'IA est déjà utilisée pour des déceptions encore plus avancées. Il existe maintenant des programmes qui peuvent générer de faux visages et de fausses empreintes digitales, créer efficacement les informations nécessaires pour fabriquer une personne entière - au moins dans les dossiers de l'entreprise ou du gouvernement.

    Les machines continuent d'apprendre

    À l'heure actuelle, il y a suffisamment d'erreurs potentielles dans ces technologies pour donner aux gens une chance de détecter les fabrications numériques. Le compositeur de Bach de Google a commis des erreurs qu'un expert pourrait détecter. Par exemple, quand je l'ai essayé, le programme m'a permis d'entrer des quintes parallèles, un intervalle musical que Bach a soigneusement évité. L'application a également enfreint les règles musicales du contrepoint en harmonisant les mélodies dans la mauvaise tonalité. De la même manière, Le programme de génération de texte d'OpenAI écrivait parfois des phrases comme "des incendies se produisant sous l'eau" qui n'avaient aucun sens dans leurs contextes.

    Pendant que les développeurs travaillent sur leurs créations, ces erreurs deviendront plus rares. Effectivement, Les technologies de l'IA évolueront et apprendront. L'amélioration des performances a le potentiel d'apporter de nombreux avantages sociaux - y compris de meilleurs soins de santé, car les programmes d'IA contribuent à démocratiser la pratique de la médecine.

    Donner aux chercheurs et aux entreprises la liberté d'explorer, afin de rechercher ces réalisations positives des systèmes d'IA, signifie ouvrir le risque de développer des moyens plus avancés pour créer la tromperie et d'autres problèmes sociaux. Limiter sévèrement la recherche sur l'IA pourrait freiner ces progrès. Mais donner aux technologies bénéfiques la possibilité de se développer ne coûte rien - et le potentiel d'abus, que ce soit pour faire de la musique "à la Bach" inexacte ou pour tromper des millions de personnes, est susceptible de croître d'une manière que les gens ne peuvent pas encore anticiper.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com