• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Serons-nous un jour d'accord sur un seul ensemble de règles sur le développement éthique de l'intelligence artificielle ?

    Chacun a sa propre idée sur l'utilisation éthique de l'IA, mais pouvons-nous obtenir un consensus mondial ? Crédits :Shutterstock/EtiAmmos

    L'Australie fait partie des 42 pays qui ont signé la semaine dernière un nouvel ensemble de directives politiques pour le développement de systèmes d'intelligence artificielle (IA).

    Pourtant, l'Australie a son propre projet de lignes directrices sur l'éthique dans l'IA pour consultation publique, et un certain nombre d'autres pays et organismes industriels ont élaboré leurs propres directives en matière d'IA.

    Alors pourquoi avons-nous besoin de tant de lignes directrices, et certains d'entre eux sont-ils exécutoires?

    Les nouveaux principes

    La dernière série de directives politiques est la Recommandation sur l'intelligence artificielle de l'Organisation de coopération et de développement économiques (OCDE).

    Il promeut cinq principes pour le développement responsable d'une IA digne de confiance. Il comprend également cinq stratégies complémentaires pour développer la politique nationale et la coopération internationale.

    Étant donné que cela vient de l'OCDE, il se situe entre la promotion de l'amélioration économique et de l'innovation et la promotion des valeurs fondamentales et de la confiance dans le développement de l'IA.

    Les cinq principes de l'IA encouragent :

    1. croissance inclusive, développement durable et bien-être
    2. valeurs et équité centrées sur l'humain
    3. transparence et explicabilité
    4. robustesse, sécurité et de sûreté
    5. responsabilité.

    Ces recommandations sont larges et n'ont pas force de loi ni même de règles. Au lieu de cela, ils cherchent à encourager les pays membres à intégrer ces valeurs ou cette éthique dans le développement de l'IA.

    Mais qu'entendons-nous par IA ?

    Il est difficile de faire des recommandations spécifiques par rapport à l'IA. C'est en partie parce que l'IA n'est pas une chose avec une seule application qui pose des risques ou des menaces singuliers.

    Au lieu, L'IA est devenue un terme générique pour désigner un grand nombre de systèmes différents. Chacun est généralement conçu pour collecter et traiter des données à l'aide de la technologie informatique, s'adapter au changement, et agir rationnellement pour atteindre ses objectifs, finalement sans intervention humaine.

    Ces objectifs pourraient être aussi différents que la traduction de la langue, identifier les visages, ou même jouer aux échecs.

    Le type d'IA qui est exceptionnellement bon pour atteindre ces objectifs est souvent appelé IA étroite. Un bon exemple est une IA jouant aux échecs. Ceci est spécialement conçu pour jouer aux échecs - et est extrêmement bon pour cela - mais complètement inutile à d'autres tâches.

    D'autre part, l'IA générale. C'est l'IA qui, dit-on, remplacera l'intelligence humaine dans la plupart sinon toutes les tâches. C'est encore loin mais reste l'objectif ultime de certains développeurs d'IA.

    Pourtant, c'est cette idée d'IA générale qui est à l'origine de bon nombre des peurs et des idées fausses qui entourent l'IA.

    Beaucoup de nombreuses directives

    En réponse à ces craintes et à un certain nombre de problèmes très réels liés à l'IA étroite, Les recommandations de l'OCDE sont les dernières d'un certain nombre de projets et de lignes directrices de gouvernements et d'autres organismes du monde entier qui cherchent à inculquer une approche éthique au développement de l'IA.

    Il s'agit notamment des initiatives de l'Institut des ingénieurs électriciens et électroniciens, l'autorité française de protection des données, le Bureau du Commissaire à la protection de la vie privée de Hong Kong et la Commission européenne.

    Le gouvernement australien a financé Data61 du CSIRO pour développer un cadre d'éthique de l'IA, qui est maintenant ouvert aux commentaires du public, et l'Australian Council of Learned Academies n'a pas encore publié son rapport sur l'avenir de l'IA en Australie.

    La Commission australienne des droits de l'homme, avec le Forum économique mondial, examine et rend compte également de l'impact de l'IA sur les droits de l'homme.

    Le but de ces initiatives est d'encourager ou d'encourager le développement éthique de l'IA. Mais cela présuppose un comportement contraire à l'éthique. Quel est le mal dans l'IA?

    IA contraire à l'éthique

    Une étude a identifié trois grandes utilisations malveillantes potentielles de l'IA. Ces cibles :

    • sécurité numérique (par exemple, par des cyberattaques)
    • sécurité physique (par exemple, attaques à l'aide de drones ou de piratage)
    • sécurité politique (par exemple, si l'IA est utilisée pour la surveillance de masse, persuasion et tromperie).

    Un sujet de préoccupation évolue en Chine, où plusieurs régions développent un système de crédit social lié à une surveillance de masse utilisant les technologies de l'IA.

    Le système peut identifier une personne qui enfreint les normes sociales (comme le jaywalking, fréquenter des criminels, ou une mauvaise utilisation des médias sociaux) et débiter des points de crédit social de l'individu.

    Lorsqu'un pointage de crédit est réduit, les libertés de cette personne (comme la liberté de voyager ou d'emprunter de l'argent) sont restreintes. Bien qu'il ne s'agisse pas encore d'un système national, les rapports indiquent que cela pourrait être le but ultime.

    À ces abus délibérés de l'IA s'ajoutent plusieurs effets secondaires involontaires d'une IA étroite mal construite ou mise en œuvre. Il s'agit notamment des préjugés, de la discrimination et de l'érosion de la confiance.

    Construire un consensus sur l'IA

    Les sociétés diffèrent sur ce qui est éthique. Même les gens au sein des sociétés diffèrent sur ce qu'ils considèrent comme un comportement éthique. Alors, comment peut-il jamais y avoir un consensus mondial sur le développement éthique de l'IA ?

    Compte tenu de la portée très large du développement de l'IA, toute politique relative à l'IA éthique ne peut pas encore être plus spécifique tant que nous ne pouvons identifier des normes partagées de comportement éthique qui pourraient constituer la base de certaines règles mondiales convenues.

    En développant et en exprimant les valeurs, les droits et les normes que nous considérons comme importants maintenant sous la forme des rapports et des lignes directrices décrits ci-dessus, nous travaillons à instaurer la confiance entre les nations.

    Des thèmes communs émergent dans les différentes lignes directrices, comme la nécessité d'une IA qui tienne compte des droits de l'homme, Sécurité, sécurité, transparence, fiabilité et responsabilité, nous sommes donc peut-être encore sur la voie d'un consensus mondial.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com