• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Google exclut l'utilisation de l'intelligence artificielle pour les armes (Mise à jour)

    Sundar Pichai, directeur général de Google, a déclaré que le géant américain de la technologie éviterait toute application d'intelligence artificielle pour les armes alors qu'il dévoilait un ensemble de principes pour les technologies

    Google a annoncé jeudi qu'il n'utiliserait pas l'intelligence artificielle pour les armes ou pour "causer ou faciliter directement des blessures aux personnes, " en dévoilant un ensemble de principes pour les technologies.

    Le directeur général Sundar Pichai, dans un article de blog décrivant les politiques de l'entreprise en matière d'intelligence artificielle, a noté que même si Google n'utilisera pas l'IA pour les armes, « nous poursuivrons notre travail avec les gouvernements et les militaires dans de nombreux autres domaines » tels que la cybersécurité, entraînement, ou de recherche et sauvetage.

    La nouvelle arrive avec Google face à un tollé de la part d'employés et d'autres personnes au sujet d'un contrat avec l'armée américaine, dont le géant californien de la technologie a déclaré la semaine dernière qu'il ne serait pas renouvelé.

    Pichai a défini sept principes pour l'application de l'intelligence artificielle par Google, ou informatique avancée qui peut simuler un comportement humain intelligent.

    Il a déclaré que Google utilise l'IA "pour aider les gens à résoudre des problèmes urgents" tels que la prédiction des incendies de forêt, aider les agriculteurs, diagnostiquer une maladie ou prévenir la cécité.

    « Nous reconnaissons qu'une technologie aussi puissante soulève des questions tout aussi importantes quant à son utilisation, " a déclaré Pichai sur le blog.

    « La façon dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années. En tant que leader de l'IA, nous ressentons une profonde responsabilité de bien faire les choses."

    Le directeur général a déclaré que les programmes d'IA de Google seraient conçus pour des applications « socialement bénéfiques » et « éviteraient de créer ou de renforcer des préjugés injustes ».

    Il a déclaré que les principes prévoyaient également que les applications d'IA soient "construites et testées pour la sécurité, « être « responsable envers les gens » et « intégrer les principes de conception de la confidentialité ».

    Google évitera d'utiliser des technologies "qui causent ou sont susceptibles de causer un préjudice global, " a écrit Pichai.

    Cela signifie éviter les « armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures aux personnes » et des systèmes « qui collectent ou utilisent des informations à des fins de surveillance en violation des normes internationalement acceptées ».

    Google interdira également l'utilisation de toute technologie « dont le but contrevient aux principes largement acceptés du droit international et des droits de l'homme, " a déclaré Pichai.

    'Un bon début'

    Certaines premières réactions à l'annonce ont été positives.

    L'Electronic Frontier Foundation, qui avait conduit à l'opposition au contrat Project Maven de Google avec le Pentagone, a qualifié la nouvelle de "grande victoire pour les principes éthiques de l'IA".

    "Félicitations aux Googleurs et autres qui ont travaillé dur pour persuader l'entreprise d'annuler son travail sur le projet Maven, ", a déclaré l'EFF sur Twitter.

    Ryan Calo, professeur de droit à l'Université de Washington et membre du Stanford Center for Internet &Society, tweeté, "Les principes éthiques de l'IA de Google doivent plus au (philosophe anglais Jeremy) Bentham et aux positivistes qu'au (philosophe allemand) Kant. Néanmoins, un bon début."

    Calo ajouté, "La déclaration claire qu'ils ne faciliteront pas la violence ou la surveillance totalitaire est significative."

    Cette décision intervient dans un contexte de préoccupations croissantes selon lesquelles les systèmes automatisés ou robotiques pourraient être mal utilisés et devenir incontrôlables, menant au chaos. À la fois, Google a été critiqué pour s'être éloigné de la devise de ses fondateurs d'origine, "ne soyez pas méchant".

    Plusieurs entreprises technologiques ont déjà accepté les principes généraux de l'utilisation de l'intelligence artificielle pour de bon, mais Google a semblé offrir un ensemble de normes plus précis.

    L'entreprise, qui est déjà membre du Partenariat sur l'intelligence artificielle comprenant des dizaines d'entreprises technologiques engagées dans les principes de l'IA, avait été critiqué pour le contrat avec le Pentagone sur le projet Maven, qui utilise l'apprentissage automatique et les talents d'ingénierie pour distinguer les personnes et les objets dans les vidéos de drones.

    Face à une pétition signée par des milliers de salariés et à des critiques extérieures à l'entreprise, Google a indiqué que le contrat de 10 millions de dollars ne serait pas renouvelé, selon les rapports des médias.

    Mais Google serait en concurrence avec d'autres géants de la technologie tels qu'Amazon et Microsoft pour des contrats lucratifs de "cloud computing" avec le gouvernement américain, y compris pour les agences militaires et de renseignement.

    © 2018 AFP




    © Science https://fr.scienceaq.com