L'utilisation de bots pour se mêler des élections politiques. Des algorithmes qui apprennent qui sont les gens et les font revenir sur les plateformes de médias sociaux. L'essor des véhicules autonomes et des drones qui pourraient déplacer des centaines de milliers de travailleurs.
L'"apocalypse des robots" que certains envisageaient avec l'avènement de l'intelligence artificielle n'est pas arrivée, mais les systèmes d'apprentissage automatique font désormais partie du quotidien des Californiens, des experts en technologie ont déclaré aux législateurs de l'État à Sacramento plus tôt ce mois-ci. À mesure que l'utilisation de la technologie se généralise, il en sera de même des défis pour les législateurs qui devront se débattre avec comment et quand ils doivent intervenir pour protéger les données personnelles des personnes.
"L'IA est peut-être trop médiatisée, mais il est là pour rester, " dit Olaf Groth, professeur de commerce international à l'UC Berkeley. "Nous sommes bel et bien au seuil, à l'heure actuelle, entre l'IA étant un nouveau développement qui promet une croissance significative de l'économie, et l'IA causant également des perturbations importantes dans la société."
L'audition de l'Assemblée nationale était la deuxième cette année à aborder la question de l'intelligence artificielle. Le président du comité, Député Ed Chau, D-Arcadie, a déclaré qu'il espérait que ce serait l'un des nombreux à ouvrir un dialogue sur une force qui refaçonne déjà la société. Membres de la commission Little Hoover, une agence de contrôle étatique indépendante qui examine les opérations gouvernementales, tenu une discussion similaire le mois dernier.
L'IA est vaguement définie comme la théorie et le développement de systèmes informatiques capables d'effectuer des tâches qui nécessitent traditionnellement l'intelligence humaine. Les tribunaux utilisent l'intelligence artificielle pour déterminer si les accusés sont aptes à être libérés sous caution, les scientifiques développent des systèmes d'IA pour faire correspondre les patients avec un traitement et au moins une entreprise utilise l'IA pour repenser la façon dont les magasins locaux livrent les produits d'épicerie.
Des représentants des sociétés de technologie Adobe et Postmates ont fait valoir lors de l'audience de ce mois-ci que les législateurs ne devraient pas agir trop rapidement dans l'élaboration de réglementations en matière de confidentialité.
"La meilleure chose que nous puissions faire pour rendre l'IA impartiale (et efficace) est de nous assurer que (les législateurs) peuvent se former sur les ensembles de données les plus larges qui existent, " a déclaré Dana Rao, vice-président de la propriété intellectuelle et du contentieux chez Adobe.
Mais les experts en confidentialité technologique ont répliqué, disant que les utilisateurs veulent plus de contrôle sur la façon dont leurs informations personnelles sont partagées. Les patients, par exemple, peuvent accepter de partager leurs données médicales avec un développeur d'IA, mais pourrait ne pas vouloir que cette entreprise divulgue ses informations à ses employeurs ou à ses compagnies d'assurance maladie.
Les législateurs des États ont commencé à s'attaquer à certaines de ces questions. La législation de cette année obligerait les entreprises sociales à identifier les bots sur leurs plateformes. D'autres projets de loi financeraient des recherches indépendantes sur les qualités addictives des médias sociaux, exiger des fabricants qu'ils installent de nouvelles fonctionnalités de sécurité sur leurs appareils connectés à Internet et obliger la police à divulguer tous leurs équipements technologiques, comme un logiciel de reconnaissance faciale.
Jonathan Feldman de la California Police Chiefs Assn. envisagé un scénario dans lequel la police utilisera un jour l'IA pour prédire les comportements violents ou criminels, permettant aux agents de prendre de meilleures décisions au travail. Mais sans de meilleures lois sur la transparence, le public aura peu de connaissances sur ce que ces systèmes automatisés collectent auprès des gens ordinaires et si leurs prédictions sont exactes, dit Matt Cagle, un avocat de la technologie avec l'ACLU de Californie du Nord.
Samantha Corbin, un lobbyiste de la protection de la vie privée qui a récemment co-lancé l'application We Said Enough pour signaler le harcèlement sexuel, a fait valoir qu'il devrait y avoir davantage de protections de l'État contre l'utilisation abusive des données dans tous les domaines.
« Le niveau d'informations pouvant être agrégées, le degré de connaissance intime qui sera connu sur les individus - ces données à vie - n'est à bien des égards pas protégé par les lois existantes obsolètes concernant la confidentialité, la sécurité et même la recherche humaine, " elle a dit.
©2018 Los Angeles Times
Distribué par Tribune Content Agency, LLC.