Crédit :CC0 Domaine public
L'intelligence artificielle et l'apprentissage automatique (IA/ML) transforment de plus en plus le secteur de la santé. Du repérage des tumeurs malignes à la lecture des tomodensitogrammes et des mammographies, La technologie basée sur l'IA/ML est plus rapide et plus précise que les appareils traditionnels ou même les meilleurs médecins. Mais avec les avantages viennent de nouveaux risques et défis réglementaires.
Dans leur dernier article, "Algorithmes sur le confinement réglementaire en médecine" récemment publié dans Science , Boris Babic, Maître de Conférences INSEAD en Sciences de la Décision; Théodoros Evgeniou, Professeur INSEAD en Sciences de la Décision et Management des Technologies; Sara Gerke, Chercheur au Petrie-Flom Center for Health Law Policy de la Harvard Law School, Biotechnologie, et bioéthique; et moi Glenn Cohen, Professeur à la Harvard Law School et directeur de faculté au Petrie-Flom Center, examinez les nouveaux défis auxquels sont confrontés les régulateurs alors qu'ils naviguent sur les voies inconnues de l'IA/ML.
Ils examinent les questions suivantes :à quels nouveaux risques sommes-nous confrontés lors du développement et de la mise en œuvre des dispositifs d'IA/ML ? Comment doivent-ils être gérés ? Sur quels facteurs les régulateurs doivent-ils se concentrer pour garantir une valeur maximale avec un risque minimal ?
Jusqu'à présent, les organismes de réglementation comme la Food and Drug Administration (FDA) des États-Unis ont approuvé les logiciels médicaux basés sur l'IA/ML avec des « algorithmes verrouillés, " C'est, algorithmes qui fournissent le même résultat à chaque fois et ne changent pas avec l'utilisation. Cependant, une force clé et un avantage potentiel de la plupart des technologies d'IA/ML découlent de sa capacité à évoluer à mesure que le modèle apprend en réponse à de nouvelles données. Ces "algorithmes adaptatifs, " rendu possible grâce à l'IA/ML, créer ce qui est essentiellement un système de santé apprenant, où les frontières entre recherche et pratique sont poreuses.
Compte tenu de la valeur importante de ce système adaptatif, une question fondamentale pour les régulateurs aujourd'hui est de savoir si l'autorisation doit être limitée à la version de la technologie qui a été soumise et évaluée comme étant sûre et efficace, ou s'ils permettent la commercialisation d'un algorithme où la plus grande valeur réside dans la capacité de la technologie à apprendre et à s'adapter à de nouvelles conditions.
Les auteurs examinent en profondeur les risques liés à ce problème de mise à jour, en tenant compte des domaines spécifiques qui nécessitent une attention particulière et des moyens par lesquels les défis pourraient être relevés.
La clé d'une réglementation forte, ils disent, est de privilégier la surveillance continue des risques.
« Pour gérer les risques, les régulateurs devraient se concentrer en particulier sur la surveillance continue et l'évaluation des risques, et moins sur la planification des futurs changements d'algorithme, ", disent les auteurs.
Au fur et à mesure que les régulateurs avancent, les auteurs leur recommandent de développer de nouveaux processus pour surveiller en permanence, identifier, et gérer les risques associés. Ils suggèrent des éléments clés qui pourraient aider à cela, et qui pourraient à l'avenir être eux-mêmes automatisés à l'aide de l'IA/ML, éventuellement en ayant des systèmes d'IA/ML qui se surveillent les uns les autres.
Bien que l'article s'inspire largement de l'expérience de la FDA en matière de réglementation de la technologie biomédicale, les leçons et les exemples sont d'une grande pertinence alors que d'autres pays réfléchissent à la manière dont ils façonnent leur architecture réglementaire associée. Ils sont également importants et pertinents pour toute entreprise qui développe des produits et services intégrés AI/ML, de l'automobile, à l'assurance, financiers, énergie, et de plus en plus d'autres. Les dirigeants de toutes les organisations ont beaucoup à apprendre sur la gestion des nouveaux risques d'IA/ML à partir de la façon dont les régulateurs les considèrent aujourd'hui.
"Notre objectif est de souligner les risques qui peuvent découler de changements imprévus dans la façon dont les systèmes médicaux d'IA/ML réagissent ou s'adaptent à leurs environnements, " disent les auteurs, avertissant que, "Subtil, Des mises à jour paramétriques souvent méconnues ou de nouveaux types de données peuvent provoquer des erreurs importantes et coûteuses."