L'IA peut prédire si quelqu'un se trouvait réellement sur le site d'un échantillon d'ADN. Crédits :Gorodenkoff/Shutterstock
Les preuves ADN ne sont souvent pas aussi étanches que beaucoup de gens le pensent. Des techniques sensibles développées au cours des 20 dernières années signifient que la police peut désormais détecter d'infimes traces d'ADN sur une scène de crime ou sur un élément de preuve. Mais les traces d'un auteur sont souvent mélangées avec celles de nombreuses autres personnes qui ont été transférées sur le site d'échantillonnage, par exemple via une poignée de main. Et ce problème a conduit à des condamnations à tort.
Les scientifiques ont développé des algorithmes pour séparer cette soupe d'ADN et mesurer les quantités relatives d'ADN de chaque personne dans un échantillon. Ces méthodes de « génotypage probabiliste » ont permis aux enquêteurs médico-légaux d'indiquer la probabilité que l'ADN d'un individu ait été inclus dans un échantillon mixte trouvé sur les lieux du crime.
Et maintenant, des techniques d'intelligence artificielle (IA) plus sophistiquées sont en cours de développement pour tenter d'extraire des profils d'ADN et essayer de déterminer si un échantillon d'ADN provient directement d'une personne qui se trouvait sur les lieux du crime, ou s'il venait d'être transféré innocemment.
Mais si cette technologie réussit, cela pourrait introduire un nouveau problème, car il est actuellement impossible de comprendre exactement comment cette IA parvient à ses conclusions. Et comment pouvons-nous faire confiance à la technologie pour fournir des preuves vitales si nous ne pouvons pas nous demander comment elle a produit ces preuves en premier lieu ? Il a le potentiel d'ouvrir la voie à encore plus d'erreurs judiciaires et donc ce manque de transparence peut être un obstacle à l'utilisation de la technologie dans les enquêtes médico-légales.
Des défis similaires sont apparus lorsque le logiciel d'analyse ADN a été développé pour la première fois il y a une décennie. Les preuves issues du logiciel de mélange d'ADN se sont très vite heurtées aux défis des équipes de défense (dont celui d'OJ Simpson), qui craignaient que la poursuite démontre que le logiciel a été correctement validé.
Quelle était la précision des résultats, et quel était le taux d'erreur connu ? Comment fonctionnait exactement le logiciel et pouvait-il accueillir des hypothèses de défense ? Les résultats étaient-ils vraiment si fiables qu'un jury pourrait condamner en toute sécurité ?
C'est un principe fondamental de la loi que la preuve doit être ouverte à l'examen. Le jury ne peut pas se fonder sur des affirmations simples (affirmations faites sans preuve), peu importe qui les fabrique et quelle est leur expertise. Mais les propriétaires du logiciel ont fait valoir qu'il s'agissait de leur propriété intellectuelle protégée et que son fonctionnement ne devrait pas être rendu public.
Une bataille s'est ensuivie qui impliquait l'utilisation de nouvelles procédures judiciaires pour permettre aux équipes de défense d'examiner en privé le fonctionnement du logiciel. Finalement, les tribunaux étaient persuadés qu'un accès complet au code source était nécessaire, notamment pour tester d'autres hypothèses que celles avancées par l'accusation.
Mais le logiciel n'a pas complètement résolu les problèmes des mélanges d'ADN et des petits, échantillons dégradés. Nous ne savons toujours pas avec certitude si l'ADN d'un échantillon provient directement d'une personne ou y a été transféré. Ceci est compliqué par le fait que différentes personnes perdent de l'ADN à des rythmes différents, un phénomène connu sous le nom de "statut de rejet".
Par exemple, un échantillon prélevé sur une arme du crime pourrait contenir plus d'ADN de quelqu'un qui ne l'a pas touché que de la personne qui a réellement commis le meurtre. Des gens ont été accusés d'infractions graves à cause de cela.
Ajoutez le fait que l'ADN est transféré à des vitesses différentes sur différentes surfaces et dans différentes conditions environnementales et il peut devenir presque impossible de savoir exactement d'où provient l'ADN d'un échantillon. Ce problème de « transfert et de persistance » menace de porter gravement atteinte à l'ADN médico-légal.
Par conséquent, des expériences sont en cours pour trouver des moyens de quantifier plus précisément le transfert d'ADN dans différentes circonstances. Et l'IA a le potentiel d'analyser les données de ces expériences et de les utiliser pour indiquer l'origine de l'ADN dans un échantillon.
Mais les logiciels basés sur l'IA ont un problème de transparence encore plus grand que les logiciels de génotypage probabiliste, et un qui est actuellement fondamental à la façon dont cela fonctionne. La manière exacte dont fonctionne le logiciel n'est pas seulement un secret commercial, elle n'est pas claire même pour les développeurs de logiciels.
Problèmes de transparence
L'IA utilise des algorithmes mathématiques pour effectuer des tâches telles que la correspondance d'une expression faciale avec un ensemble particulier d'émotions. Mais, de manière cruciale, il est capable d'apprendre par un processus d'essais et d'erreurs et manipule progressivement ses algorithmes sous-jacents afin de devenir plus efficace.
C'est ce processus de manipulation et de changement qui n'est pas toujours transparent. Le logiciel effectue ses changements incroyablement rapidement selon sa propre logique indéchiffrable. Il peut obtenir des résultats incroyablement efficaces, mais nous ne pouvons pas dire comment il l'a fait. Il agit comme une boîte noire qui prend des entrées et donne des sorties, mais dont le fonctionnement interne est invisible. Les programmeurs peuvent passer par un processus de développement plus clair, mais il est plus lent et moins efficace.
Ce problème de transparence affecte de nombreuses applications plus larges de l'IA. Par exemple, cela rend très difficile la correction des systèmes d'IA dont les décisions affichent un biais racial ou sexiste, tels ceux utilisés pour passer au crible les curriculum vitae des employés, ou pour cibler les ressources policières.
Et l'avènement de l'analyse ADN basée sur l'IA ajoutera une dimension supplémentaire aux problèmes déjà rencontrés. Les avocats de la défense pourraient à juste titre contester l'utilisation de cette technologie, même si son utilisation est limitée à la collecte de renseignements plutôt qu'à la fourniture de preuves à charge. À moins que les problèmes de transparence ne soient résolus à un stade précoce, les obstacles à l'utilisation de l'IA dans le domaine médico-légal pourraient s'avérer insurmontables.
Comment pouvons-nous faire pour relever ces défis? Une option peut être d'opter pour le moins efficace, formes contraintes d'IA. Mais si le but de l'IA est de faire les tâches dont nous sommes moins capables ou moins disposés à faire nous-mêmes, alors réduire l'efficacité peut être une mauvaise solution. Quelle que soit la forme d'IA que nous choisissons d'utiliser, dans un système accusatoire de justice pénale, il doit y avoir une possibilité de révision, faire de la rétro-ingénierie de toutes les décisions automatisées, et pour les tiers de fournir une validation sans ambiguïté.
Finalement, il ne s'agit pas seulement d'un problème technique, mais un problème éthique urgent qui touche au cœur de nos systèmes de justice pénale. L'enjeu est le droit à un juste, procès ouvert et transparent. Il s'agit d'une exigence fondamentale qui doit être satisfaite avant que la fuite en avant du progrès technologique ne nous amène au-delà du point de non-retour.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.