• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Comment l'IA aide à prédire et à prévenir les suicides

    Un projet pilote de 2018 entre l'Agence de la santé publique du Canada et Advanced Symbolics utilisera les publications sur les réseaux sociaux comme ressource pour prédire les taux de suicide régionaux. Crédit :Shutterstock

    Le suicide est une préoccupation croissante de santé publique. Au Canada, 4, 000 vies sont tuées par suicide chaque année, soit 10 vies par jour.

    Pour chacun de ces suicides, il y a cinq personnes hospitalisées suite à une automutilation, 25 à 30 tentatives de suicide et 7 à 10 personnes touchées par chaque tragédie, selon l'analyse de l'Agence de la santé publique du Canada.

    Les taux de suicide sont les plus élevés parmi certains groupes — comme les peuples autochtones, immigrés et réfugiés, les prisonnières et les lesbiennes, homosexuel, bisexuel, transgenres, communauté intersexe (LGBTI) - et sont en augmentation.

    Les impacts du suicide se font sentir largement. La Toronto Transit Commission (TTC) a récemment signalé une augmentation des suicides dans les transports en commun à la fin de 2017, avec huit tentatives rien qu'en décembre, et une augmentation correspondante des taux de congés pour stress chez les employés de la TTC, en raison du tribut que cela a pris sur le personnel.

    L'intelligence artificielle (IA) pourrait-elle ou l'intelligence démontrée par les machines, peut-être aider à prévenir ces décès?

    En tant que chercheurs en psychiatrie, dans le Réseau canadien d'intégration des biomarqueurs pour la dépression, nous recueillons des données cliniques et biologiques lors d'interventions thérapeutiques pour les personnes souffrant de dépression majeure. Nous explorons les premiers indices des changements de comportement et d'humeur à l'aide des technologies de santé mobiles.

    L'un de nos objectifs est d'identifier les prédicteurs précoces de rechute, et un risque accru de comportement suicidaire.

    Nous passons ici en revue d'autres applications prometteuses de l'IA pour la prévention du suicide, et attirer l'attention sur les obstacles dans ce domaine.

    L'IA prédit les taux de suicide

    Début 2018, l'Agence de la santé publique du Canada a annoncé un projet pilote avec Advanced Symbolics, une société d'IA basée à Ottawa qui a prédit avec succès le Brexit, La présidence de Trump et les résultats des élections canadiennes de 2015.

    Le projet recherchera et prédit les taux de suicide régionaux en examinant les tendances dans les publications sur les réseaux sociaux canadiens, y compris le contenu lié au suicide, bien que l'identité de l'utilisateur ne soit pas collectée.

    Le programme n'isolera pas les cas à haut risque et n'interviendra pas au niveau individuel. Au lieu, les résultats seront utilisés pour éclairer la planification des ressources en santé mentale.

    Facebook alerte les secouristes

    En 2011, Facebook a développé un système manuel de rapport de suicide où les utilisateurs peuvent télécharger des captures d'écran de contenu suicidaire pour examen.

    En 2015, le système permettait aux utilisateurs de « signaler » concernant le contenu, ce qui inciterait le personnel de Facebook à examiner la publication et à répondre avec des ressources de soutien.

    En raison du succès de l'outil, Facebook a commencé à étendre ses capacités d'IA pour détecter automatiquement le contenu lié au suicide, et alerter les intervenants d'urgence locaux. Il y a aussi plus d'options de langue, et une extension dans Instagram.

    Les chatbots proposent une thérapie contre la dépression

    L'IA est utilisée dans les soins de santé depuis les années 1990 pour améliorer la détection des maladies et divers indices de bien-être.

    Au sein de la santé mentale, L'IA a amélioré la vitesse et la précision du diagnostic, et appliqué des « arbres de décision » pour guider le choix du traitement.

    Une nouvelle approche de la « thérapie » implique des robots conversationnels (ou chatbots) qui sont des programmes informatiques conçus pour simuler une conversation humaine en utilisant des réponses vocales ou textuelles.

    Les chatbots peuvent fournir des interventions psychologiques pour la dépression et l'anxiété basées sur la thérapie cognitivo-comportementale (TCC). Étant donné que les chatbots répondent de manière unique au dialogue présenté, ils peuvent adapter les interventions à l'état émotionnel et aux besoins cliniques d'un patient. Ces modèles sont considérés comme assez conviviaux, et les réponses adaptées aux utilisateurs du chatbot lui-même ont été bien examinées.

    Une technologie similaire est ajoutée aux smartphones pour permettre aux assistants vocaux, comme le Siri de l'iPhone, reconnaître et répondre aux problèmes de santé mentale des utilisateurs avec des informations appropriées et des ressources de soutien. Cependant, cette technologie n'est pas considérée comme fiable et n'en est qu'à ses débuts. D'autres applications pour smartphones utilisent même des jeux pour améliorer l'éducation aux soins de santé mentale.

    La technologie de l'IA a également été intégrée à la gestion du suicide pour améliorer les soins aux patients dans d'autres domaines. Il a été démontré que les outils d'évaluation de l'IA prédisent le risque de suicide à court terme et font des recommandations de traitement aussi bonnes que les cliniciens. Les outils sont également très appréciés des patients.

    Les modèles d'IA prédisent le risque individuel

    L'évaluation et la gestion actuelles du risque suicidaire sont encore très subjectives. Pour améliorer les résultats, des stratégies d'IA plus objectives sont nécessaires. Les applications prometteuses incluent la prédiction du risque de suicide et la gestion clinique.

    Le suicide est influencé par une variété de facteurs psychosociaux, biologique, environnemental, facteurs économiques et culturels. L'IA peut être utilisée pour explorer l'association entre ces facteurs et les résultats du suicide.

    L'IA peut également modéliser l'effet combiné de plusieurs facteurs sur le suicide, et utiliser ces modèles pour prédire le risque individuel.

    Par exemple, des chercheurs de l'Université Vanderbilt ont récemment conçu un modèle d'IA qui prédit le risque de suicide, en utilisant les dossiers de santé électroniques, avec une précision de 84 à 92 pour cent dans la semaine suivant un événement suicidaire et de 80 à 86 pour cent dans les deux ans.

    Avancer avec prudence

    À mesure que le domaine de la prévention du suicide à l'aide de l'intelligence artificielle progresse, il y a plusieurs obstacles potentiels à surmonter :

    1. Confidentialité :la législation protectrice devra être élargie pour inclure les risques associés à l'IA, en particulier la collecte, espace de rangement, le transfert et l'utilisation d'informations médicales confidentielles.
    2. Précision :la précision de l'IA pour déterminer correctement l'intention de suicide devra être confirmée, spécifiquement en ce qui concerne les biais ou erreurs du système, avant de qualifier une personne de risque élevé (vs faible).
    3. Sécurité :il est essentiel de s'assurer que les programmes d'IA peuvent répondre de manière appropriée aux utilisateurs suicidaires, afin de ne pas aggraver leur état émotionnel ou faciliter accidentellement la planification du suicide.
    4. Responsabilité :des protocoles de réponse sont nécessaires pour savoir comment gérer correctement les cas à haut risque signalés par la technologie de l'IA, et que faire si les évaluations des risques d'IA diffèrent de l'opinion clinique.
    5. Manque de compréhension :il existe un manque de connaissances parmi les principaux utilisateurs sur la manière dont la technologie de l'IA s'intègre dans la prévention du suicide. Plus d'éducation sur le sujet est nécessaire pour résoudre ce problème.

    Globalement, La technologie de l'IA est là pour rester dans de nombreux aspects des soins de santé, y compris le dépistage du suicide et la prestation d'interventions.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com