• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> La nature
    Qui prend la décision finale ? Gestion des catastrophes basée sur l'IA

    Crédit :Ray Oranges

    Protéger les citoyens face à une catastrophe nécessite souvent la prise de décisions de grande envergure. Toute aide est la bienvenue, y compris de la part d'IA.

    Les feux de forêt deviennent de plus en plus incontrôlables, comme le montrent les récents événements en Californie et en Australie. Pourtant, les pompiers continuent de lutter inlassablement contre les flammes – et ils ont aujourd'hui plus à leur disposition que de l'eau et des brûlures contrôlées. La numérisation fait depuis longtemps partie de leur arsenal sous forme de systèmes de géoinformation, webcams et drones. Ceux-ci sont devenus des outils clés dans la prévision et le contrôle des incendies de forêt, pourtant, les énormes quantités de données qu'ils produisent poussent rapidement l'expertise humaine à ses limites. « L'IA est toujours utile lorsque vous traitez des masses de données, " dit Benjamin Scharte, qui dirige l'équipe de recherche sur les risques et la résilience au Centre d'études de sécurité de l'ETH (CSS). Récemment, lui et son collègue Kevin Kohler se sont associés pour analyser l'utilisation de l'IA dans la protection civile.

    "Être capable d'utiliser des algorithmes pour faire des prédictions est assez excitant, " dit Kohler. Dans quelle direction se dirige le front de feu ? Où doit-on placer les prochains brûlages contrôlés ? En écrasant toutes les données disponibles, Les outils de modélisation basés sur l'IA peuvent aider à répondre à ces questions. Ces données peuvent inclure des prévisions météorologiques, durée de la sécheresse, direction du vent et même la quantité potentielle de combustible disponible pour le feu. Les prédictions qui en résultent peuvent rendre la réponse aux catastrophes plus efficace. Dans le meilleur des cas, ils peuvent même agir comme une forme de prévention.

    La protection civile est particulièrement sensible à l'utilisation de l'IA car, trop souvent, c'est une question de vie ou de mort, et chaque minute compte. On attend souvent des experts qu'ils prennent des décisions rapides avec des conséquences de grande portée, ils sont donc reconnaissants pour toute aide pouvant étayer ces décisions avec des données plus solides. Finalement, cependant, la qualité d'une décision dépend toujours de la qualité des données. "Aussi intelligent que soit mon algorithme, il sera de peu d'utilité en cas d'urgence si je ne peux pas lui fournir les bonnes données pour la catastrophe, " met en garde Kohler.

    Même les données de la plus haute qualité ne peuvent jamais remplacer complètement l'expérience acquise par les experts au cours de nombreuses années, la question de savoir si un humain ou une machine doit prendre la décision finale est donc très complexe. Pris dans son ensemble, l'algorithme pourrait éventuellement produire une perte économique inférieure ou moins de victimes que son homologue humain, mais il peut aussi prendre des décisions dans des cas individuels que nous trouvons inacceptables. « Il est clair pour moi que nous, en tant que société, continuera à lutter avec l'idée de laisser les décisions à des machines autonomes, ", dit Scharte.

    Une question de confiance

    Alors, à quel moment serions-nous prêts à laisser une machine prendre ses propres décisions ? Scharte et Kohler conviennent que cela dépend du contexte :« La protection civile est parfois une question de vie ou de mort. Les humains devraient jouer un rôle dans la prise de ces décisions – ce n'est pas le lieu pour les machines de prendre des décisions entièrement autonomes.

    Un facteur crucial est la confiance que les gens accordent à l'algorithme. La confiance ouvre la voie à l'acceptation, et les deux sont améliorés lorsque nous sommes capables de suivre clairement ce que fait un algorithme. Par exemple, quand les médecins comprennent la logique de décision d'un algorithme, ils sont plus susceptibles de lui faire confiance et de l'intégrer dans leur travail. De nombreuses études l'ont confirmé, mais Scharte émet une mise en garde :« La transparence et l'explicabilité n'augmentent pas toujours la sécurité ». Il y a même des cas où la transparence peut être un inconvénient, y compris les dangers d'origine humaine tels que la cybercriminalité et le terrorisme. « Si vous révélez exactement comment un algorithme détecte les comportements suspects, alors les acteurs adverses ont de meilleures chances de le déjouer délibérément, " prévient Scharte.


    © Science https://fr.scienceaq.com