vendredi 25 février 2022

Droit et intelligence artificielle en psychiatrie Le cas de l’aide à la décision en prévention du risque suicidaire

 

Droit et intelligence artificielle en psychiatrie
Le cas de l’aide à la décision en prévention du risque suicidaire 
Laurène Mazeau and Sofian Berrouiguet

Laurène Mazeau est maître de conférences à l’Université de Bretagne occidentale et rattachée au laboratoire de recherche en Droit (Lab-Lex, EA 7480), depuis 2012. Depuis sa thèse de doctorat soutenue à l’Université de Toulouse 1 Capitole, elle développe une recherche ciblée sur la question de l’influence des sciences et technologies sur le droit. Elle est l’auteure de plus d’une vingtaine de publications dans le domaine des rapports qu’entretient le droit avec l’intelligence artificielle, l’aide à la décision, la recherche opérationnelle ou encore l’automatisme. Depuis 2014, elle est responsable de la chronique « Responsabilité » pour la revue Cahiers Droit Sciences & Technologies du Réseau Droit Sciences et Techniques (GDR CNRS 3178).

Sofian Berrouiguet est maître de conférences, praticien Hospitalier à l’Université de Bretagne occidentale, rattaché au Laboratoire LaTIM INSERM UMR 1101 et au CHRU de Brest. Psychiatre, docteur en informatique, il est spécialisé en déploiement de projets de prévention s’appuyant sur les technologies numériques et l’intelligence artificielle. Il est l’auteur de plus d’une vingtaine d’articles en prévention du suicide, informatique médicale et data science. Il coordonne le déploiement de vigilanS en région Bretagne. Il est coordonnateur médical de la Direction de l’Innovation du CHRU de Brest.

dans
Éthique publique vol. 23, n° 2 | 2021 Online since 22 February 2022
La gouvernance algorithmique
Quelles régulations sectorielles par le droit et l’éthique observe-t-on?

Chaque année, plus de 800 000 personnes meurent par suicide dans le monde. Le développement d’outils de prévention apparaît comme un enjeu majeur de santé publique. Les processus d’intelligence artificielle (IA) pourraient fournir un support efficient à l’aide à la décision en prévention du suicide grâce à l’accès aux données cliniques et à l’interprétation des signaux de risque de passage à l’acte.

La législation en vigueur apporte un cadre général sur la protection des droits fondamentaux, celle des patients, ou la sécurité des produits. Toutefois, certaines spécificités de l’IA en compliquent l’application et le contrôle. Or, lorsque des innovations de ruptures revendiquent une partie de la décision médicale, elles convoquent une réflexion sur le plan du droit.

Dans un cadre interdisciplinaire, cet article envisage les enjeux juridiques qui accompagnent le déploiement de processus d’IA dans la prévention des risques suicidaires et formule quelques éléments de réponses.

Plan
L’approche traditionnelle de la décision médicale en prévention du risque suicidaire
Les contours de l’action médicale
Décision médicale et responsabilité
Le renouvellement de la décision médicale en prévention du risque suicidaire par les systèmes d’intelligence artificielle
Du « colloque singulier » à l’évaluation écologique instantanée
Les conséquences pratiques et juridiques de l’évaluation écologique instantanée
Propos conclusifs