Big Data et prévention du suicide
Par Marie-Claude Bourdon
16 Mars 2021
Série Doc en poche
Armés de leur doctorat, les diplômés de l’UQAM sont des vecteurs de changement dans leur domaine respectif.
Carl Mörch (Ph.D. psychologie, 2020)
Titre de sa thèse : «Big Data, intelligence artificielle et prévention du suicide»
Direction de recherche : Brian Mishara, professeur au Département de psychologie, directeur du Centre de recherche et d’intervention sur le suicide et l’euthanasie (CRISE)
Enjeu social: guider les interventions qui utilisent l’intelligence artificielle
De plus en plus, on utilise des technologies d’intelligence artificielle (IA) pour mieux connaître nos goûts et nos besoins. Ces technologies, qui fonctionnent grâce aux données produites par nos téléphones et ordinateurs, peuvent servir à nous vendre des produits ciblés selon nos désirs. Mais elles peuvent aussi être utilisées à des fins de recherche et même d’intervention: pour prévenir des suicides, par exemple. Leur utilisation en santé mentale soulève toutefois des enjeux éthiques et sociaux. Ces enjeux sont au cœur de la thèse de Carl Mörch (Ph.D, psychologie, 2020), aujourd’hui codirecteur de l’Institut de l'IA pour le bien commun, rattaché à l’Université libre de Bruxelles, et professeur associé au Département de psychologie.
«Les données massives suscitent l’espoir de mieux anticiper les troubles de santé mentale, de mieux intervenir dans les situations de crise, voire de comprendre davantage des problèmes psychologiques complexes, note le diplômé. Les chercheurs en prévention du suicide les utilisent de plus en plus, de même que les professionnels en entreprise, que ce soit dans le domaine des jeux vidéos ou des réseaux sociaux. Pourtant, il y a encore très peu de cours sur le sujet en psychologie.»
Quand on s’apprête à utiliser des données massives ou des technologies d’IA, on ne peut ignorer les enjeux que cela soulève, notamment en matière de confidentialité. «Les données et l’IA sont associées à des scandales, que dans le domaine du marketing ou de la surveillance étatique liée à de l’influence politique, souligne Carl Mörch. Cela montre que ces technologies comportent leur lot de défis.»
Les cadres juridiques évoluent et les pratiques reliées à l’IA seront de mieux en mieux encadrées, croit le chercheur, mais quand on les importe dans un domaine aussi sensible que la santé mentale, on doit redoubler de vigilance. «Est-ce qu’on pose la question du libre arbitre? Est-ce que les gens sont au courant que leurs données sont utilisées? Que se passe-t-il en cas d’erreur? Voilà quelques-unes des questions que l’on doit se poser», évoque Carl Mörch.
Comme toute méthode de dépistage, un algorithme utilisé pour détecter des personnes suicidaires sur les réseaux sociaux générera inévitablement des faux positifs. Autrement dit, des personnes à qui l’on dira qu’elles ont un problème alors qu’elles n’en ont pas. Il faut prévoir une stratégie pour ces cas-là, observe le diplômé. «Il y a toujours un certain pourcentage d’erreurs avec les méthodes de détection, dit-il. Or, avec l’utilisation des données massives, l’automatisation et l’accélération des processus, le moindre petit défaut est amplifié.»
À l’issue de ses recherches doctorales, Carl Mörch a produit avec deux partenaires, dont son directeur de thèse, Brian Mishara, un outil, le Protocole canadien, qui amène l’utilisateur de technologies d’IA à se poser les questions pertinentes en fonction de son projet. «Notre outil ne propose pas de réponses toutes faites, dit le chercheur. Il fonctionne plutôt comme une liste à cocher, qui permet de passer en revue 38 questions éthiques en rapport avec l’utilisation de l’intelligence artificielle dans le contexte de la santé mentale et de la prévention du suicide.»
Les sujets abordés vont du processus de traitement des plaintes à la protection des données personnelles, en passant par les risques de mauvaise utilisation et les biais menant à la discrimination et à l’exclusion. «Prenons l’exemple d’un algorithme censé détecter les personnes à risque sur les réseaux sociaux, illustre le chercheur. Si les données utilisées pour entraîner l’algorithme sont biaisées au départ, les technologies d’IA auront un effet amplificateur et cela pourrait faire en sorte que l’on ne détecte pas certains cas. C’est pourquoi il faut porter une attention particulière aux détails.»
Selon Carl Mörch, c’est son approche consistant à «appliquer des principes éthiques de haut niveau à des domaines très concrets» qui lui a valu d’être embauché par l’Institut de l'IA pour le bien commun. Sorte de think tanksur les enjeux d’IA, l’Institut a été lancé le 15 mars dernier. Il a pour mandat de produire des recherches, notamment en lien avec la Ville de Bruxelles, sur des défis posés dans le domaine de l’IA, de proposer des projets éducatifs et d’impliquer les citoyens dans la gestion des systèmes qui utilisent leurs données. «En plus des téléphones qui génèrent des données, il y a de plus en plus de caméras et de capteurs de toutes sortes installés dans notre environnement, souligne le chercheur. En traitant cette masse de données et en lui donnant du sens, l’IA pourrait éventuellement rendre des services. L’impératif maintenant, c’est de rendre tout cela beaucoup plus transparent. Et il faut s’assurer que ces systèmes soient développés de façon éthique, en accord avec le public. ».»
https://www.actualites.uqam.ca/2021/big-data-et-prevention-du-suicide-questions-ethique