lundi 13 mai 2024

ETUDE RECHERCHE CANADA Pourra-t-on prévenir le suicide à l’aide de l’intelligence artificielle?

Pourra-t-on prévenir le suicide à l’aide de l’intelligence artificielle?

L'intelligence artificielle pourrait aider des intervenants en centres de crise à mieux intervenir auprès de personnes ayant des idées suicidaires.
Alain Labelle

L’analyse de la parole au moyen d’un outil d’intelligence artificielle permettra d’évaluer les risques de suicide, affirme l’ingénieur en science des données Alaa Nfissi, qui prépare actuellement un doctorat à l’Université Concordia à Montréal.

Son projet doctoral porte sur le développement de techniques d’intelligence artificielle permettant la détection automatique d’émotions à partir de conversations téléphoniques.

L’idée, c’est de détecter les émotions à partir de la parole des personnes qui appellent régulièrement les centres d’appel de soutien en raison d’idées suicidaires, explique M. Nfissi, qui est aussi membre du Centre de recherche et d’intervention sur le suicide, enjeux éthiques et pratiques de fin de vie (CRISE).

Pour y arriver, il a créé un modèle d’apprentissage profond. À terme, le chercheur espère que son modèle mènera à la création d’un tableau de bord en temps réel dont les téléconseillères et téléconseillers pourront se servir dans leurs interventions auprès de personnes appelantes aux prises avec l’émotion et qui les aidera à choisir la bonne stratégie.

Le modèle du chercheur Alaa Nfissi pourrait aider les téléconseillers à choisir la bonne stratégie d'intervention.

La parole, miroir de l’âme

La parole est essentielle à la compréhension de l’état émotionnel d’une personne en crise. Pour cette raison, elle joue un rôle majeur dans la détection des pensées suicidaires.

Les gens qui répondent au téléphone dans les lignes d’aide sont formés pour comprendre les émotions des interlocuteurs et savent très bien comment les détecter.

Mais aucun système n’étant parfait, l’interprétation des paroles d’une personne suicidaire peut parfois se révéler erronée.

La réalité, c’est qu’une intervention de ce type demande beaucoup d’expertise. Ce que nous voulons faire, c’est de standardiser une partie du procédé de détection d’émotions pour aider tous les agents, dont ceux qui sont moins expérimentés, à prendre les meilleures décisions pour aider les personnes qui appellent.

Une citation de Alaa Nfissi, doctorant à l’Université Concordia

Repères

  • Environ 4500 personnes se suicident chaque année au Canada, ce qui équivaut à 12 personnes par jour.
  • Au Québec, 1030 personnes s’enlèvent la vie annuellement, ce qui équivaut à 3 personnes par jour.
  • Plus de 200 personnes font une tentative de suicide chaque jour au pays.
  • Il existe une trentaine de centres de prévention du suicide au Québec.

La parole joue un rôle majeur dans la détection des pensées suicidaires.

Le modèle utilisé dans l’étude

Pour créer le modèle, Alaa Nfissi a utilisé une base de données constituée d’appels réels enregistrés par des organismes voués à la prévention du suicide, et une compilation d’enregistrements utilisés en recherche faits par des acteurs qui expriment des émotions précises.

Dans le cadre d’un protocole adapté à ce type de tâche, les deux ensembles ont été segmentés puis annotés par des chercheuses et chercheurs de formation du CRISE ou par les intervenants ayant procédé eux-mêmes aux enregistrements, précise M. Nfissi.

Chaque segment annoté reflète ainsi un état d’esprit particulier tel que la colère, l’indifférence, la tristesse, la peur, le souci ou l’inquiétude.

Les données ont ensuite été analysées à l’aide du modèle d’apprentissage profond d’Alaa Nfissi.

On prend un segment [vocal] tel quel et on le passe dans le modèle qui s’occupe d’extraire les caractéristiques de la voix qui sont nécessaires pour détecter l’émotion.

Une citation de Alaa Nfissi, doctorant à l'Université Concordia

Selon le chercheur, les résultats de son modèle sont encourageants. Le modèle a correctement identifié :

  • la peur, le souci ou l’inquiétude dans 82 % des cas;
  • l’indifférence dans 78 % des cas;
  • la tristesse dans 77 % des cas;
  • la colère dans 72 % des cas.

Le modèle a été très efficace dans la reconnaissance des segments enregistrés par des comédiennes et comédiens, son taux d’exactitude allant de 78 % pour la tristesse à 100 % pour la colère.

Notre modèle est plus efficace que les autres modèles qui sont développés par d’autres chercheurs, et nous travaillons toujours à l’améliorer. C’est un travail continu, puisque c’est important d’avoir plus de données pour être plus précis, insiste le chercheur.

Le modèle est toujours au stade de prototype et n’est pas utilisé dans les centres d’appels. Et pour y parvenir, des investissements financiers seront nécessaires pour peaufiner l’outil et créer un tableau de bord fiable.

La recherche et la production d’un outil prêt pour les centres d’appels sont deux mondes différents. Implanter un modèle comme le nôtre nécessite un investissement important dans l’intelligence artificielle.

Une citation de Alaa Nfissi, doctorant à l’Université Concordia

Le chercheur estime que si un financement adéquat était obtenu prochainement, le modèle pourrait parvenir aux centres d’appel dans un an ou deux.

Le modèle d’Alaa Nfissi a été présenté pour la première fois en février 2024, lors du 18e congrès de l’IEEE (Nouvelle fenêtre) (International Conference on Semantic Computing), qui se tenait à Laguna Hills, en Californie.

Le modèle d'IA pourrait parvenir aux centres d’appel dans un an ou deux.

Des défis

L'utilisation de l'intelligence artificielle pour la reconnaissance des émotions vocales comporte des défis, tels que la protection de la vie privée et le risque de biais, estime l’ingénieur.

Le risque de biais dans l'intelligence artificielle se réfère à la tendance des systèmes d’apprentissage profond à développer des préjugés qui peuvent provenir des données sur lesquelles ils sont entraînés.

Si les données contiennent des représentations inégales ou stéréotypées de certains groupes de personnes, l'IA pourrait être moins précise pour ces groupes. Par exemple, si un système est majoritairement entraîné avec des voix de certaines régions ou groupes ethniques, il pourrait être moins capable de reconnaître correctement les émotions exprimées par des personnes d'autres régions ou origines. Cela peut entraîner une discrimination involontaire et affecter l'équité de l'application de la technologie.

Une citation de Alaa Nfissi, doctorant à l'Université Concordia

Il est donc essentiel d'adopter des mesures de protection des données et de surveiller attentivement les biais pour exploiter au mieux ces technologies tout en respectant les normes éthiques et légales, ajoute Alaa Nfissi, qui insiste sur le fait que l'IA offre aussi des occasions significatives pour améliorer la communication et l'interaction humaine.

D’autres utilisations

L’analyse de la parole au moyen d’un outil d’intelligence artificielle pourra aussi être utile dans de nombreux domaines, dont dans les services à la clientèle téléphoniques ou dans l’enseignement à distance.

C’est vraiment un domaine très vaste de recherche que l’on peut appliquer dans plusieurs aspects de la société, conclut Alaa Nfissi.

Vous avez besoin d'aide pour vous ou pour un proche?

https://ici.radio-canada.ca/nouvelle/2071447/intelligence-artificielle-emotions-prevention-suicide