Affichage des articles dont le libellé est ALGORITHME. Afficher tous les articles
Affichage des articles dont le libellé est ALGORITHME. Afficher tous les articles

mardi 1 mars 2022

Kap Code & Nock Lab, un Département de Psychologie de l’Université de Harvard développent des algorithmes pour identifier les pensées suicidaires sur les réseaux sociaux

Kap Code développe des algorithmes de prévention du suicide avec Harvard

Source Camille Boivigny  mind Health (site web) Lundi 28 février 2022 

La start-up française a annoncé le 24 février 2022 le développement d'algorithmes visant à identifier les pensées suicidaires sur les réseaux sociaux. Spécialisée dans l'analyse des données de santé de vie réelle issues des réseaux sociaux, Kap Code met à disposition son expertise à travers le projet collaboratif Epilogue, autour de projets de recherche de santé publique. Elle s'associe pour ce faire à Nock Lab, un département de psychologie de l'université de Harvard. L'ambition est d'identifier précocement les signaux d'alertes sur les plateformes d'échange d'informations que sont les réseaux, précise le communiqué.

À noter : Kap Code a récemment rejoint l'accélérateur Future4Care aux côtés de 21 autres start-up.

Cet article est paru dans mind Health (site web)

 ***

Communiqué de presse


Kap Code & Nock Lab, un Département de Psychologie de l’Université de Harvard développent des algorithmes pour identifier les pensées suicidaires sur les réseaux sociaux

Publié le 24 février 2022Source https://www.kapcode.f*

Paris, le 24/02/2022

Selon, l’Organisation mondiale de la Santé, plus de 700 000 personnes sont mortes par suicide en 2019, classant l’acte suicidaire en 4ème cause de mort après les accidents de la route, la tuberculose et la violence interpersonnelle chez les 15 à 29 ans[1]. Le suicide est souvent perçu comme un acte spontané. Cependant, la majorité des personnes qui se suicident expriment leurs pensées sur la mort ou le suicide bien avant le passage à l’acte. L’analyse de telles propos, retrouvés sur les plateformes d’échanges, permet une identification précoce de signaux d’alertes.

« La majorité des personnes qui meurent par suicide partagent leurs pensées à propos de la mort ou du suicide avant de mourir. Nous avons l’espoir qu’en travaillant ensemble, nous pouvons mieux identifier ces risques afin d’intervenir et sauver. »

Matthew Nock, PhD, Université de Harvard Tweet

Avec le projet collaboratif Epilogue, Kap Code met à disposition son expertise dans l’analyse de données de vie réelle issues des réseaux sociaux, autour de projets de recherche de santé publique. Ce projet a donné naissance à une collaboration avec les chercheurs du Nock Lab dans le Département de Psychologie de l’Université de Harvard sur la prévention des suicides, avec l’identification de propos suicidaires sur les réseaux sociaux.

Les suicides et les réseaux sociaux

Les réseaux sociaux sont utilisés, en premier lieu pour l’échange d’information. Bien que certains aspects de ces plateformes puissent être nocifs (cyberharcèlement, l’émergence viral de challenges dangereux[2], …), les réseaux sociaux représentent aussi une opportunité pour les individus de se connecter les uns aux autres par un partage d’expériences. Parce que les individus qui sont aux prises avec des problèmes de santé mentale, comme les pensées suicidaires, utilisent souvent les réseaux sociaux pour partager leurs expériences et obtenir le soutien de leurs pairs, ces sites représentent une perspective prometteuse pour identifier et aider les personnes dans le besoin. Idéalement, ce processus pourrait se dérouler automatiquement, afin d’identifier et de fournir des ressources en temps réel aux individus qui ont besoin d’aide. Il s’agirait, alors, d’un outil extrêmement puissant pour aider les personnes suicidaires au moment où elles en ont le plus besoin.

Un algorithme pour une prévention des suicides plus élaborée

Kap Code utilisent les données de vie réelle issues des réseaux sociaux. En effet, de nombreux internautes y compris des patients partagent et discutent de leur santé, leur traitement et leurs difficultés personnelles sur ces plateformes. Ces plateformes offrent la possibilité de détecter et d’intervenir précocement dans un large éventail de disparités en matière de santé mentale.

« La santé mentale est un enjeu majeur de santé publique, et c’est une opportunité incroyable de mettre à disposition notre expertise afin d’impacter positivement la prise en charge des patients. »

Adel Mebarki, Directeur Général chez Kap Code Tweet

Dans ce projet, Kap Code apporte son expertise d’analyse des messages postés sur Twitter qui contiennent des mots-clés liés au suicide. Ce partenariat permet de combiner l’expertise de prévention du suicide du laboratoire Nock Lab de l’Université de Harvard et l’expertise forte en machine learning de Kap Code permettant un suivi longitudinal. Ce projet a pour objectif de développer un outil capable d’identifier les références aux pensées et aux comportements suicidaires sur Twitter. Un tel outil pourrait un jour être utilisé pour contribuer à l’identification précoce des individus à risque et, par conséquent, sauver des vies.

Sources

[1] Suicide worldwide in 2019: global health estimates. Geneva: World Health Organization; 2021. Licence: CC BY-NC-SA 3.0 IGO.

[2] Eyuboglu, M., Eyuboglu, D., Pala, S. C., Oktar, D., Demirtas, Z., Arslantas, D., & Unsal, A. (2021). Traditional school bullying and cyberbullying: Prevalence, the effect on mental health problems and self-harm behavior. Psychiatry research, 297, 113730.

https://www.kapcode.fr/communiques-de-presse/kap-code-nock-lab-un-departement-de-psychologie-de-luniversite-de-harvard-developpent-des-algorithmes-pour-identifier-les-pensees-suicidaires-sur-les-reseaux-sociaux/

 ***

 

Article sur le sujet


Suicide : quand les réseaux sociaux font office de sentinelles

Publié le 3 mars 2022 sur https://www.santementale.fr*
 
Avec le projet collaboratif Epilogue1, Kap Code, une start-up dévolue à la santé numérique et ses applications, met à disposition son expertise dans l’analyse de données de vie réelle issues des réseaux sociaux, autour de projets de recherche de santé publique. Ce projet a donné naissance à une collaboration avec les chercheurs du Nock Lab3 dans le Département de Psychologie de l’Université de Harvard sur la prévention des suicides, avec l’identification de propos suicidaires sur les réseaux sociaux.


« La majorité des personnes qui meurent par suicide partagent leurs pensées à propos de la mort ou du suicide avant de mourir. Nous avons l’espoir qu’en travaillant ensemble, nous pouvons mieux identifier ces risques afin d’intervenir et sauver » Matthew Nock, PhD, Université de Harvard Selon, l’Organisation mondiale de la Santé, plus de 700 000 personnes sont mortes par suicide en 2019, classant l’acte suicidaire en 4ème cause de mort après les accidents de la route, la tuberculose et la violence interpersonnelle chez les 15 à 29 ans2 . Le suicide est souvent perçu comme un acte spontané. Cependant, la majorité des personnes qui se suicident expriment leurs pensées sur la mort ou le suicide bien avant le passage à l’acte. L’analyse de telles propos, retrouvés sur les plateformes d’échanges, permet une identification précoce de signaux d’alertes.

Les suicides et les réseaux sociaux

Les réseaux sociaux sont utilisés, en premier lieu pour l’échange d’information. Bien que certains aspects de ces plateformes puissent être nocifs (cyberharcèlement, l’émergence viral de challenges dangereux4, …), les réseaux sociaux représentent aussi une opportunité pour les individus de se connecter les uns aux autres par un partage d’expériences. Parce que les individus qui sont aux prises avec des problèmes de santé mentale, comme les pensées suicidaires, utilisent souvent les réseaux sociaux pour partager leurs expériences et obtenir le soutien de leurs pairs, ces sites représentent une perspective prometteuse pour identifier et aider les personnes dans le besoin. Idéalement, ce processus pourrait se dérouler automatiquement, afin d’identifier et de fournir des ressources en temps réel aux individus qui ont besoin d’aide. Il s’agirait, alors, d’un outil extrêmement puissant pour aider les personnes suicidaires au moment où elles en ont le plus besoin.
Un algorithme pour une prévention des suicides plus élaborée

Kap Code utilise les données de vie réelle issues des réseaux sociaux. En effet, de nombreux internautes y compris des patients partagent et discutent de leur santé, leur traitement et leurs difficultés personnelles sur ces plateformes. Ces plateformes offrent la possibilité de détecter et d’intervenir précocement dans un large éventail de disparités en matière de santé mentale.


Dans ce projet, Kap Code apporte son expertise d’analyse des messages postés sur Twitter qui contiennent des mots-clés liés au suicide. Ce partenariat permet de combiner l’expertise de prévention du suicide du laboratoire Nock Lab de
l’Université de Harvard et l’expertise forte en machine learning de Kap Code permettant un suivi longitudinal. Ce projet a pour objectif de développer un outil capable d’identifier les références aux pensées et aux comportements suicidaires
sur Twitter. Un tel outil pourrait un jour être utilisé pour contribuer à l’identification précoce des individus à risque et, par conséquent, sauver des vies.

1- Épilogue est une plateforme collaborative avec pour volonté de rassembler un maximum de ressources et d’analyses sur la pandémie de la COVID-19.
2- Suicide worldwide in 2019: global health estimates. Geneva: World Health Organization ; 2022 Licence: CC BY-NC-SA 3.0 IGO.
3- Nock Lab se trouve dans le Département de Psychologie de l’Université de Harvard, sous la direction du Professeur Matthew Nock. La recherche dans le laboratoire est focalisée sur la compréhension de l’engagement de personnes dans des comportements qui sont nocifs pour eux-mêmes et la traduction de ce savoir dans de meilleurs méthodes pour évaluer et traiter les comportements nocifs.
4 -Eyuboglu, M., Eyuboglu, D., Pala, S. C., Oktar, D., Demirtas, Z., Arslantas, D., & Unsal, A. (2021). Traditional school bullying and cyberbullying: Prevalence, the effect on mental health problems and self-harm behavior. Psychiatry research, 297, 113730.

Communiqué de presse « Kap Code & Nock Lab, un département de psychologie de l’université de Harvard développent des algorithmes pour identifier les pensées suicidaires sur les réseaux sociaux ».

 https://www.santementale.fr/2022/03/60191/


lundi 14 mai 2018

AUTOUR DE LA QUESTION CRITIQUES DEBATS REFLEXIONS nouvelles technologies dans la médecine

  « La foi dans les algorithmes menace la médecine de demain »
article du 09/05/2018  Sur usbeketrica.com*

Le Tribunal pour les Générations Futures s'est penché sur une nouvelle question : « Big data, robots, intelligence artificielle la médecine de demain sera-t-elle toujours une science humaine ? ». C'était le 6 février, à l'occasion de la Conférence des présidents et directeurs du groupe MGEN. Le procureur du soir, Vincent Edin, s’y est attaqué à la présence des nouvelles technologies dans la médecine. Nous vous livrons ici la retranscription de son vibrant réquisitoire et publierons, quelques jours plus tard, la réponse tout aussi incisive d'Alexandre Kouchner, avocat de la défense.

Mesdames et messieurs les jurés, contrairement à ce que voudra faire croire mon confrère avocat, c’est un technophile qui se présente devant vous. Mais un technophile qui est, en même temps, technocritique. Je n’ai aucune nostalgie pour la médecine du début du XXe siècle, les anesthésies à l’alcool fort ou aux gaz de guerre ou les accouchements sans péridurale… Non, j’aime ce que la modernité nous amène comme progrès.

Récemment, j’ai eu la chance d’aller à l’inauguration du CHU de Reims avec des installations flambants neuves. Rencontrer des chirurgiens en néo natalité, une discipline qui n’existait pas il y a deux générations car les enfants prématurés mouraient systématiquement. De même que les personnes lourdement handicapées ne vieillissaient pas et que nos anciens ne vieillissaient pas, emportés trop tôt par des maladies fulgurantes.
Le progrès au service de l'humain

Alors oui, vive la science, vive la technologie et vive le progrès ! Mais le progrès au service de l’humain, comme lorsqu’on parlait du progressisme au XIXe, une idéologie du bien commun. Le néo progressisme actuel c’est la planche de salut ultime d’un capitalisme financiarisé à outrance et déshumanisé qui veut réduire l’humanité à des chiffres pour faire triompher les meilleurs d’entre nous. Si nous n’y prenons pas garde, si nous nous laissons régenter par ce progrès là, c’est l’essence même de l’humanité qui est en péril.


« Vouloir éliminer le risque, le risque zéro, anticiper sur tout, c’est nier ce qui fait le genre humain »

Car les progressistes actuels sont mus par une logique assurantielle à tous crins, avec la croyance infantile qu’on peut araser tous les risques, quand les mutualistes savent que les risques constituent l’essence de la vie et que la seule question qui vaille est la juste manière d’en répartir la charge au sein de la société. Vouloir éliminer le risque, le risque zéro, anticiper sur tout, c’est nier ce qui fait le genre humain, c’est nous mener tout droit vers une dystopie façon Black Mirror.

Souvenons-nous de notre grand philosophe et logicien Canguilhem qui écrivait « la raison est régulière comme un comptable, mais la vie est anarchique comme un artiste ! ». Nier cette vérité éternelle est aller au devant de grandes désillusions. Notre société est phobique du risque, mais le risque et l’accident font partie de la vie.

Tous les médecins avec qui j’ai parlé m’ont expliqué de ce que la dataisation de la médecine avait compliqué les relations avec leurs patients. Quand vous recevez une personne atteinte de cancer et que vous lui dites qu’il a 90 % de chances de survie et qu’il décède, sa famille aura envie de vous poursuivre en justice. Pourtant, vous n’avez pas menti, 90 % de chances de survie implique bien évidemment 10 % de possibilités de décès et la réalité c’est qu’une batterie d’indicateurs et d’outils ne permettent pas de savoir qui fera quoi face à la maladie.


« Silence, on assassine mais au nom du progrès ! »

Le drame c’est que certains médecins ne s’opposent pas à cette vogue actuelle car elle les protège. Si vous pouvez poursuivre le chirurgien qui a raté votre rhinoplastie, il est plus compliqué d’attaquer un objet dénué de raison juridique comme un robot. C’est la déresponsabilisation à l’œuvre exposée sobrement par Nathalie Nevejans (témoin entendu lors de l'audience, auteure du Traité de droit et d'éthique de la robotique civile, NDE)… Tout est déresponsabilisation et euphémisation des drames : comment ne pas tiquer quand on entend que les robots tuent, aux US, mais que nous préférons le taire pour ne pas freiner la croissance des robots en Europe ? Silence, on assassine mais au nom du progrès !
Combattre la déshumanisation de la médecine

Les industriels ne sont pas les seuls coupables. Il y a des médecins complices de la déshumanisation, j’ai envie de leur dire : souvenez vous du jour de votre diplomation, quand vous avez juré de respecter le serment d’Hippocrate qui contient notamment deux passages que vous bafouez.
Publication byzantine du Xlle siècle du serment d'Hippocrate jugé comme un texte fondateur de la déontologie en médecine / Wikipédia

D’abord, « quoi que je voie ou entende dans la société pendant, ou même hors de l'exercice de ma profession, je tairai ce qui n'a jamais besoin d'être divulgué, regardant la discrétion comme un devoir en pareil cas ». Il est des vérités que le médecin garde pour lui pour accompagner le malade, pour protéger les proches. Tout le monde sait bien que toute vérité n’est pas bonne à dire et qu’elle relève de la volonté supérieure de chacun. Au nom de quoi s’infliger une transparence absolue et totalitaire ? Au nom de rien, rompons avec cette folie tant qu’il est temps.


« La médecine s’est toujours développée grâce à l’esprit critique et en remettant en cause les dogmes religieux »

Un autre passage du serment devrait secouer les médecins : « Je dirigerai le régime des malades à leur avantage, suivant mes forces et mon jugement ». Suivant mon jugement d’homme, pas de la décision impérieuse et irrémédiable d’une machine que l’on suivrait comme d’autres suivent Dieu. La médecine s’est toujours développée grâce à l’esprit critique et en remettant en cause les dogmes religieux, qui interdisaient la dissection des cadavres ou le dons d’organes. Nous nous serions libérés de dogmes séculaires pour nous emprisonner nous mêmes dans un nouveau dogme au motif spécieux qu’il serait plus bankable ?
 
Dans le film Bienvenue à Gattaca (Andrew Niccol, 1997), les personnes ayant un capital génétique fragile ne peuvent pas occuper de postes importants par peur de tomber malade.

Il faut refuser cela et le refuser urgemment car ce dogme porte en lui les fruits d’eugénisme massif. En effet, à quoi bon continuer à soigner quelqu’un que l’on sait condamné sur la foi d’algorithmes ? A quoi bon permettre à des jeunes de faire de longues études, onéreuses pour la collectivité, si on vous dit qu’il sera atteint par un mal incurable quelques années plus tard ? Pourquoi une banque vous accorderait un prêt sur 20 ans quand elle voit en un clic une maladie invalidante vous frapper dans dix ans ? Humain, ce monde ? En rien. Et nous voudrions nous inoculer sciemment ce poison ? Fou que nous sommes !

Alors, dans quelques instants, maître Koucher va essayer de faire vibrer la corde lacrymale en chacun de vous en parlant de la sombre actualité, de notre crise des EPHAD. Si une société s’évalue à la manière dont elle traite ses anciens, que valons nous nous Français ? Et vous avez entendu tous nos témoins, les robots vont venir s’occuper de nos anciens et ils seront moins invasifs que les soignants… Alors, bien sûr, ils pourraient aussi leur casser un bras ou un fémur, mais ça sont des dégâts collatéraux…


« On laisse un système se dégrader et on voudrait mettre de la technologie dessus pour ne pas investir dans l’humain »

On prend le problème à l’envers : on laisse un système se dégrader et on voudrait mettre de la technologie dessus pour ne pas investir dans l’humain. Cautère 2.0 sur jambe de bois, c’est du solutionnisme inepte : nos maisons de retraite souffrent d’un manque d’humanité et il n’existe aucune application, aucun algorithme, aucune machine, qui puisse combler ce manque. Sic transit exit machina et ecce homo, bordel !

Pensant aux EHPAD comme aux déserts médicaux, je me dirais qu’on pourrait détourner le titre du procès : coupes budgétaires, sous effectifs, formation des médecins, la médecine est-elle encore une science humaine ? La technologie n’est pas seule responsable de la déshumanisation, certes, mais elle ne peut en rien améliorer la situation, au contraire elle peut accélérer la chute…
Le dataïsme, menace pour les générations futures

Mesdames et messieurs les jurés, puisque nous jugeons ce soir non pas au nom de 2018, mais au nom des générations futures, prenons un peu recul. Il est des phrases si puissantes qu’elles traversent les siècles sans prendre une ride, contrairement à moi… Ainsi de l’inusable apophtegme de François Rabelais : « Science sans conscience n’est que ruine de l’âme ».


« La médecine a toujours avancé grâce à une parfaite maîtrise humaine du progrès technique et technologique »

Depuis le moyen âge, pas une discipline qui n’ait autant incarné le progrès que la médecine, depuis Ambroise Paré jusqu’à Pasteur et Françoise Barré Sinoussi. La médecine a toujours avancé grâce à une parfaite maîtrise humaine du progrès technique et technologique. Ce qui nous menace aujourd’hui, ça n’est pas l’exclusion des médecins hors du bloc opératoire par les robots.
Ambroise Paré, un des pères de la médecine moderne, représenté par le peintre James Bertrand (1923 - 1887) / (cc) Wikipédia

Non, c’est bien plus insidieux, ce qu’on nous propose et ce qui nous menace, c’est une nouvelle religion. Celle que l’historien Yuval Noah Harari appelle le dataisme, la foi aveugle dans les datas, les algorithmes et la supériorité absolue des machines ; exit l’esprit critique. Un hôtel où se rendre, un vêtement à acheter, une décision commerciale, ou un itinéraire à emprunter à prendre sur la foi d’algorithmes et autres recommandations automatisées qui prétendent nous connaître mieux que nous même…


« L’algorithme dira qui il faut choisir de soigner ou pas au nom de critères prétendument « objectifs ». C’est littéralement inhumain »

Et demain, donc, non content de miraculeusement bouger le scalpel ou le bistouri, le big data voudrait ôter au médecin la possibilité de livrer son diagnostic. L’algorithme dira qui il faut choisir de soigner ou pas au nom de critères prétendument « objectifs ». C’est littéralement inhumain.

Il est des choix inhumains, incarnés au mieux par le final du grand roman de William Styron, le choix de Sophie. Dans cette œuvre, l’héroïne arrive à Auschwitz et le médecin nazi lui demande de choisir entre ses deux enfants, lequel elle veut sauver et lequel elle choisit, sciemment, d’envoyer dans les camps de la mort. C’est infâme et ça ne trouve son explication que dans la formule de Primo Levi à propos d’Auschwitz, « l’endroit où le pourquoi n’existe pas ».


Extrait du film Les choix de Sophie (Alan J. Pakula, 1982) avec Meryl Streep.

Les machines ne comprennent pas la notion de pourquoi, elles exécutent. Elles n’ont ni morale, ni surmoi, ni éthique, ni compassion. Elles regardent des cas, des individus, des maladies et plus le commun qui dépasse tout. Pour reprendre les mots de Paul Ricoeur : « La maladie est privé, mais la santé est publique » et c’est pour elle que nous ne devons pas abdiquer et nous battre.

Mesdames et messieurs les jurés pour que la médecine de demain reste une science humaine, pour que jamais aucun malade ne soit réduit à des données médicales, je vous conjure de voter NON ce soir et ainsi de mettre un coup d’arrêt à l’inhumanité en marche à l’heure actuelle.

https://usbeketrica.com/article/science-sans-conscience-n-est-que-ruine-de-l-ame

lundi 5 mars 2018

MàJ : CRITIQUES DEBATS ETUDE RECHERCHE 'apprentissage automatique des représentations neuronales du suicide et des concepts émotionnels & identification des jeunes suicidaires.



"Un algorithme est parvenu à identifier des personnes aux idées suicidaires"  Par  Cécile Thibert   Publié sur sante.lefigaro.fr*

L’ordinateur a également réussi à distinguer du groupe les personnes ayant tenté de mettre fin à leurs jours.
Cela ressemble à un scénario de science-fiction. Des chercheurs du département de psychologie de l’Université Carnegie Mellon à Pittsburgh (Etats-Unis) ont mis au point un algorithme capable d’identifier, dans 90% des cas, les personnes ayant des idées suicidaires. Et ce n’est pas tout. La machine a également réussi à repérer, au sein du groupe, celles ayant déjà fait une tentative de suicide. Ces résultats déconcertants ont été publiés le 30 octobre dans la revue Nature Human Behavior.
En pratique, les chercheurs ont enrôlé 17 jeunes adultes âgés de 18 à 30 ans, ayant récemment fait part de leurs idées suicidaires à leur psychologue. Dans le même temps, ils ont proposé à 17 autres personnes en bonne santé mentale («neurotypiques») de participer à l’étude. Ils ont ensuite fait passer à chacun des 34 participants une IRM fonctionnelle (imagerie par résonance magnétique). Cet examen - qui ne présente aucun danger car il n’utilise pas de rayons X — permet d’explorer en direct l’activité cérébrale, par le biais de l’observation de l’afflux de sang oxygéné.
Une fois dans l’appareil d’IRM - sorte de tube de deux mètres de long - les participants ont vu s’afficher sur un écran 30 mots les uns à la suite des autres. Certains mots étaient positifs («insouciance», «vitalité», «gentillesse»,...), d’autres négatifs («cruauté», «inquiet», «obscurité»,...) et 10 mots étaient spécifiquement associés au suicide et à la mort («sans espoir», «funèbre», «désespéré»). Les chercheurs ont alors demandé aux participants de réfléchir à chaque mot tandis que, dans le même temps, ils observaient les parties du cerveau en action.

Repérer les passages à l'acte
Toutes les images obtenues par IRM fonctionnelle ont ensuite été fournies à un algorithme. Pour chaque mot, les chercheurs ont indiqué à l’ordinateur si les images appartenaient aux personnes ayant des idées suicidaires ou à celles en bonne santé. Ils lui ont ensuite soumis des images qu’il ne connaissait pas et lui ont demandé de «classer» les personnes. Dans 91% des cas, l’algorithme ne s’est pas trompé. Les scientifiques ont alors voulu mettre la machine à l’épreuve en lui présentant les images des cerveaux de 21 personnes ayant des idées suicidaires, qui avaient été exclues de l’analyse en raison de leur mauvaise qualité. Là encore, l’algorithme a réussi à détecter ces personnes dans 87% des cas.
Les chercheurs se sont ensuite uniquement intéressés aux patients suicidaires, qu’ils ont séparés en deux groupes: ceux ayant tenté de se suicider (9 patients) et ceux qui ne l’avaient pas fait (8 patients). Dans 94% des cas, l’algorithme a réussi à reconnaître ceux qui avaient tenté de mettre fin à leurs jours.
En 2016, des chercheurs de l’université de Cincinnati avaient développé un algorithme capable de détecter les idées suicidaires à partir de l’analyse conjuguée des données verbales et acoustiques.
http://sante.lefigaro.fr/article/un-algorithme-est-parvenu-a-identifier-des-personnes-aux-idees-suicidaires/

Info + : Comprendre la recherche


CRITIQUES DÉBATS DISCUSSIONS AUTOUR DE L’ÉTUDE
D'après article du 

Traduction :

Réaction experte à l'utilisation de l'apprentissage automatique pour identifier les patients suicidaires
Une nouvelle étude dans Nature Human Behavior a utilisé des algorithmes d'apprentissage automatique pour identifier les individus qui s'engagent dans des pensées suicidaires. Dr Dina Popovic, Chef du Département de psychiatrie, Sheba Medical Center, Israël, a déclaré:
"Les patients psychiatriques sont 10 fois plus susceptibles de tenter de se suicider que la population générale, et 50-75% des individus qui se suicident souffrent de dépression ou de trouble bipolaire. Néanmoins, le suicide est un événement très rare et donc difficile à prévoir. Il y a un besoin criant d'outils qui permettraient aux gens de détecter les patients susceptibles de se suicider."
"L'étude est très intéressante et innovante, et représente une tentative originale pour surmonter le manque actuel d'instruments permettant aux cliniciens de mieux prédire les tendances suicidaires. Les résultats sont très prometteurs, mais la taille de l'échantillon est très petite, il faudrait augmenter le nombre de patients et voir si d'autres groupes atteignent les mêmes résultats.
"Il est nécessaire de comparer les patients suicidaires avec les patients déprimés sans pensées suicidaires afin de voir si le classificateur d'apprentissage automatique est vraiment capable de détecter la suicidalité, et que les anomalies (" signature neuronale ") ne sont pas dues à la dépression.
«Enfin, le classificateur d'apprentissage automatique exige que les patients soient coopératifs et concentrés pendant 30 minutes - la plupart des patients se suicident lorsqu'ils sont agités, et l'incapacité de se concentrer est très fréquente chez les patients déprimés. Pourtant, l'étude est très intéressante et peut représenter un point de rupture dans la psychiatrie moderne. "

Le professeur Seena Fazel, professeur de psychiatrie légale, Université d'Oxford, a déclaré:

"Ce document est précieux dans la mesure où il fournit plus d'informations sur les mécanismes cognitifs possibles pour les idées suicidaires. Cependant, en ce qui concerne la prédiction du risque de suicide, il est peu probable que l'on fasse avancer le domaine.
«Premièrement, il ne s'agit pas d'une évaluation évolutive, car les participants doivent concentrer leur attention pendant environ 30 minutes et être prêts à entreprendre une IRM fonctionnelle.
« Deuxièmement, les tests neurosémantiques utilisés montrent une certaine discrimination entre les personnes qui ont des idées suicidaires et celles qui n'en ont pas, mais en pratique clinique, ce n'est pas le problème qui identifie et gère le risque de tentatives de suicide et de suicide.

Troisièmement, leurs résultats ne montrent pas que les tests neurosémantiques ajoutent une performance supplémentaire aux prédicteurs du risque de suicide qui reposent sur la prise d'antécédents pertinents et la réalisation d'une évaluation clinique, qui sont probablement des approches plus évolutives

«Quatrièmement, toute étude de prévision doit généralement comporter environ 10 « événements » par élément d'évaluation des risques dans un échantillon de validation.
Dans cette étude, nous avons 21 individus avec des idées suicidaires dans un échantillon de validation, et 30 «éléments de stimulation», qui suggèrent qu'au moins 300 personnes ayant des idées suicidaires sont nécessaires pour mener une validation robuste.
"Enfin, le groupe de contrôle utilisé dans la validation a été tiré du même groupe de contrôle utilisé dans l'échantillon de découverte, ce qui surestimerait probablement la performance de leurs tests."

Le professeur Derek Hill , président, Science de la réglementation et relations extérieures, IXICO plc et professeur de science de l'imagerie médicale, UCL, a déclaré:
"Identifier les jeunes adultes suicidaires est une tâche extrêmement importante et difficile en médecine. Cet article démontre le potentiel des scans cérébraux, traités par ordinateur, pour identifier les personnes à risque de suicide, mais le résultat doit être considéré comme très préliminaire. Comme les auteurs le reconnaissent, ils n'ont examiné qu'un petit nombre de sujets (17 témoins et 17 à risque de suicide, dont neuf avaient déjà tenté de se suicider). Il est important que leurs résultats soient répliqués avant d'avoir confiance dans leurs résultats.
"Ils ont utilisé une méthode appelée" validation croisée "pour à la fois former et tester leur algorithme d'apprentissage automatique sur le même petit ensemble de données. Bien qu'il s'agisse d'une approche largement utilisée, il ne s'agit pas d'une véritable étude de réplication, il n'est donc pas encore clair si leur algorithme fonctionnerait sur un autre groupe de patients.

"
l'utilisation systématique de leur méthode dans un contexte de soins de santé pose de nombreux défis. Le type de scanner cérébral fonctionnel que les chercheurs ont employé est seulement disponible dans les institutions de recherche avancées, et nécessite des patients coopératifs,de sorte qu'il ne serait pas disponible à grande échelle pour les patients en santé mentale dans un proche avenir.
"De plus, leur algorithme devrait être transformé en un dispositif médical approuvé avant qu'il puisse être utilisé pour aider à la prise en charge des patients, et qui nécessiterait des données d'une étude beaucoup plus vaste et prendrait plusieurs années à réaliser.
"L'apprentissage automatique utilise des algorithmes informatiques pour découvrir des caractéristiques dans les données (telles que les scanners cérébraux dans ce cas) qui peuvent classer les personnes dans des groupes. Cette recherche se penche sur les personnes à risque de suicide, et montre une bonne capacité à prédire à partir des scanners cérébrales des personnes si elles sont à risque de tentative de suicide. "

* ‘Machine learning of neural representations of suicide and emotion concepts identifies suicidal youth’ by Just et al. published in Nature Human Behaviour on Monday 30th October.




Intérêts déclarés
Dr Popovic: "Dr.Popovic a servi comme conférencier, écrivain médical ou a participé à des conseils consultatifs pour Bristol-Myers Squibb, Merck Sharp et Dohme, Janssen-Cilag, Ferrer et Forum Pharmaceuticals."
Prof. Fazel: « Nous avons reçu un financement du Wellcome Trust pour examiner des approches d'évaluation du risque de suicide chez les personnes atteintes de maladie mentale. Rien d'autre.
Prof Hill: "Je n'ai aucun conflit d'intérêt concernant cette histoire. Je suis employé par IXICO, qui utilise des biomarqueurs IRM et des biomarqueurs numériques (biocapteurs portables) dans des essais cliniques de maladies du cerveau, y compris des troubles psychiatriques, mais qui n'ont aucun intérêt commercial dans la recherche décrite.


Références étude mentionnée dans l'article : Machine learning of neural representations of suicide and emotion concepts identifies suicidal youth Marcel Adam Just, Lisa Pan, Vladimir L. Cherkassky, Dana L. McMakin,
Christine Cha, Matthew K. Nock & David Brent
Affiliations
Department of Psychology, Carnegie Mellon University, Pittsburgh, PA, USA : Marcel Adam Just & Vladimir L. Cherkassky
Department of Psychiatry, University of Pittsburgh School of Medicine, Pittsburgh, PA, USA : Lisa Pan & David Brent
Department of Psychology, Florida International University, Miami, FL, USA : Dana L. McMakin
Clinical Psychology Department, Columbia University, New York, NY, USA : Christine Cha
Department of Psychology, Harvard University, Cambridge, MA, USA : Matthew K. Nock
dans Nature Human Behaviour
https://www.nature.com/articles/s41562-017-0234-y#author-information
acces etude https://static-content.springer.com/esm/art%3A10.1038%2Fs41562-017-0234-y/MediaObjects/41562_2017_234_MOESM1_ESM.pdf


***

COMPLÉMENT

Les pensées suicidaires sont-elles visibles dans le cerveau ?
Par Camille Gaubert le 03.11.2017 www.sciencesetavenir.fr*

Un algorithme se basant sur des IRM pourrait différencier les personnes suicidaires à la fois des non-suicidaires et des rescapés d'une tentative. Des résultats qui inspirent aux experts interrogés par Sciences et Avenir prudence et enthousiasme.

Les émotions sont caractérisées par des schémas perceptibles à l'IRM et sont exprimées dans des contextes différents selon le profil psychologique
creative commons

Il serait possible de distinguer une personne suicidaire ou ayant déjà tenté de se suicider des autres, uniquement en analysant des IRM avec un algorithme. C'est la conclusion d'une nouvelle étude publiée le 30 octobre 2017 dans Nature Human Behaviour. Une étude aux résultats très intéressants, mais à prendre "avec des pincettes", selon deux experts interrogés par Sciences et Avenir.
L’algorithme qui détecte les personnes suicidaires avec 85 à 91 % de succès
L'IRM fonctionnelle (Imagerie par Résonance Magnétique) permet de visualiser avec précision les zones du cerveau en activité en fonction du taux d'oxygénation du sang qui y circule. C'est par cette méthode qu'ont été observés 34 sujets : 17 ayant des pensées suicidaires (d'après leur analyse psychologique), et 17 sujets sains. Pendant le passage de chaque personne dans le tube de l'IRMf, 30 concepts sur lesquels ils devaient successivement se concentrer défilaient sur un écran. Ces concepts étaient positifs (confort, vitalité…), négatifs (inquiet, obscurité…) ou spécifiquement liés au suicide (mort, sans espoir…).
Les chercheurs et leur algorithme ont alors identifié six concepts (mort, cruauté, peine, insouciance, bien et éloge) et cinq zones du cerveau correspondant à quatre émotions (colère, honte, tristesse, fierté) qui permettaient de différencier au mieux les sujets sains des sujets suicidaires. Ils ont ensuite soumis à leur modèle informatique les résultats des sujets pour chacun des six concepts et des cinq zones du cerveau définies, en lui demandant d'identifier chaque personne comme suicidaire ou non.
Les résultats sont prometteurs : le modèle obtient 91 % de bonnes réponses, identifiant 15 des 17 sujets suicidaires et 16 des 17 sujets sains. Les concepts négatifs sélectionnés (mort, peine et cruauté) ont en effet entraîné plus de tristesse et de honte mais moins de colère dans le groupe suicidaire par rapport aux sujets sains. Lorsque les chercheurs mettent le modèle à l'épreuve sur 21 sujets suicidaires et 17 sains qu'ils avaient exclus de l'étude car leurs signaux n'étaient pas assez clairs à l'IRMf (pour des soucis de capacité à se concentrer par exemple), ils obtiennent une répartition suicidaire/sain correcte à 85 %. "C'est très rare d'obtenir des résultats aussi positifs dans une étude de ce type", commente Xavier Briffault, sociologue du CNRS au Centre de recherche médecine, sciences, santé, santé mentale, société (Cermes3), qui qualifie l'article de "très propre", bien que certains biais dans la méthode méritent d'être soulevés.
Des "résultats exploratoires" à prendre "avec des pincettes"
En effet, la multiplicité des mesures n'est pas prise en compte dans l'ajustement statistique des données. Selon Xavier Briffault "la probabilité que les résultats deviennent significatifs est augmentée lorsque l'on multiplie les mesures". Il illustre ce biais par une étude qui à force de mesures répétées à l'IRM avait trouvé des traces d'activités cérébrales… dans un saumon mort. Une façon de mettre en exergue les risques de faux positifs inhérents à toute technique de mesure et à l'IRM en particulier.
Les critères sur lesquels se base l'algorithme sont également d'une importance capitale. Louis Falissard, spécialiste en machine learning au Laboratoire de Neurosciences computationnelles à l'Université d'Oxford, relate l'histoire d'une équipe persuadée d'avoir conçu un modèle capable de reconnaître les photos de chats de celles de chiens avec 99 % de réussite… Jusqu'à ce qu'ils se rendent compte que l'algorithme se basait tout bonnement sur la présence de la couleur verte dans la photo, les chiens étant plus souvent pris en extérieur que les chats. D'où l'importance d'avoir un jeu de données "test" non touché pendant l'élaboration du modèle pour le valider, ce qui a été fait dans l'étude en testant le modèle sur un individu laissé en dehors du groupe (validation croisée), une méthode "très légèrement biaisée" mais acceptable. Selon lui, "le problème, c'est la sélection des critères" : les mots et zones du cerveau examinées ont en effet été choisis parmi 1.000 critères, jusqu'à tomber sur ceux qui étaient les plus discriminants entre sujets suicidaires et sains… Un choix dont la significativité pourrait potentiellement être due au hasard au vu du faible nombre de sujets et au regard du nombre de critères examinés.
Cette méthodologie n'invalide pas les résultats, mais inspire la prudence car il existe une possibilité que la généralisation du modèle soit biaisée "et sa performance artificiellement gonflée", ajoute le spécialiste en machine learning. Malgré ces points faibles, ces deux experts s'accordent sur l'intérêt de ces résultats d'un point de vue exploratoire concernant une piste potentielle de biomarqueurs neuropsychiatriques pour les pensées suicidaires. Selon Louis Falissard, il reste à répliquer l'étude avec les mêmes critères sur nouveau groupe similaire pour en éliminer les biais.
Les psychothérapies suivies en direct par IRM, un fantasme pas si lointain ?
Autre résultat intéressant de l'étude : l'algorithme a permis de différencier au sein du "groupe suicidaire" ceux qui avaient fait une tentative (9 sujets) des autres (8 sujets) avec une précision de 94 %. Un résultat qui ne surprend pas Xavier Briffault : les suicidants (qui ont faite une tentative) ont moins peur du passage à l'acte que les individus suicidaires (ceux qui y pensent) et sont d‘ailleurs plus à même de récidiver. Il n'est donc pas surprenant que les réponses émotionnelles diffèrent. Dans l'étude, les scientifiques ont ainsi trouvé que les suicidants ressentaient moins de tristesse face au concept de "mort" par rapport aux personnes suicidaires, ce que les auteurs expliquent par une plus grande acceptation de la mort par les suicidants.
Savoir lire et interpréter aussi finement les réactions émotionnelles ouvre la porte à de nombreuses possibilités. Xavier Briffault ne pense pas que cette technique permettra d'identifier le risque de passage à l'acte des personnes suicidaires, qui dépend beaucoup de causes relationnelles (ruptures, séparations) survenant dans un contexte de troubles mentaux (troubles de l'humeur, troubles de la personnalité) et se fait sous alcool dans plus de la moitié des cas. En revanche, cela pourrait d'après lui constituer un élément supplémentaire pour évaluer le risque que présente le patient en sortie d'hôpital après une tentative. Les travaux futurs sur cette base pourraient également permettre d'appuyer le diagnostic de dépression ou autres troubles mentaux en fonction de l'activation de zones du cerveau identifiées. D'autres perspectives sont plus futuristes : "un jour pas si lointain nous pourrons peut être disposer d'instruments d'observation suffisamment fine de l'activité cérébrale en temps réel pour en faire un usage cliniquement pertinent, en complément avec d'autres biomarqueurs et indicateurs psychologiques et comportementaux", s'enthousiasme-t-il. Un dispositif qui, additionné aux nombreux objets connectés déjà existants et capables de détecter stress, activité et insomnies, permettrait aux professionnels de santé de disposer d'éléments de plus en plus précis dans leur diagnostic et suivi de troubles mentaux.
https://www.sciencesetavenir.fr/sante/cerveau-et-psy/peut-on-reconnaitre-les-personnes-suicidaires-par-irm_118004

 ***



L’IRM fonctionnelle pour prédire le suicide 
Publié le 14/12/2017 https://www.jim.fr/*



La juste prédiction du risque de suicide est un idéal difficile à atteindre par les psychiatres. Elle repose essentiellement sur des indices cliniques, et finalement en grande partie sur les idées suicidaires que les patients peuvent rapporter. Or, la majeure partie des patients décédés par suicide ne signalent pas d’idées de suicide dans la période qui précède leur geste fatal. Pour avancer dans la compréhension des processus menant au suicide, les chercheurs d’une équipe de Pittsburgh ont tenté d’identifier un biomarqueur du risque suicidaire, en utilisant l’IRM fonctionnelle.

Just et coll. ont utilisé les représentations cérébrales en imagerie associées à des concepts en rapport avec la vie et la mort pour différencier les patients ayant des idées suicidaires et des patients contrôles. Le principe est que chaque pensée est associée à certaines activations cérébrales, c’est-à-dire que chaque concept a sa signature particulière en IRM fonctionnelle. Ainsi le mot « cuillère » va activer les régions impliquées dans la façon dont on manipule l’objet (les régions motrices), et dans le fait de manger (régions impliquées dans la sensation gustative).

L’hypothèse formulée par les auteurs, est que les patients ayant des antécédents de tentative de suicide ont une représentation différente de certains concepts par rapport à des sujets contrôle. En pratique, on utilise dans cette étude l’apprentissage automatique (ou « machine learning ») afin de classer les patients comme ayant des idées suicidaires ou non, en fonction des différences constatées dans les activations cérébrales en réponse à tel ou tel concept.
Montrez-moi comment vous pensez à la mort, je vous dirai si vous voulez vivre
Les auteurs ont demandé à 17 sujets ayant des idées suicidaires, et 17 sujets contrôles de penser pendant un bref instant à 30 concepts différents qui leur étaient proposés. Ces concepts pouvaient être des idées généralement considérées comme positives (confort, bien, gentillesse…), négatives (ennui, mal, culpabilité) ou directement en rapport avec le suicide (mort, désespoir, overdose…). Cela constituait donc une somme importante d’informations relatives aux activations cérébrales des sujets.

Le programme d’apprentissage automatique, entraîné à partir des IRM fonctionnelles de 33 sujets non inclus dans l’étude a correctement prédit l’appartenance des sujets dans leurs groupes avec une précision de 91 %. Ainsi, il a pu donner l’appartenance de 15 sujets sur les 17 du groupe « idées suicidaires » et 16 sujets sur les 17 du groupe contrôle (sensibilité de 88 %, spécificité de 94 %).

Le concept permettant le mieux de déterminer le groupe d’appartenance des patients est le mot « mort ».  Les régions cérébrales permettant le mieux de discriminer les patients suicidaires des contrôles étaient les régions frontales médianes supérieures gauches, le cortex cingulaire antérieur, la région temporale médiane droite, la région pariétale inférieure gauche, et la région frontale inférieure gauche.
On peut savoir qui a fait une tentative de suicide avec l’IRMf
Le même type de programme permettait de correctement déterminer, parmi les patients ayant des idées suicidaires, ceux qui ont fait une tentative desuicide, en comparaison avec ceux qui n’en ont pas fait, avec une précision de 94 % (sensibilité de 100 % et spécificité de 88 %). Là encore, le concept le plus discriminant était le mot « mort ».

Bien sûr, on peine à croire que ce genre de dispositif puisse être utilisé en pratique quotidienne. Mais cette étude a surtout pour intérêt de donner un aperçu (aussi brut et difficile à interpréter soit-il) des mécanismes de pensée des patients sur des sujets fondamentaux. L’étude met en évidence à quel point le suicide répond à un processus complexe qui met en jeu une modification fine des représentations mentales. La technique utilisée dans cette étude est fascinante, et pourrait contribuer à de nombreuses avancées en psychiatrie et neurologie.

Dr Alexandre Haroche
Références
Just MA et coll. Machine learning of neural representations of suicide and emotion concepts identifies suicidal youth. Nat Hum Behav. 2017; 1: 911–919 doi:10.1038/s41562-017-0234-y





Comment l'ordinateur peut prévenir le suicide
Des logiciels brassant des milliers de données médicales font émerger des informations invisibles à l’œil humain. Le "machine learning" ouvre de nouvelles voies de prévention ou de prédiction de maladies.
Des logiciels ouvrent de nouvelles voies de prévention ou de prédiction de maladies.
Des logiciels ouvrent de nouvelles voies de prévention ou de prédiction de maladies. (Heidi Jacquemoud)
C'est un fléau contre lequel la prévention patine : chaque année en France, on dénombre 12.000 morts par suicide et 200.000 hospitalisations liées à des tentatives. Comment détecter les signes d'une intention suicidaire? Si de multiples facteurs de risque – dépression, addictions, aspects sociaux et génétiques, etc. – entrent en jeu, la science peine à identifier de nouvelles clés pour prévenir le passage à l'acte. Avec l'intelligence artificielle, des perspectives prometteuses s'ouvrent. En compilant des milliers de données médicales, ces logiciels puissants et capables d'auto-apprentissage (le machine learning) pourraient éclairer ces troubles psychiatriques d'un jour nouveau.
C'est le cas d'une étude menée aux Etats-Unis par Marcel Just (Carnegie Mellon University) et David Brent (University of Pittsburgh), publiée fin octobre 2017 dans Nature Human Behavior. Elle porte sur 34 patients de 18 à 30 ans, la moitié ayant eu des pensées suicidaires, l'autre étant des sujets "contrôle". L'étude montre d'abord que les personnes suicidaires n'ont pas la même représentation émotionnelle de certains concepts que les autres. En leur soumettant 30 mots (mort, confort, ennui, problèmes, culpabilité, gentillesse…), les chercheurs ont par exemple relevé que, chez eux, le concept de "mort" évoque plus de honte et de tristesse. Chaque émotion ayant sa "signature cérébrale", les chercheurs ont ensuite cartographié l'activité du cerveau de ces sujets face à ces 30 concepts, grâce à l'imagerie par résonance magnétique fonctionnelle (IRMf). A partir de ces images, un algorithme a discriminé les zones qui s'activent différemment selon les sujets pour les classer en deux groupes : ceux qui ont déjà eu l'envie de mettre fin à leurs jours et les autres.
Etendre l'essai à un vaste échantillon
Résultat : le programme a su repérer 15 des 17 suicidaires et 16 des 17 non-suicidaires ; soit une précision de 91%, le concept le plus efficace pour trier les cas étant celui de "mort". Plus bluffant, le logiciel a su différencier, parmi les suicidaires, ceux qui étaient déjà passés à l'acte avec 94% de précision. "Attention, précise le pédopsychiatre et directeur de recherche Inserm Jean-Luc Martinot*, il ne s'agit pas de prédire les tendances suicidaires", ces chercheurs connaissant dès le départ le passé des patients. Néanmoins, "c'est la première étude qui parvient à discriminer, avec un taux d'exactitude très important, des sujets ayant ou non commis des tentatives de suicide, sur la base de l'imagerie et de la performance à la reconnaissance de mots".
Les auteurs soulignent la nécessité d'étendre cet essai à un vaste échantillon de patients pour "déterminer si cette approche est généralisable, et si elle permet de prédire le futur comportement suicidaire". Pour Jean-Luc Martinot, également spécialiste de l'imagerie en psychiatrie, le fait que le logiciel soit capable de classer individuellement les sujets constitue un progrès majeur : "En les stratifiant par petits groupes, l'intelligence artificielle peut ouvrir de nouvelles pistes pour développer des stratégies de prévention innovantes, quasiment personnalisées, dans la lutte contre les addictions, ou pour la prédiction d'autres maladies. Or plus de la moitié des troubles mentaux apparaissent avant 20 ans, à un moment où le cerveau est en développement, avant de devenir chroniques."
Les algorithmes pourront valider ou invalider la classification des troubles psychiatriques, peut-être créer de nouvelles catégories plus pertinentes
Les recherches en psychiatrie utilisant le machine learning se développent. Elles intéressent de près Facebook, avec l'espoir de détecter d'éventuelles idées suicidaires dans les posts des abonnés. Dans une étude réalisée sur 379 patients du Cincinnati Children's Hospital, publiée en 2016, l'algorithme avait réussi à les classer (à 93%) en trois groupes : suicidaires, malades psychiatriques mais non suicidaires, patients témoins. Pour cela, il disposait des réponses à un test comportemental et d'enregistrements audio dans lesquels les patients répondaient à cinq questions ("Avez-vous de l'espoir?", "Etes-vous en colère?", etc.). Le logiciel avait analysé le vocabulaire, le phrasé et les silences pour détecter des motifs communs.
Outre l'âge, le sexe, les prescriptions, l'imagerie, les prélèvements de sang ou de microbiote, d'autres données pourraient nourrir ces algorithmes, estime Philippe Fossati, professeur de psychiatrie à la Pitié-Salpêtrière et à l'université Pierre-et-Marie-Curie. "Par exemple, des données d'auto-évaluation envoyées par des applications pour Smartphone ou des objets connectés." Pour ce psychiatre, chercheur à l'Institut du cerveau et de la moelle épinière, le machine learning pourra permettre de définir par des marqueurs biologiques des affections actuellement définies par un entretien avec le patient : "Les algorithmes pourront valider ou invalider la classification des troubles psychiatriques, peut-être créer de nouvelles catégories plus pertinentes et aboutir à de meilleurs pronostics ou à des traitements plus personnalisés."

L'humain en dernier ressort
Le professeur d'immunologie Nicolas Glaichenhaus, de l'université de Nice-Sophia-Antipolis, qui travaille sur la schizophrénie, estime aussi qu'en psychiatrie "mettre les patients dans des cases reflète rarement la variabilité individuelle. Il y a parfois plus de différences entre deux schizophrènes qu'entre un schizophrène et un bipolaire". Selon lui, l'intelligence artificielle aidera le médecin à améliorer la prise en charge du patient, voire à prédire sa réponse à un traitement. De là à prédire un risque de pathologie à la naissance? "Ces questions ont des répercussions éthiques, c'est pourquoi nous travaillons avec des philosophes et des experts. Que décider, si on peut prédire qu'un enfant aura des risques de développer des troubles du spectre autistique, sachant que plus la prise en charge est précoce, mieux on soigne?", s'interroge l'immunologue. Dans le champ du suicide, faudra-t-il accepter que les algorithmes sonnent l'alerte? Protéger quelqu'un contre son gré , n'est-ce pas une atteinte à notre liberté? Pour Philippe Fossati, "le dernier ressort restera la clinique et l'humain. Surtout en psychiatrie, le relationnel reste essentiel".
* Unité 1000, Imagerie en psychiatrie. Université Paris-Sud, université Paris-Descartes.

*http://www.lejdd.fr/societe/sciences/comment-lordinateur-peut-prevenir-le-suicide-3585359