mardi 13 février 2018

CRITIQUE DEBAT Michel Cymes met en garde contre les algorithmes de prévention du suicide

Michel Cymes met en garde contre les algorithmes de prévention du suicide
Le "machine laerning" permettait d'identifier les tendances suicidaires, et même l'imminence d'un passage à l'acte chez certains sujets. Un outil qui ne manque pas de poser une multitude de problèmes éthiques, prévient le médecin Michel Cymes.

Ça va Beaucoup Mieux Michel Cymes
 
Michel Cymes met en garde contre les algorithmes de prévention du suicide 02:42 Télécharger La page de l'émission

Michel Cymes et Loïc Farge
publié le 13/02/2018  http://www.rtl.fr/*

Pour rappel, le "machine learning" est une méthode qui repose sur l'intelligence artificielle. On dispose d'algorithmes suffisamment performants pour interpréter ce qu'un patient a en tête.

Ces algorithmes sont capables de décrypter le discours du patient. Ils peuvent ainsi servir à repérer celui qui a des ides suicidaires pour mieux le prendre en charge. On sait qu'il est très difficile d'identifier les personnes en danger.
Souvent, les proches ne voient rien venir. Les psys, non plus. Dans la grande majorité des cas, quand ils apprennent que leur client est passé à l'acte, ils vous disent : "Pourtant lors de sa dernière consultation, il m'a dit que tout allait bien !"
Les algorithmes peuvent être utiles, mais il faut faire attention. Leur utilisation pose une multitude de problèmes éthiques.

Des débats sur l'utilisation du "machine learning"

Première question : l'algorithme porte-t-il atteinte à la liberté de chacun de décider de sa propre mort ? Rappelons que la tentative de suicide n'est plus réprimée en France depuis 1810. Au pire on peut vous placer d'office dans un hôpital.

Deuxième question : peut-on accepter qu'un algorithme s'introduise dans nos pensées les plus intimes ? Troisième question : que se passera-t-il si l'algorithme pense à tort qu'une personne est en danger ?

Va-t-on alors accuser l'algorithme de provocation au suicide ? Pour le coup c'est un délit, mais personne n'a jamais mis un algorithme en prison ! Si pour une raison X ou Y les événements tournent mal, on peut s'attendre à des procès qui ne seront pas que d'intention.

Alors on ne va pas laisser tomber le "machine learning". Mais on ne fera pas l'économie de quelques débats sur son utilisation. Il faudra toujours veiller à ce que la machine ne se substitue pas à l'Homme.

Je n'imagine pas un médecin ayant la conviction que son patient est en danger arrêter de le suivre parce que les algorithmes lui ont dit qu'il n'y avait rien à craindre.
Facebook veut éviter les suicides

On va avoir droit à ces débats très bientôt grâce à Facebook. Son fondateur, Mark Zuckerberg, investit des pelletées de dollars dans la santé. Le réseau social bosse même sur l'immortalité, c'est vous dire.

Tout récemment, Zuckerberg a expliqué qu'il voulait mettre en place son propre logiciel de détection des tendances suicidaires. Cet outil serait capable de décrypter ce que vous publiez sur le réseau social et de sonner l'alerte s'il repère vos intentions.

Pour l'instant ce projet ne concerne pas les pays européens, mais cela viendra tôt ou tard. Avec toujours la même question : a-t-on le droit de mettre son nez dans mon intimité pour me protéger contre moi-même ?

http://www.rtl.fr/actu/futur/michel-cymes-met-en-garde-contre-les-algorithmes-de-prevention-du-suicide-7792242063