D'après article " In Screening for Suicide Risk, Facebook Takes On Tricky Public Health Role
Par Natasha Singer, 31 décembre 2018, sur nytimes.com
Dans le dépistage du risque de suicide, Facebook joue un rôle délicat en matière de santé publique
Un officier de police à la fin d'une journée dans une ville de l'Ohio a récemment reçu un appel inhabituel de Facebook.
Plus tôt dans la journée, une femme de la région a écrit sur Facebook un post disant qu'elle rentrait chez elle à pied et qu'elle avait l'intention de se suicider lorsqu'elle serait arrivée sur place, selon un rapport de police sur l'affaire. Facebook a appelé pour avertir le département de police de la menace de suicide.
L'officier qui a pris l'appel a rapidement retrouvé la femme, mais celle-ci a nié avoir des idées suicidaires, selon le rapport de police. Malgré cela, l'agent a cru qu'elle risquait de se faire du mal et a dit à la femme qu'elle devait aller à l'hôpital - soit volontairement ou en garde à vue. Il l’a finalement conduite dans un hôpital pour un bilan de santé mentale, une évaluation motivée par l’intervention de Facebook. (Le New York Times n'a pas divulgué certains détails de l'affaire pour des raisons de confidentialité.)
Des postes de police du Massachusetts à Mumbai ont reçu des alertes similaires de Facebook au cours des 18 derniers mois dans le cadre de ce qui est probablement le programme d’alerte et de dépistage de la menace suicide le plus important au monde. Le réseau social a intensifié ses efforts après que plusieurs personnes aient retransmis en direct leurs suicides sur Facebook Live début 2017. Il utilise désormais des algorithmes et des rapports d'utilisateurs pour signaler les menaces de suicide possibles.
La montée de Facebook en tant qu'arbitre mondial de la détresse mentale place le réseau social dans une position délicate au moment où il fait l'objet
d'une enquête pour atteinte à la vie privée par les organismes de
réglementation aux États-Unis, au Canada et dans l'Union européenne -
ainsi que d'une surveillance accrue pour ne pas avoir réagi rapidement
aux interventions électorales et aux campagnes haineuses ethniques sur
son site. Même si le directeur général de Facebook, Mark Zuckerberg, s’est excusé pour la collecte abusive des données des utilisateurs, la société a été confrontée le mois dernier à de nouvelles révélations concernant des accords spéciaux de partage de données avec des sociétés de technologie.
La campagne anti-suicide donne à Facebook l’occasion de présenter son travail comme une bonne nouvelle. Le suicide est la deuxième cause de décès chez les 15 à 29 ans dans le monde, selon l'Organisation mondiale de la santé. Certains experts en santé mentale et des responsables de la police ont déclaré que Facebook avait aidé les policiers à localiser et à arrêter les personnes qui étaient clairement sur le point de se faire du mal.
Facebook utilise des algorithmes informatiques qui analysent les publications, les commentaires et les vidéos d'utilisateurs aux États-Unis et dans d'autres pays afin de détecter tout risque de suicide immédiat. Lorsqu'un poste est signalé, par la technologie ou par un utilisateur concerné, il est transféré à des relecteurs humains de l'entreprise, qui ont le pouvoir d'appeler les forces de l'ordre locales.
«Au cours de la dernière année, nous avons aidé les premiers intervenants à atteindre rapidement environ 3 500 personnes dans le monde qui avaient besoin d’aide», a écrit M. Zuckerberg dans un message de novembre sur les efforts déployés.
Mais d’autres experts en santé mentale ont déclaré que les appels de Facebook à la police pourraient également causer des torts, tels que la précipitation involontaire du suicide, le fait de contraindre les non-suicidaires à se soumettre à des évaluations psychiatriques, ou de provoquer des arrestations ou des coups de feu.
Et, selon eux, il n’est pas clair si l’approche de la société est exacte, efficace ou sécuritaire. Facebook a déclaré que, pour des raisons de confidentialité, il n'avait pas suivi les résultats de ses appels à la police. Et il n'a pas révélé exactement comment ses examinateurs décident d'appeler les intervenants en cas d'urgence. Selon les critiques, Facebook a assumé l'autorité d'une agence de santé publique tout en protégeant son processus comme s'il s'agissait d'un secret d'entreprise.
En septembre, Facebook a publié une description indiquant comment ses algorithmes informatiques analysent et notent certains messages, commentaires et vidéos d'utilisateurs pour indiquer des risques de suicide immédiats.CreditFacebook
En septembre, ImageFacebook a publié une description de la manière dont ses algorithmes informatiques analysent et notent certains messages, commentaires et vidéos d'utilisateurs pour indiquer des risques de suicide immédiats.CreditFacebook
«Il est difficile de savoir ce que Facebook collecte réellement, ce sur quoi il agit et comment réagit-il au risque qui convient», a déclaré le Dr John Torous, directeur de la division de psychiatrie numérique à Beth Israel Deaconess Medical Centre à Boston. "C'est une boire noire medicale."
Facebook a dit avoir travaillé avec des experts en prévention du suicide pour élaborer un programme complet visant à relier rapidement les utilisateurs en détresse à leurs amis et à leur envoyer les coordonnées des lignes d'assistance téléphonique. Des experts ont également aidé à former des équipes Facebook spécialisées, qui ont de l'expérience en matière d'application de la loi et d'intervention en cas de crise, afin d'examiner les cas les plus urgents. Ces examinateurs ne communiquent avec les services d'urgence que dans une minorité de cas, lorsque les utilisateurs semblent courir un risque imminent d'automutilation grave, selon l'entreprise.
«Bien que nos efforts ne soient pas parfaits, nous avons décidé de donner le plus tôt possible des ressources à ceux qui ont besoin d’aide», a déclaré Emily Cain, porte-parole de Facebook, dans un communiqué.
Dans un message publié en septembre, Facebook a expliqué comment il avait mis au point un système de reconnaissance de formes pour noter automatiquement certains messages et commentaires d’utilisateurs quant à la probabilité de pensées suicidaires. Le système transmet automatiquement les messages avec des hauts scores, ainsi que les messages soumis par les utilisateurs concernés, à des réviseurs spécialement formés.
«Facebook a toujours été très en avance sur le peloton», a déclaré John Draper, directeur du National Suicide Prevention Lifeline, «non seulement dans la prévention du suicide, mais en faisant un pas supplémentaire vers l'innovation et en nous engageant avec des approches vraiment intelligentes et avant-gardistes. . ”(Vibrant Emotional Health, le groupe à but non lucratif administrant Lifeline, a conseillé Facebook et obtenu un financement.)
Facebook a déclaré que son système de notation du risque de suicide fonctionnait dans le monde entier en anglais, espagnol, portugais et arabe - à l'exception de l'Union européenne, où les lois sur la protection des données limitent la collecte de données personnelles comme les informations relatives à la santé. Il n’existe aucun moyen de vous désabonner, à moins de ne pas publier ou de supprimer votre compte Facebook.
Un examen de quatre rapports de police, obtenu par le Times à la suite de demandes en vertu de la loi sur la liberté de l’information, suggère que l’approche de Facebook a eu des résultats mitigés. À l'exception de l'affaire Ohio, les services de police ont rédigé les noms des personnes signalées par Facebook.
En mai, un représentant de Facebook a aidé des policiers de Rock Hill, S.C., à localiser un homme qui diffusait une tentative de suicide sur Facebook Live. Lors de l’enregistrement de l’appel au poste de police, le représentant de Facebook a décrit l’arrière-plan de la vidéo (arbres, panneau de signalisation routière) à un opérateur de la police et a fourni la latitude et la longitude du téléphone de l’homme.
Le département de police a reconnu que Facebook avait aidé des policiers à retrouver l'homme qui avait tenté de s'enfuir et avait été emmené à l'hôpital.
"Deux personnes ont appelé la police ce soir-là, mais elles ne pouvaient pas nous dire où il se trouvait", a déclaré Courtney Davis, opérateur de télécommunications de la police de Rock Hill, qui a répondu à l'appel de Facebook. "Facebook pouvait."
Mason Marks, spécialiste du droit de la santé, affirme que le logiciel de notation du risque de suicide de Facebook, ainsi que ses appels à la police pouvant conduire à des évaluations psychiatriques obligatoires, constitue la pratique de la médecine.
Le département de police de Mashpee, dans le Massachusetts, a vécu une expérience différente. Le 23 août 2017, peu de temps avant 5 h 16, un régulateur de la police Mashpee a reçu un appel d'un service de police voisin à propos d'un homme qui se suicidait sur Facebook Live. Les policiers sont arrivés au domicile de cet homme quelques minutes plus tard, mais le temps qu’ils l’aient rencontré, il n’avait plus de pouls, d’après les dossiers de la police.
À 6h09, le rapport indique qu'un représentant de Facebook a appelé pour alerter la police de la menace de suicide.
Scott W. Carline, chef du département de police de Mashpee, a refusé de commenter. Mais il a déclaré à propos de Facebook: "Je voudrais les voir améliorer les outils de prévention du suicide dont ils disposent pour identifier les signes avant-coureurs qui pourraient potentiellement devenir mortels."
Mme Cain, de Facebook, a déclaré que, dans certains cas, l’aide n’était malheureusement pas arrivée à temps. «Nous sommes vraiment sensibles à ces personnes et à leurs proches lorsque cela se produit», a-t-elle déclaré.
La quatrième affaire, en mai 2017, impliquait un adolescent de Macon, en Géorgie, qui faisait une tentative de suicide. Facebook a appelé la police après que des policiers eurent déjà retrouvé l'adolescente chez elle, a déclaré une porte-parole du bureau du shérif du comté de Bibb. L'adolescent a survécu à la tentative.
Certains chercheurs en santé tentent également de prédire le risque de suicide, mais ils utilisent une méthodologie plus transparente et recueillent des données sur les résultats.
Le ministère des Anciens Combattants a mis au point un programme de prévision du risque de suicide faisant appel à l'I.A. pour examiner les dossiers médicaux des anciens combattants à la recherche de certains médicaments et maladies..Si le système identifie un ancien combattant comme présentant un risque élevé, la V.A. offre des rendez-vous de santé mentale et d'autres services. Les résultats préliminaires d'une étude sur les anciens combattants ont fait état d'un moins grand nombre de décès chez les anciens combattants participant au programme que chez ceux qui n'y participaient pas.
Dans un article à paraître dans une revue de droit de Yale, Mason Marks, spécialiste du droit de la santé, soutient que le logiciel de notation des risques de suicide de Facebook, ainsi que ses appels à la police qui peuvent mener à des évaluations psychiatriques obligatoires, constituent la pratique de la médecine. Il affirme que les organismes gouvernementaux devraient réglementer le programme, exigeant que Facebook produise des preuves de sécurité et d'efficacité.
"Dans ce climat où la confiance en Facebook s'érode vraiment, Facebook dit:" Faites-nous confiance ici ", a déclaré M. Marks, chercheur à la Yale Law School et à la faculté de droit de l'Université de New York.
Mme Cain, de Facebook, n’est pas d’accord avec le fait que le programme constitue un dépistage de la santé. «Ce sont des problèmes complexes», a-t-elle déclaré, «c'est pourquoi nous travaillons en étroite collaboration avec des experts.»
* https://www.nytimes.com/2018/12/31/technology/facebook-suicide-screening-algorithm.html