Technologie Pourquoi les scientifiques pensent que vos
messages sur les médias sociaux peuvent aider à prévenir le suicide
D’après l'article traduit "Why scientists think your social media posts can help prevent suicide"
sur mashable.com * de Rebecca Ruiz 26/06/2016
D’après l'article traduit "Why scientists think your social media posts can help prevent suicide"
sur mashable.com * de Rebecca Ruiz 26/06/2016
Image: vicky leta / mashable
"Prenez un moment pour regarder votre clavier emoji. Faites défiler le visage
fâché, le fantôme, le stylet, le beignet, la lampe de poche et la cigarette
jusqu'à ce que vous atteignez les cœurs. C'est là: l'amour.
Au milieu de l'ordinaire et de l'humoristique, ces petites formes colorées et animés, peuvent facilement devenir une marque d'affection rapide comme un éclair à un ami, un parent ou un partenaire. Mais remarquez aussi, les cœurs brisés et bleus, et leur rappel discret de la tristesse, de la solitude ou du chagrin.
Au milieu de l'ordinaire et de l'humoristique, ces petites formes colorées et animés, peuvent facilement devenir une marque d'affection rapide comme un éclair à un ami, un parent ou un partenaire. Mais remarquez aussi, les cœurs brisés et bleus, et leur rappel discret de la tristesse, de la solitude ou du chagrin.
Il se trouve
que ces petits caractères sont plus importants que nous pourrions imaginer. Les
linguistes, les psychologues et les informaticiens découvrent que ce que nous
partageons collectivement sur les médias sociaux, et quand, peut signaler des
informations sur notre santé mentale. Certains de ces chercheurs pensent que l’apprentissage
automatique, les algorithmes et l’analyse mathématique peut donner aux
fournisseurs de soins de santé des outils pour aider à résoudre l’une de nos
épidémies de santé publique les plus difficiles : le suicide.
Dans un
domaine sous-financé où sauver chaque vie à risque peut sembler comme un
objectif impossible, cette technologie promet de donner aux experts et aux
cliniciens de la santé publique un nouvel outil pour prédire le risque de
suicide. Compte tenu de la hausse du taux de suicide aux États-Unis, ce genre
de prévention ne peut pas venir assez vite.
Image: vicky
leta / mashable
Les indices dans vos tweets
Prédire le
risque de suicide c'est exactement ce que Glen Coppersmith, un scientifique de
données et psychologue, a décidé de faire. Cette mission, dit-il, est urgente.
Les données publiées en Avril par les Centers for Disease Control and Prevention ont révélé une augmentation alarmante des suicides chez les deux sexes et dans tous les groupes d'âge entre 10 et 74 ans. Entre 1999 et 2014, le taux de suicide aux États - Unis a augmenté de 24%, 13 pour 100 000 personnes.
En tant que
fondateur et PDG de la startup d'analyse de santé mentale Qntfy, Coppersmith
utilise l’apprentissage de la machine pour concevoir des algorithmes qui
permettent d’identifier les tendances dans la communication humaine. Ce concept
est la science bien établie, et c'est sur celui sur lequel vous comptez quand
vous avez mal orthographié un mot et dont l'autocorrection va attraper (ou
aggraver) l'erreur.
Coppersmith
appartient à un petit groupe de chercheurs qui pensent que cette technologie
peut être mise au service pour détecter le risque de maladie mentale et le
comportement suicidaire d'une personne. Dans sa plus récente étude , publiée ce mois-ci à l'occasion de la
rencontre annual North American Association for Computational Linguistics
, lui et ses co-auteurs ont étudié le contenu émotionnel de tweets de centaines
d'utilisateurs qui avaient parlé ouvertement d'une tentative de suicide, et des
tweets d'un groupe contrôle qui n'avaient pas afficher de pensées ou de
sentiments suicidaires.
"Chaque
mot que vous employez représente une petite fraction d'une part d’indice en
termes de qui vous êtes."
Utilisant un
modèle conçu pour prédire le risque de suicide dans le premier groupe, les
chercheurs ont découvert que leur algorithme travaillé - et ont recueilli des
modèles surprenants, dont un sur la façon dont ces cœurs emoji peuvent dire
plus que ce que nous supposons accidentellement.
Alors que
presque chacun dans les échantillons incluait des emoji dans leurs tweets,
Coppersmith et ses co-auteurs ont remarqué que certains dans le groupe qui ont
parlé de tentative de suicide ont employé une gamme étroite d'emoji
représentants plus fréquemment la tristesse, comparé aux utilisateurs typiques
du même âge et de genre. Ils préfèrent souvent les cœurs bleus et brisés, mais
utiliser ces caractères seuls, dit Coppersmith, n'indique pas le risque de
suicide.
Les
chercheurs ont également remarqué une augmentation des messages indiquant de la
tristesse avant une tentative de suicide, puis une hausse de tweets tristes et
de colère autour d'une tentative.
Alors que
l'étude de Coppersmith ne comprend pas de vrais tweets afin de protéger la vie
privée des utilisateurs, elle offre des exemples pour démontrer à la fois la
colère («Je suis seulement bon pour être un sac de boxe verbale") et de
tristesse («Je suis tout à fait pathétique même les cicatrices de mes
tentatives sont pathétiques »).
"It’s
not like ... si vous dites cette phrase c'est que vous êtes clairement en
difficulté», Coppersmith dit de l'algorithme. "Il indique: «
Laissez-moi regarder tout le langage. » Chaque mot vous employez montre une
petite fraction d'une part d'un indice en termes de qui vous êtes, ce que vous
pensez, si oui ou non vous êtes dans une sorte de crise émotionnelle
".
Image: vicky
leta / mashable
Coppersmith croit que glaner de telles informations des médias sociaux, ainsi que d'autres données générées par les appareils mobiles, pourrait être vital pour un psychologue à la recherche d'indices subtils au sujet du risque de suicide d'un patient.
Janet Schnell, qui a perdu son frère au suicide en 1995, a travaillé dans le domaine de la prévention pendant deux décennies et estime que cette nouvelle approche peut réussir à repérer les risques là où d'autres efforts ont échoué.
«Je suis si reconnaissant comme "loss survivor" qu'il y ait une nouvelle fenêtre qui pourrait être ouverte."
"Une
partie du processus de deuil est que les endeuillés par suicide reviennent en arrière,
réexaminent et regardent et regardent à nouveau pour voir ce qu'ils ont
manqué," dit Schnell, qui est à la loss division chair de l'American
Association of Suicidology. .
Bien
que son frère soit décédé avant l'avènement des médias sociaux, Schnell sait
comment ce serait important si les chercheurs pouvaient utiliser ces
données pour aider à expliquer ce qui est éprouvé souvent comme un mystère
tragique.
Malgré les
progrès récents dans cette recherche, il faudra encore le partenariat entre les
scientifiques de données et les professionnels des soins de santé, le
financement, et quelques années au minimum pour produire des recherches assez
fiables pour que les psychologues puissent l'utiliser dans leur pratique.
Pour la
recherche de Coppersmith pour atteindre ce point, il a besoin de beaucoup plus
d'idées comme celles qu'il a déjà produites, et une analyse plus approfondie de
ces conclusions.
Voilà
pourquoi il essaie de recueillir des données à partir d’au moins de dizaines
de milliers de personnes, et il espère que vous envisagerez de donner les
vôtres.
Le don de vos données
En Avril,
Qntfy a lancé une étude intitulée OurDataHelps , qui demande
aux gens de faire don des données de médias sociaux Twitter,
Facebook,
Instagram,
Reddit
et Tumblr.
. Coppersmith a demandé également les données Fitbit, Jawbone and Runkeeper, ce
qui devrait donner un aperçu sur les tendances et les habitudes physiques des
gens.
Les volontaires
répondent à quelques questions au sujet de leur histoire de santé mentale et du
suicide ; l'étude invite les deux personnes qui ont et n’ont pas eu de maladie
mentale à participer. Ils donnent la permission à Qntfy d'anonymiser et de
suivre leurs messages grâce à l’authentification ouverte, un outil commun qui
permet à des tiers de voir votre compte sans exiger un mot de passe. (Si vous
avez déjà synchronisé une application comme Candy Crush avec votre compte
Facebook, vous avez utilisé l’authentification ouverte.)
Donate your social media data to power suicide prevention https://OurDataHelps.org
Bien que
l'objectif est de produire des données et des recherches qui mènent à de
nouveaux traitements pour les troubles de santé mentale, Coppersmith veut
sauver finalement la vie par la compréhension de la façon dont une personne se
comporte dans les jours, semaines et mois avant de devenir suicidaire, et d'
intervenir avant qu'ils risquent une tentative de suicide. Les médias sociaux
et les données mobiles offrent une nouvelle occasion d'en faire une réalité.
Questions sans réponse
Cette
tragédie est souvent attribuée à des facteurs de risque comme
une histoire de suicide dans la famille, d' alcool ou de
toxicomanie, et des sentiments de désespoir. Mais les patients avec des
histoires de vie similaires ont régulièrement des résultats différents, et les
chercheurs ont longtemps lutté pour comprendre la différence pour sauver des
vies.
Des études
menées au cours des dernières décennies ont généré des résultats importants, mais
les experts en la matière disent que l'information de prévention est fréquemment
vague, périmée ou basée sur des méthodes de recherche inefficaces.
Les
scientifiques qui étudient le suicide peuvent suivre les mêmes variables dans
la vie des gens sur une longue période de temps. Ils ont même analysé des
journaux personnels, récoltant le nombre de fois que certains mots apparaissent
afin de comprendre l'esprit des gens dans le brouillard de la dépression et des
pensées suicidaires. Cependant ils n'ont pas été en mesure d'effectuer cette
analyse à grande échelle et de recueillir rapidement des informations sur les
expériences quotidiennes des gens.
Image: Getty
La beauté des algorithmes derrière OurDataHelps, dit Foreman, est qu'ils peuvent faire ce qu'elle ne peut pas : compter.
Foreman
regarde régulièrement les dossiers médicaux de 80 à 120 anciens combattants à
haut risque, dont la plupart ne meurent pas par suicide. Avec la formation et
de l’expertise, elle sait comment identifier les patients présentant des signes
d'avertissement sérieux, mais elle comprend aussi les limites du cerveau
humain.
Il ne peut
pas dépister et analyser, par exemple, des modèles de discours en temps réel,
montrer un modèle statistiquement significatif et lier cela avec les patients
les plus susceptibles de tenter de se suicider.
Construire les bons systèmes
Construire les bons systèmes
Kristy
Hollingshead, qui a des études de co-auteur avec Coppersmith qui détectent et
analysent le stress post-traumatique,
la depression and TDAH sur les médias sociaux, dit que la
communication en ligne contient un "cohérent, très fort, fiable
signal" sur la santé mentale d'une personne.
La
technologie d'apprentissage de la machine permet à Hollingshead, chercheur à
l'Institut de la Floride pour Human & Machine Cognition, de capturer et
analyser des milliers de messages publics à partir d'au moins plusieurs
centaines d'utilisateurs. Dans l'ensemble, ces postes peuvent facilement
devenir des centaines de milliers de lignes de texte, qu'elle ne pouvait pas
faire défiler et coder manuellement.
Malgré
l'efficacité de l’externalisation de ces tâches à un ordinateur, le système d'
Hollingshead et de ses collègues qu'ils sont en train de construire n'est
pas aussi précis qu'ils aimeraient qu'il soit. Ils font des suppositions
valables au sujet de leurs données - estimer, par exemple, le sexe de l’utilisateur
et l’âge. En utilisant des échantillons de petits groupes d'utilisateurs
peuvent également introduire un biais.
«La langage
est un bon signal de ce qui se passe dans votre cerveau."
Hollingshead
estime que OurDataHelps peut créer une mine d'or en offrant aux scientifiques
un ensemble de données complet et testé pour informer leurs modèles et des
algorithmes.
Avec ce
genre de précision, Hollingshead envisage un monde dans lequel le bien-être
mental devient partie intégrante de la mesure de soi; quelqu'un qui a des
sentiments suicidaires, ou a tenté de se suicider dans le passé, pourrait
utiliser un logiciel ou une application pour exécuter un algorithme sur leur
médias sociaux alimentés pour un risque imminent qu'ils ne pourraient pas
même sentir.
«La langage
est un bon signal de ce qui se passe dans votre cerveau," dit-elle. «Même
si vous avez essayé de le changer de sorte que vous sembliez heureux, les
algorithmes peuvent encore revenir sur les courants sous-jacents de ce qui se
passe."
Image: vicky leta / mashable
Le chemin vers le suicide n'est pas droit
Le ministère
de la Défense a récemment publié trois études qui montrent à quel point
l'analyse statistique prometteuse peut être appliquée de façon inhabituelle
quant au problème pour prédire le suicide.
La recherche, menée par Craig Bryan, un chercheur de prévention du suicide de premier plan, le directeur exécutif des etudes du Centre National des Anciens combattants à l'Université de l' Utah et Co-investigateur de l'initiative OurDataHelps, a utilisé un concept mathématique connu comme la modélisation des systèmes dynamiques.
La recherche, menée par Craig Bryan, un chercheur de prévention du suicide de premier plan, le directeur exécutif des etudes du Centre National des Anciens combattants à l'Université de l' Utah et Co-investigateur de l'initiative OurDataHelps, a utilisé un concept mathématique connu comme la modélisation des systèmes dynamiques.
Au lieu de
regarder le seul point de repère classique - lorsqu'une personne est décédée
par suicide - les chercheurs ont réussi à incorporer l’humeur et le langage
utilisé en temps réel avant la mort de leurs sujets en parcourant les messages publiques
disponibles sur les média sociaux
Les travaux
ont commencé en 2013 quand Bryan et ses co-auteurs ont cherché à comprendre si
les données des médias sociaux d'un membre du service donnaient des indices sur
leur risque de suicide. En particulier, les chercheurs ont analysé les messages
Facebook à partir d’un échantillon de 700 membres du service des armée qui sont morts
par suicide et 700 membres du service qui sont mort d'autres causes sur une
période de deux ans.
Ils ont non
seulement confirmé leur hypothèse de départ, mais rétrospectivement prédit le
suicide d'une personne et des motifs qui remettent en question nos hypothèses
sur la façon dont le suicide se révèle.
La recherche
de Bryan révèle que le chemin vers le suicide n'est pas linéaire, contrairement
à la croyance populaire que les pensées et les comportements deviennent une
spirale descendante inflexible. Au lieu de cela, son étude a révélé des
fluctuations importantes dans le cheminement vers le
suicide de chaque membre du service .
"Ce que
nous avons fait au commencement était le regarder comme une ligne droite."
Ceux qui ont
mis fin à leur vie étaient plus susceptibles de signaler un événement de vie
stressant puis partager les émotions et croyances négatives ; la séquence de
ces postes a été inversée pour ceux du second groupe.
Trois mois avant la mort des sujets par suicide, ils avaient tendance à poster sur les symptômes physiques, les émotions et les pensées à proximité. À la marque de trois mois, cette tendance a disparu.
Trois mois avant la mort des sujets par suicide, ils avaient tendance à poster sur les symptômes physiques, les émotions et les pensées à proximité. À la marque de trois mois, cette tendance a disparu.
Puis, au
cours du mois avant de mourir, ils ont souvent affiché des «comportements inadaptés»,
comme un retrait social et de consommation d'alcool, tandis que les mises à
jour décrivant leur vision du monde et la perception de soi sont devenues plus
stable.
"Ce que
nous avons fait au commencement était le regarder comme une ligne droite», explique
Bryan. "Mais la pensée a des hauts et des bas, comme des montagnes
russes, avec des interactions beaucoup plus complexes - qui améliore
considérablement notre capacité à détecter les personnes suicidaires, et il
fournit un moyen possible d'estimer, quand vont- ils mourir?"
Scepticisme et espoir
Le mari de
Sheila Hamilton est mort par suicide il y a 10 ans, et elle espère que les
recherches comme celle de Bryan, réussisse. Et pourtant, elle reste sceptique sur le fait que les données nous délivrent de cette épidémie.
Hamilton, un
avocat et auteur de All the Things We Never Knew: Chasing the Chaos of
Mental Illness, veut que le public entende les histoires de survivants à la
fois de perte d'un proche que les survivants d'une tentative. Les données,
dit-elle, n'est pas une histoire de traumatisme de l'enfance ou une histoire
sur la façon dont le système de soins de santé échoue avec ses patients les
plus vulnérables. Les données ne peuvent vaincre la stigmatisation qui empêche
les gens de demander de l'aide et de traitement.
Certains
craignent également que le type de technologie que Coppersmith et ses pairs
poursuivent constitue une atteinte importante à la vie privée. En 2014, une
association britannique de prévention du suicide à but non lucratif appelée
Samaritains Radar a lancé une application Twitter qui a utilisé un algorithme
pour rechercher des mots clés à haut risque, puis ont envoyé par courrier
électronique à l'utilisateur des ressources pour l’aide. Dans les 10 jours de
ses débuts, l’indignation sur la vie privée a mené Samaritains Radar à
suspendre l'application.
"D'Autres
outils seront disponibles pour vous aider à comprendre ce qui motive cette
douleur, de trouver des moyens de sortir de celui-ci."
La meilleure solution pour l'instant, Coppersmith pense, est de seulement analyser les données des personnes qui optent à un de ses services. Les plus vulnérables pourraient choisir de ne pas participer, mais une garantie d'opt-in protégerait les droits civils d'une personne et prévenir les cas d'abus, comme l'embarras ou de harcèlement de la part d'un ami qui se soucie prétendument au sujet de votre santé mentale.
En dépit de
ces défis, Coppersmith reste optimiste. Il croit que les données numériques
peuvent être stimulant lorsqu'il est utilisé pour détecter la souffrance
intégrée dans notre communication quotidienne; cette information a le potentiel
de mettre les gens sur le chemin de la guérison avec le soutien et le
traitement.
Coppersmith
envisage un avenir dans lequel les gens dans les affres du désespoir ne se
sentent pas aussi impuissants.
"Autres
outils seront disponibles pour vous aider à comprendre ce qui motive cette
douleur, de trouver des moyens de sortir de celle-ci», dit-il, "et vous
orienter hors d'elle à l'avenir."
Si vous voulez parler à quelqu'un ou éprouvez des pensées suicidaires, texte à Crisis Text Line (service USA) 741-741 ou appelez le National Suicide Prevention Lifeline (service USA) au 1-800-273-8255. Voici une liste des ressources internationales.