Pages

lundi 27 juin 2016

USA Article Pourquoi les scientifiques pensent que les messages sur les médias sociaux peuvent aider à prévenir le suicide


Technologie Pourquoi les scientifiques pensent que vos messages sur les médias sociaux peuvent aider à prévenir le suicide
D’après l'article traduit "
Why scientists think your social media posts can help prevent suicide"
sur mashable.com * de Rebecca Ruiz 26/06/2016
Https%3a%2f%2fblueprint-api-production.s3.amazonaws.com%2fuploads%2fcard%2fimage%2f124478%2fmentalillness-header
Image: vicky leta / mashable


"Prenez un moment pour regarder votre clavier emoji. Faites défiler le visage fâché, le fantôme, le stylet, le beignet, la lampe de poche et la cigarette jusqu'à ce que vous atteignez les cœurs. C'est là: l'amour.
Au milieu de l'ordinaire et de l'humoristique, ces petites formes colorées et animés, peuvent facilement devenir une marque d'affection rapide comme un éclair à un ami, un parent ou un partenaire. Mais remarquez aussi, les cœurs brisés et bleus, et leur rappel discret de la tristesse, de la solitude ou du chagrin.

Il se trouve que ces petits caractères sont plus importants que nous pourrions imaginer. Les linguistes, les psychologues et les informaticiens découvrent que ce que nous partageons collectivement sur ​​les médias sociaux, et quand, peut signaler des informations sur notre santé mentale. Certains de ces chercheurs pensent que l’apprentissage automatique, les algorithmes et l’analyse mathématique peut donner aux fournisseurs de soins de santé des outils pour aider à résoudre l’une de nos épidémies de santé publique les plus difficiles : le suicide.
Dans un domaine sous-financé où sauver chaque vie à risque peut sembler comme un objectif impossible, cette technologie promet de donner aux experts et aux cliniciens de la santé publique un nouvel outil pour prédire le risque de suicide. Compte tenu de la hausse du taux de suicide aux États-Unis, ce genre de prévention ne peut pas venir assez vite.

 

Image: vicky leta / mashable 


Les indices dans vos tweets
Prédire le risque de suicide c'est exactement ce que Glen Coppersmith, un scientifique de données et psychologue, a décidé de faire. Cette mission, dit-il, est urgente.

Les données publiées en Avril par les Centers for Disease Control and Prevention ont révélé une augmentation alarmante des suicides chez les deux sexes et dans tous les groupes d'âge entre 10 et 74 ans. Entre 1999 et 2014, le taux de suicide aux États - Unis a augmenté de 24%, 13 pour 100 000 personnes.

En tant que fondateur et PDG de la startup d'analyse de santé mentale Qntfy, Coppersmith utilise l’apprentissage de la machine pour concevoir des algorithmes qui permettent d’identifier les tendances dans la communication humaine. Ce concept est la science bien établie, et c'est sur celui sur lequel vous comptez quand vous avez mal orthographié un mot et dont l'autocorrection va attraper (ou aggraver) l'erreur.
Coppersmith appartient à un petit groupe de chercheurs qui pensent que cette technologie peut être mise au service pour détecter le risque de maladie mentale et le comportement suicidaire d'une personne. Dans sa plus récente étude , publiée ce mois-ci à l'occasion de la rencontre annual North American Association for Computational Linguistics , lui et ses co-auteurs ont étudié le contenu émotionnel de tweets de centaines d'utilisateurs qui avaient parlé ouvertement d'une tentative de suicide, et des tweets d'un groupe contrôle qui n'avaient pas afficher de pensées ou de sentiments suicidaires.
 "Chaque mot que vous employez représente une petite fraction d'une part d’indice en termes de qui vous êtes."
Utilisant un modèle conçu pour prédire le risque de suicide dans le premier groupe, les chercheurs ont découvert que leur algorithme travaillé - et ont recueilli des modèles surprenants, dont un sur la façon dont ces cœurs emoji peuvent dire plus que ce que nous supposons accidentellement.
Alors que presque chacun dans les échantillons incluait des emoji dans leurs tweets, Coppersmith et ses co-auteurs ont remarqué que certains dans le groupe qui ont parlé de tentative de suicide ont employé une gamme étroite d'emoji représentants plus fréquemment la tristesse, comparé aux utilisateurs typiques du même âge et de genre. Ils préfèrent souvent les cœurs bleus et brisés, mais utiliser ces caractères seuls, dit Coppersmith, n'indique pas le risque de suicide.
Les chercheurs ont également remarqué une augmentation des messages indiquant de la tristesse avant une tentative de suicide, puis une hausse de tweets tristes et de colère autour d'une tentative.
Alors que l'étude de Coppersmith ne comprend pas de vrais tweets afin de protéger la vie privée des utilisateurs, elle offre des exemples pour démontrer à la fois la colère («Je suis seulement bon pour être un sac de boxe verbale") et de tristesse («Je suis tout à fait pathétique même les cicatrices de mes tentatives sont pathétiques »).
"It’s not like ... si vous dites cette phrase c'est que vous êtes clairement en difficulté»,  Coppersmith dit de l'algorithme. "Il indique: « Laissez-moi regarder tout le langage. » Chaque mot vous employez montre une petite fraction d'une part d'un indice en termes de qui vous êtes, ce que vous pensez, si oui ou non vous êtes dans une sorte de crise émotionnelle ".  
Image: vicky leta / mashable

Coppersmith croit que glaner de telles informations des médias sociaux, ainsi que d'autres données générées par les appareils mobiles, pourrait être vital pour un psychologue à la recherche d'indices subtils au sujet du risque de suicide d'un patient.

Janet Schnell, qui a perdu son frère au suicide en 1995, a travaillé dans le domaine de la prévention pendant deux décennies et estime que cette nouvelle approche peut réussir à repérer les risques là où d'autres efforts ont échoué.

«Je suis si reconnaissant comme "loss survivor" qu'il y ait une nouvelle fenêtre qui pourrait être ouverte."
 
"Une partie du processus de deuil est que les endeuillés par suicide reviennent en arrière, réexaminent et regardent et regardent à nouveau pour voir ce qu'ils ont manqué," dit Schnell, qui est à la loss division chair de l'American Association of Suicidology. .

Bien que son frère soit décédé avant l'avènement des médias sociaux, Schnell sait comment  ce serait important si les chercheurs pouvaient utiliser ces données pour aider à expliquer ce qui est éprouvé souvent comme un mystère tragique.
Malgré les progrès récents dans cette recherche, il faudra encore le partenariat entre les scientifiques de données et les professionnels des soins de santé, le financement, et quelques années au minimum pour produire des recherches assez fiables pour que les psychologues puissent l'utiliser dans leur pratique.
Pour la recherche de Coppersmith pour atteindre ce point, il a besoin de beaucoup plus d'idées comme celles qu'il a déjà produites, et une analyse plus approfondie de ces conclusions.
Voilà pourquoi il essaie de recueillir des données à partir d’au moins de dizaines de milliers de personnes, et il espère que vous envisagerez de donner les vôtres.

Le don de vos données
En Avril, Qntfy a lancé une étude intitulée  OurDataHelps , qui demande aux gens de faire don des données de médias sociaux Twitter, Facebook, Instagram, Reddit et Tumblr. . Coppersmith a demandé également les données Fitbit, Jawbone and Runkeeper, ce qui devrait donner un aperçu sur les tendances et les habitudes physiques des gens.
Les volontaires répondent à quelques questions au sujet de leur histoire de santé mentale et du suicide ; l'étude invite les deux personnes qui ont et n’ont pas eu de maladie mentale à participer. Ils donnent la permission à Qntfy d'anonymiser et de suivre leurs messages grâce à l’authentification ouverte, un outil commun qui permet à des tiers de voir votre compte sans exiger un mot de passe. (Si vous avez déjà synchronisé une application comme Candy Crush avec votre compte Facebook, vous avez utilisé l’authentification ouverte.)







Donate your social media data to power suicide prevention https://OurDataHelps.org 

Bien que l'objectif est de produire des données et des recherches qui mènent à de nouveaux traitements pour les troubles de santé mentale, Coppersmith veut sauver finalement la vie par la compréhension de la façon dont une personne se comporte dans les jours, semaines et mois avant de devenir suicidaire, et d' intervenir avant qu'ils risquent une tentative de suicide. Les médias sociaux et les données mobiles offrent une nouvelle occasion d'en faire une réalité.


Questions sans réponse
Cette tragédie est souvent attribuée à des facteurs de risque comme une histoire de suicide dans la famille, d' alcool ou de toxicomanie, et des sentiments de désespoir. Mais les patients avec des histoires de vie similaires ont régulièrement des résultats différents, et les chercheurs ont longtemps lutté pour comprendre la différence pour sauver des vies.
Des études menées au cours des dernières décennies ont généré des résultats importants, mais les experts en la matière disent que l'information de prévention est fréquemment vague, périmée ou basée sur des méthodes de recherche inefficaces.

Les scientifiques qui étudient le suicide peuvent suivre les mêmes variables dans la vie des gens sur une longue période de temps. Ils ont même analysé des journaux personnels, récoltant le nombre de fois que certains mots apparaissent afin de comprendre l'esprit des gens dans le brouillard de la dépression et des pensées suicidaires. Cependant ils n'ont pas été en mesure d'effectuer cette analyse à grande échelle et de recueillir rapidement des informations sur les expériences quotidiennes des gens.

Image: Getty

La beauté des algorithmes derrière OurDataHelps, dit Foreman, est qu'ils peuvent faire ce qu'elle ne peut pas : compter.
Foreman regarde régulièrement les dossiers médicaux de 80 à 120 anciens combattants à haut risque, dont la plupart ne meurent pas par suicide. Avec la formation et de l’expertise, elle sait comment identifier les patients présentant des signes d'avertissement sérieux, mais elle comprend aussi les limites du cerveau humain.
Il ne peut pas dépister et analyser, par exemple, des modèles de discours en temps réel, montrer un modèle statistiquement significatif et lier cela avec les patients les plus susceptibles de tenter de se suicider.

Construire les bons systèmes
Kristy Hollingshead, qui a des études de co-auteur avec Coppersmith qui détectent et analysent le stress post-traumatique, la depression and TDAH  sur les médias sociaux, dit que la communication en ligne contient un "cohérent, très fort, fiable signal" sur la santé mentale d'une personne.
La technologie d'apprentissage de la machine permet à Hollingshead, chercheur à l'Institut de la Floride pour Human & Machine Cognition, de capturer et analyser des milliers de messages publics à partir d'au moins plusieurs centaines d'utilisateurs. Dans l'ensemble, ces postes peuvent facilement devenir des centaines de milliers de lignes de texte, qu'elle ne pouvait pas faire défiler et coder manuellement.
Malgré l'efficacité de l’externalisation de ces tâches à un ordinateur, le système d' Hollingshead et de ses collègues qu'ils sont en train de construire n'est  pas aussi précis qu'ils aimeraient qu'il soit. Ils font des suppositions valables au sujet de leurs données - estimer, par exemple, le sexe de l’utilisateur et l’âge. En utilisant des échantillons de petits groupes d'utilisateurs peuvent également introduire un biais.
«La langage est un bon signal de ce qui se passe dans votre cerveau."
Hollingshead estime que OurDataHelps peut créer une mine d'or en offrant aux scientifiques un ensemble de données complet et testé pour informer leurs modèles et des algorithmes.
Avec ce genre de précision, Hollingshead envisage un monde dans lequel le bien-être mental devient partie intégrante de la mesure de soi; quelqu'un qui a des sentiments suicidaires, ou a tenté de se suicider dans le passé, pourrait utiliser un logiciel ou une application pour exécuter un algorithme sur leur médias sociaux alimentés pour un risque imminent qu'ils ne pourraient pas même sentir.
«La langage est un bon signal de ce qui se passe dans votre cerveau," dit-elle. «Même si vous avez essayé de le changer de sorte que vous sembliez heureux, les algorithmes peuvent encore revenir sur les courants sous-jacents de ce qui se passe."


Image: vicky leta / mashable

Le chemin vers le suicide n'est pas droit
Le ministère de la Défense a récemment publié trois études qui montrent à quel point l'analyse statistique prometteuse peut être appliquée de façon inhabituelle quant au problème pour prédire le suicide.

La recherche, menée par Craig Bryan, un chercheur de prévention du suicide de premier plan, le directeur exécutif des etudes du Centre National des Anciens combattants à l'Université de l' Utah et Co-investigateur de l'initiative OurDataHelps, a utilisé un concept mathématique connu comme la modélisation des systèmes dynamiques.
Au lieu de regarder le seul point de repère classique - lorsqu'une personne est décédée par suicide - les chercheurs ont réussi à incorporer l’humeur et le langage utilisé en temps réel avant la mort de leurs sujets en parcourant les messages publiques disponibles sur les média sociaux
 
Les travaux ont commencé en 2013 quand Bryan et ses co-auteurs ont cherché à comprendre si les données des médias sociaux d'un membre du service donnaient des indices sur leur risque de suicide. En particulier, les chercheurs ont analysé les messages Facebook à partir d’un échantillon de 700 membres du service des armée qui sont morts par suicide et 700 membres du service qui sont mort d'autres causes sur une période de deux ans.
Ils ont non seulement confirmé leur hypothèse de départ, mais rétrospectivement prédit le suicide d'une personne et des motifs qui remettent en question nos hypothèses sur la façon dont le suicide se révèle.
La recherche de Bryan révèle que le chemin vers le suicide n'est pas linéaire, contrairement à la croyance populaire que les pensées et les comportements deviennent une spirale descendante inflexible. Au lieu de cela, son étude a révélé des fluctuations importantes dans le cheminement vers le suicide de chaque membre du service .
"Ce que nous avons fait au commencement était le regarder comme une ligne droite."
Ceux qui ont mis fin à leur vie étaient plus susceptibles de signaler un événement de vie stressant puis partager les émotions et croyances négatives ; la séquence de ces postes a été inversée pour ceux du second groupe.
Trois mois avant la mort des sujets par suicide, ils avaient tendance à poster sur les symptômes physiques, les émotions et les pensées à proximité. À la marque de trois mois, cette tendance a disparu.
Puis, au cours du mois avant de mourir, ils ont souvent affiché des «comportements inadaptés», comme un retrait social et de consommation d'alcool, tandis que les mises à jour décrivant leur vision du monde et la perception de soi sont devenues plus stable.
"Ce que nous avons fait au commencement était le regarder comme une ligne droite», explique Bryan. "Mais la pensée a  des hauts et des bas, comme des montagnes russes, avec des interactions beaucoup plus complexes - qui améliore considérablement notre capacité à détecter les personnes suicidaires, et il fournit un moyen possible d'estimer, quand vont- ils mourir?"
Scepticisme et espoir
Le mari de Sheila Hamilton est mort par suicide il y a 10 ans, et elle espère que les recherches comme celle de Bryan, réussisse. Et pourtant, elle reste sceptique sur le fait que les données nous délivrent de cette épidémie.
Hamilton, un avocat et auteur de All the Things We Never Knew: Chasing the Chaos of Mental Illness, veut que le public entende les histoires de survivants à la fois de perte d'un proche que les survivants d'une tentative. Les données, dit-elle, n'est pas une histoire de traumatisme de l'enfance ou une histoire sur la façon dont le système de soins de santé échoue avec ses patients les plus vulnérables. Les données ne peuvent vaincre la stigmatisation qui empêche les gens de demander de l'aide et de traitement.

Certains craignent également que le type de technologie que Coppersmith et ses pairs poursuivent constitue une atteinte importante à la vie privée. En 2014, une association britannique de prévention du suicide à but non lucratif appelée Samaritains Radar a lancé une application Twitter qui a utilisé un algorithme pour rechercher des mots clés à haut risque, puis ont envoyé par courrier électronique à l'utilisateur des ressources pour l’aide. Dans les 10 jours de ses débuts, l’indignation sur la vie privée a mené Samaritains Radar à suspendre l'application.

"D'Autres outils seront disponibles pour vous aider à comprendre ce qui motive cette douleur, de trouver des moyens de sortir de celui-ci."

La meilleure solution pour l'instant, Coppersmith pense, est de seulement analyser les données des personnes qui optent à un de ses services. Les plus vulnérables pourraient choisir de ne pas participer, mais une garantie d'opt-in protégerait les droits civils d'une personne et prévenir les cas d'abus, comme l'embarras ou de harcèlement de la part d'un ami qui se soucie prétendument au sujet de votre santé mentale.
En dépit de ces défis, Coppersmith reste optimiste. Il croit que les données numériques peuvent être stimulant lorsqu'il est utilisé pour détecter la souffrance intégrée dans notre communication quotidienne; cette information a le potentiel de mettre les gens sur le chemin de la guérison avec le soutien et le traitement.
Coppersmith envisage un avenir dans lequel les gens dans les affres du désespoir ne se sentent pas aussi impuissants.
"Autres outils seront disponibles pour vous aider à comprendre ce qui motive cette douleur, de trouver des moyens de sortir de celle-ci», dit-il, "et vous orienter hors d'elle à l'avenir."

 Si vous voulez parler à quelqu'un ou éprouvez des pensées suicidaires, texte à Crisis Text Line (service USA) 741-741 ou appelez le  National Suicide Prevention Lifeline (service USA) au 1-800-273-8255. Voici une liste des ressources internationales.