Les ingénieurs de Facebook expliquent comment ils utilisent l'intelligence artificielle :
"
Sous le capot : Outils de prévention du suicide propulsés par l'IA
sur code.facebook.com
Under the hood: Suicide prevention tools powered by AIDan Muriello Lizzy Donahue Danny Ben-David Umut Ozertem Reshef Shilon Shilon
Le suicide est la deuxième cause de décès la plus fréquente chez les personnes âgées de 15 à 29 ans. La recherche a révélé que l'une des meilleures façons de prévenir le suicide est que les personnes en détresse entendent parler des gens qui se soucient d'elles. Facebook est bien placé - grâce aux amitiés sur le site - pour aider à mettre en contact une personne en détresse avec des personnes qui peuvent les soutenir. Cela fait partie de nos efforts continus pour aider à bâtir une communauté sécuritaire sur et hors de Facebook.
Nous avons récemment annoncé une expansion de nos outils existants de prévention du suicide qui utilisent l'intelligence artificielle pour identifier les postes dont le langage exprime des pensées suicidaires. Nous aimerions partager plus de détails à ce sujet, car nous savons qu'il y a un intérêt croissant pour l'utilisation de l'intelligence artificielle sur Facebook et pour les nuances associées au travail dans un espace aussi sensible
Lire la suite en anglais
https://code.facebook.com/posts/286893341840510/under-the-hood-suicide-prevention-tools-powered-by-ai/
****
L'outil de prévention du suicide sur Facebook
D'apres Article Facebook’s remarkable suicide prevention tool
30 mars 2018 Nick Garbutt mise à jour : 20 avril 2018 scopeni.nicva.org*
Dans une semaine dominée par la controverse sur la façon dont nos données sur les médias sociaux sont exploitées, Scope examine comment Facebook utilise également les données pour sauver des vies.
Il n'y a pas de meilleur exemple des dangers et des avantages de l'intelligence artificielle que son utilisation par Facebook.
Outre la question troublante de savoir comment les données de Facebook auraient été exploitées pour tenter de manipuler le vote, l'entreprise a également mis au point un remarquable outil d'intelligence artificielle conçu pour prévenir le suicide.
Les taux de suicide augmentent partout dans le monde, mais on sait relativement peu de choses sur ce qui donne lieu à un risque de suicide. Il est donc essentiel d'en savoir plus sur la prévention efficace.
Il y a deux ans, une étude a été publiée qui a révélé que les messages sur les médias sociaux peuvent être de bons indicateurs lorsque les gens ont des pensées suicidaires. Les travaux ultérieurs sont basés sur la découverte de mots déclencheurs - et d'émojis - qui identifient les personnes à risque. Il s'agit de développer des algorithmes qui détectent les tendances de la communication humaine. Il s'agit d'une science bien établie et relativement avancée - nous la connaissons tous parce que c'est ce qui sous-tend le texte prédictif sur nos téléphones intelligents.
L'an dernier, l'American Crisis Text Line a construit un algorithme pour analyser les mots les plus fréquemment utilisés lorsque les gens avaient désespérément besoin d'aide, en utilisant une base de données de 22 millions de messages.
Curieusement, il a découvert que le mot "ibuprofen" était 16 fois plus susceptible de prédire que la personne qui envoie des SMS aurait besoin de services d'urgence que le mot suicide. Une autre conclusion clé était qu'un autre élément de contenu à haut risque n'était même pas un mot, mais un émoji en pleurs.
Cela a permis à l'organisation d'identifier 9 000 combinaisons de mots qui indiquent un risque élevé, de sorte que les textes appropriés peuvent être classés par ordre de priorité pour obtenir de l'aide. De façon cruciale, la recherche fournit la preuve que les gens n'utilisent pas toujours les mots évidents pour exprimer des sentiments suicidaires.
Ainsi, lorsque Facebook est entré dans l'arène de la prévention du suicide en novembre, il s'appuyait sur un corpus scientifique émergent.
Il a mis au point un outil qui, selon lui, permet d'identifier le risque accru de suicide chez les utilisateurs des médias sociaux. Cela permet d'alerter une équipe d'examinateurs humains qui peuvent alors joindre les personnes concernées.
Facebook a déclaré lors du lancement qu'avant même d'annoncer l'existence de l'algorithme de prévention du suicide, il a ainsi atteint 100 personnes à risque.
Nous pouvons supposer qu'il s'agit d'un outil extrêmement puissant. Facebook a consacré d'énormes ressources à l'intelligence artificielle, avec deux centres de recherche aux États-Unis et un autre en France. Il a également aspiré des universitaires de premier plan dans le domaine, alors qu'il se dispute la domination d'une technologie émergente puissante.
Il dispose également d'une énorme quantité de données avec lesquelles travailler - il affirme qu'environ un cinquième de la population mondiale utilise la plate-forme. Comparer les 2 milliards d'utilisateurs avec tous leurs messages avec les 22 millions de textes analysés par Crisis Text Line.
Toutefois, à ce jour, Facebook a refusé de dire comment l'algorithme fonctionne et quelles ont été ses conclusions. Peut-être le fera-t-elle à une date ultérieure, mais pour l'instant, ses recherches extraordinaires - et susceptibles de changer la donne - n'ont pas été partagées. Cela pourrait aider d'autres personnes à sauver des vies.
Il y a peut-être de très bonnes raisons à cette réticence. Par exemple, pour éviter que d'autres ne simplifient à outrance le risque de suicide en se concentrant sur les mots clés à l'exclusion d'autres facteurs. Il pourrait même être utilisé par des organisations ayant l'intention malveillante de cibler les personnes vulnérables ayant une mauvaise santé mentale.
Pourtant, Facebook est une entreprise privée dont l'actif le plus précieux est son énorme base de données et qui a travaillé sans relâche pour trouver des moyens de transformer cela en opportunité commerciale.
L'an dernier, le
Guardian a publié une histoire basée sur des documents ayant fait l'objet d'une fuite qui affirmait que Facebook avait montré aux annonceurs en Australie qu'il avait la capacité d'identifier quand les adolescents se sentent "insécurisés", "sans valeur" et "ont besoin d'un regain de confiance".
La compagnie a nié qu'elle offre aux annonceurs des outils pour cibler les auditoires en fonction de leur état émotionnel, affirmant que les documents étaient basés sur "une recherche effectuée par Facebook et ensuite partagée avec un annonceur" et qu'ils étaient "destinés à aider les spécialistes du marketing à comprendre comment les gens s'expriment".
Quoi qu'il en soit, la controverse de Cambridge Analytica, combinée au développement de l'outil de prévention du suicide, démontre à quel point il est possible de faire beaucoup avec les données, pour le meilleur et pour le pire.
C'est une caractéristique de la plupart des développements technologiques dans un monde en rapide évolution. Ils soulèvent de multiples questions éthiques qui, une fois, exigent un débat et une réflexion.
L'équipe de la société américaine Bookmark a produit un superbe graphique qui donne vie à ce projet à travers une gamme de technologies émergentes basées sur l'intelligence artificielle. Il s'agit d'une excellente introduction à certains des avantages et des dangers qui se posent.
Le temps presse - la société civile doit s'engager sur ces questions - il serait tellement mieux d'aider à façonner le changement pour qu'il apporte des avantages plutôt que de rester les bras croisés et de tout laisser aux entreprises technologiques.
*
http://scopeni.nicva.org/article/facebook-s-remarkable-suicide-prevention-tool