Pages

mardi 28 novembre 2017

MàJ : Facebook veut détecter les messages suicidaires grâce à l’intelligence artificielle

1er post 28/11/2017 : Facebook veut détecter les messages suicidaires grâce à l’intelligence artificielle

Après une expérience jugée satisfaisante aux Etats-Unis, le plus grand réseau social au monde veut élargir ce dispositif.
LE MONDE | 27.11.2017 lemonde.fr*

Comment détecter plus rapidement les internautes suicidaires, pour les empêcher de passer à l’acte ? En réponse à cette problématique, Facebook a annoncé lundi 27 novembre qu’il allait déployer à grande échelle une technologie d’intelligence artificielle visant à repérer automatiquement les messages laissant penser à des intentions suicidaires.
Jusqu’ici, ce sont les utilisateurs de Facebook qui signalaient les messages inquiétants aux employés du réseau social, chargés ensuite de les examiner et d’agir en conséquence. Cette fois, c’est un programme informatique qui devra prendre les devants. Déjà testé aux Etats-Unis depuis mars, ce programme a « appris » à détecter ces contenus en analysant des messages précédemment signalés comme suicidaires par des humains. Le logiciel observe aussi les commentaires, comme « est-ce que tu vas bien ? » ou « est-ce que tu as besoin d’aide » ?
« Nous avons une possibilité d’aider »
Un procédé qui nécessite donc qu’une machine analyse systématiquement le contenu de tous les messages des utilisateurs de Facebook. Ce qui soulève des inquiétudes : si Facebook est capable de détecter les messages suicidaires, à quel autre type de contenus pourrait-il appliquer cette technologie ?
Dans les colonnes du site spécialisé TechCrunch, Guy Rosen, responsable produit chez Facebook, préfère insister sur les bénéfices de ce système. « Nous avons une possibilité d’aider, nous allons donc l’exploiter. » A l’agence Reuters, il explique, pour justifier l’usage de cette technologie, que « la vitesse a beaucoup d’importance. Nous devons aider les gens en temps réel ».

Si un message suicidaire est détecté, Facebook pourra alors transmettre des ressources sur la prévention du suicide à la personne concernée ou à ses amis. Voire même contacter directement les secours, en cas d’urgence. Ce qui est arrivé une centaine de fois sur le territoire américain le mois dernier, annonce Facebook. L’entreprise rappelle également qu’elle travaille en lien avec 80 ONG consacrées à la prévention du suicide, dans différents pays du monde.

Ce nouveau système doit être déployé prochainement dans le monde entier… A l’exception de l’Union européenne, où la législation sur les données personnelles et leur traitement automatisé – a fortiori lorsqu’il s’agit d’informations de nature médicale – est plus stricte que dans la plupart des pays.

En savoir plus sur http://www.lemonde.fr/pixels/article/2017/11/27/facebook-veut-detecter-les-messages-suicidaires-grace-a-l-intelligence-artificielle_5221143_4408996.html

***

Facebook utilisera l'intelligence artificielle pour prévenir le suicide... mais pas en EuropePar Sciences et Avenir avec Reuters le 28.11.2017

https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/facebook-utilisera-l-intelligence-artificielle-pour-prevenir-le-suicide-mais-pas-en-europe_118692
Facebook souhaite élargir à d'autres pays son algorithme de reconnaissance des messages suicidaires, pour l'instant testé aux États-Unis. Mais l'Europe n'est pas concernée.

Facebook veut mettre l'intelligence artificielle au service de la lutte contre le suicide.
(c) Afp

Facebook, un outil de prévention face au suicide ? C'est en tout cas ce que pense la firme de Mark Zuckerberg, qui teste depuis mars 2017 aux États-Unis un algorithme de reconnaissance des messages suicidaires dans les publications et commentaires. Le plus grand réseau social du monde souhaite désormais étendre à d'autres pays ce système... mais pas en Europe. Explications.
Détecter les risques de passage à l'acte

Principe de l'algorithme : rechercher, dans les publications et les commentaires, les expressions sémantiques annonciatrices d'un suicide. Le communiqué de Facebook reste très discret sur les aspects techniques du programme, mais précise que le programme recherche des expressions telles que "Est-ce que tu vas bien ?" ou "Puis-je t'aider ?". Si le logiciel détecte un risque potentiel de passage à l'acte, une alerte est émise auprès d'employés de Facebook spécialisés dans le traitement de ces signalements. Le système propose aussi à l'utilisateur concerné ou aux amis de cet utilisateur des moyens d'aide, comme un numéro d'assistance téléphonique. Les employés de Facebook appellent parfois les autorités locales pour leur demander d'intervenir. L'objectif est de contacter les personnes avant le drame.

Guy Rosen, le vice-président de la gestion de produits chez Facebook, explique que la société a commencé à déployer le logiciel en dehors des Etats-Unis du fait de tests concluants. Durant le mois écoulé, les "premiers intervenants" sont entrés en contact avec des utilisateurs à plus de 100 reprises après la détection d'intentions suicidaires par le logiciel, précise Guy Rosen. Facebook explique vouloir disposer d'employés spécialisés disponibles à toute heure et parlant la langue locale afin de pouvoir appeler les autorités concernées. "La vitesse de réaction compte vraiment. Nous devons venir en aide aux personnes en temps réel", dit Guy Rosen.

"Susceptibilités" européennes

Facebook, qui recueille de nombreuses données sur ses 2,1 milliards d'utilisateurs à des fins publicitaires, n'était jusque-là pas réputée pour scruter les discussions dans le but de détecter les comportements dangereux, hormis les conversations suspectes entre des enfants et des adultes pouvant être des prédateurs sexuels. Quand la société a lancé l'année dernière Facebook Live, qui permet à ses utilisateurs de diffuser en direct des vidéos, les vidéos d'actes violents, comme les suicides ou les meurtres, se sont multipliées. Cela avait porté préjudice à l'image du réseau social, qui a annoncé en mai 2017 le recrutement de 3.000 personnes supplémentaires pour surveiller les diffusions de vidéos et d'autres contenus violents. Guy Rosen n'a pas voulu préciser si Facebook songeait à utiliser son logiciel de reconnaissance dans d'autres domaines, comme les crimes à caractère non sexuel.

DROIT. Analyser les conversations dans d'autres circonstances pourrait être toutefois plus difficile à justifier, explique Ryan Calo, professeur de droit à l'Université de Washington. "Une fois que vous ouvrez la porte, vous pourriez vous demander ce qu'on va chercher d'autre." Si les pays concernés par le déploiement du logiciel n'ont pas été annoncés, le dirigeant de Facebook a affirmé que l'objectif est de l'utiliser dans tous les pays du monde, hormis dans l'Union européenne, à cause de "susceptibilités" particulières qu'il s'est refusé à expliciter. Mais le droit européen, plus protecteur des données personnelles que le droit américain, pourrait en tout cas rendre difficile ce genre de traitement big data.
https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/facebook-utilisera-l-intelligence-artificielle-pour-prevenir-le-suicide-mais-pas-en-europe_118692




***
MàJ
Complément info (RGPD Règlement européen sur la protection des données)


Facebook : un dispositif pour prévenir les suicides incompatible avec le RGPD (MAJ)

Société : Facebook annonce aujourd’hui la mise en place d’un nouveau mécanisme d’analyse du comportement des utilisateurs, visant à détecter les comportements suicidaires. Mais celui-ci ne sera pas activé en Europe, RGPD oblige?

Par Louis Adam | Mardi 28 Novembre 2017

Facebook veut mettre à profit ses technologies de surveillance au profit du bien et annonce aujourd’hui le lancement d’un mécanisme de détection des comportements suicidaires sur son réseau social. Cet outil était déjà déployé aux États-Unis depuis le mois de mars, mais Facebook annonce vouloir l’étendre au reste du monde.

La technique employée par le réseau social ne surprendra pas grand monde : Facebook procède à l’analyse automatisée des contenus postés par les utilisateurs sur sa plateforme. Facebook explique disposer de technologies en mesure de reconnaître les comportements et publications pouvant laisser entendre qu’un utilisateur envisage de passer à l’acte. À titre d’exemple, les outils automatisés de Facebook sont ainsi capables de détecter les commentaires tels que « Est-ce que tu as besoin d’aide ? » ou « Est-ce que tout va bien ? » postés sur certains contenus par les proches.

Lorsque l’algorithme détecte ce type de cas de figure, le profil de l’utilisateur est transmis à une équipe de modérateurs dédiés à ces situations au sein de Facebook. Cette équipe compte « des milliers de personnes à travers le monde » précise Facebook, et se charge de déterminer quelle est la réponse la plus appropriée : les modérateurs peuvent ainsi envoyer une pop up sur le compte de la personne identifiée afin de la pousser à contacter un ami, la rediriger directement vers une ligne de prévention dédiée telle que SOS Suicide, ou dans le cas des États-Unis, contacter directement les secours afin d’agir sur les cas demandant une action rapide.

Après une première période de tests concluants sur le sol américain, où les équipes de Facebook sont intervenues auprès d’une centaine d’utilisateurs, Facebook a maintenant décidé d’étendre le dispositif au reste du monde. Ou presque : l’Europe ne disposera pas de ce mécanisme, mais Facebook ne donne pas la raison précise justifiant cette exception.

Mise à jour le 29/11 : Facebook a repris contact avec la rédaction afin de préciser sa position exacte sur l'absence de déploiement de ce filtre en Europe. "Nous discutons régulièrement avec des experts et acteurs européens sur ces sujets et nous comprenons qu'il s'agit de sujets sensibles. Pour le moment, nous avons choisi de ne pas déployer la détection proactive sur le territoire européen." Difficile de ne pas penser à l'arrivée imminente du RGPD, qui entrera en vigueur en 2018 et impose de nombreuses restrictions sur le fichage des internautes et le traitement des données personnelles. Mais Facebook se refuse à donner une raison précise.


Facebook ne donne pas de détails sur les parties exactes du mécanisme qui risqueraient d'être incompatibles avec le RGPD. Le doute est vite levé quand on sait que le dispositif déployé par Facebook ne s’embarrasse pas du consentement de l’utilisateur, qui est pourtant un des principes centraux du Règlement européen sur la protection des données personnelles.
* http://www.zdnet.fr/actualites/facebook-un-dispositif-pour-prevenir-les-suicides-incompatible-avec-le-rgpd-maj-39860778.htm#link_time=1511940243