Pages

jeudi 28 décembre 2017

CRITIQUES DEBAT REFLEXIONS Le Monde : "Gare à ces algorithmes qui nous connaissent mieux que nous-mêmes"

Gare à ces algorithmes qui nous connaissent mieux que nous-mêmes
Le Monde
Science & Médecine, mercredi 27 décembre 2017, p. SCH7



Facebook souhaite développer un programme de prévention du suicide. Le psychiatre et anthropologue Franck Enjolras s'interroge sur les défis éthiques et politiques de ce projet.

Tribune | Les réseaux sociaux promettent de prédire nos actions pour mieux prévenir nos comportements à risques. Une évolution à double tranchant, explique le psychiatre Franck Enjolras

Nous définirons-nous bientôt moins par ce que nous faisons en conscience que par ce que nous disons, ou même par ce que pourrions faire sans le savoir? En développant des programmes sur la prévention du suicide, notamment, Facebook et d'autres suscitent un débat très large sur la question du « sujet . Le défi est autant éthique que politique. Jusque-là, notre double, s'il existe, est ­considéré comme notre semblable, que nous surprenons à l'improviste dans l'expérience inattendue du ­miroir. Expérience que Freud appelait « l'inquiétante étrangeté » : il aperçut un être qu'il perçut comme menaçant dans le reflet d'une vitre... et se ­reconnut alors; cette image devint la sienne. Sous peu, des algorithmes, dont certains sont déjà très actifs sur la Toile, ne risquent-ils pas de créer un autre double, bien réel celui-là? Un double qui permettrait de nous définir sans même que nous le sachions?

Expliquons-nous. Les algorithmes qui tracent nos habitudes, nos goûts, ou encore nos échanges sur le Net, ­tirent parti de ce que nous faisons sur la Toile et, en retour, induisent certains de nos agissements. Jusque-là, même sous influence, nous faisons toujours ce que nous décidons. L'annonce ­récente de Facebook qui s'engage, à l'avenir, à détecter les comportements potentiellement suicidaires de ses utilisateurs nous plonge dans un futur où l'homme ne « sera » plus vraiment lui-même, c'est-à-dire qu'il ne se définira plus - ou plus seulement - par ce qu'il fait. Ces données, ou big data, extraites des conversations ou des posts, viendront rejoindre celles qu'à notre insu, par notre smartphone, notre voiture ou notre bracelet connecté, nous produisons. Par leur analyse, des algorithmes pourraient donc finir par nous connaître mieux que nous nous ­connaissons nous-mêmes. Sans qu'on le sache, ils fixeraient ce que nous ­sommes capables de faire sans que nous en ayons conscience. Par exemple, mettre fin à nos jours.

La législation européenne encadre aujourd'hui l'usage de ces données, mais jusqu'à quand? En regard de cette question, n'oublions pas un ­aspect essentiel de notre modernité : acheter un smartphone ou une ­voiture, s'inscrire sur Facebook, c'est exposer ou produire une partie de soi, en l'occurrence des logiques de comportements. Tout ce qui nous échappe là, tout en faisant partie de nous, a de quoi laisser perplexe. La ­société du risque de Robert Castel est bien d'actualité, mais son modèle est surpassé. Toujours dans la prévention, au nom de la gestion des risques, l'ère de la « cryptoprédiction » individuelle a sonné.

Par les données ainsi amassées, il est possible aujourd'hui de créer un historique trahissant nos fréquentations, nos passions, nos manières de ­conduire, etc. Bientôt, pour témoigner de ce qui était prévisible - mais que nous n'avions pas nous-mêmes prévu -, ces données pourraient aussi être mises en forme. Le relevé de ces données pourrait même donner lieu à une veille, voire déclencher l'intervention d'une autorité administrative, par exemple, afin de viser ou attester ce qui a été suggéré par les algorithmes.

L'élan de la connexion à tous crins a ses avantages, elle favorise notamment la démocratie participative. Toutefois, ne négligeons pas que cet élan fixe aussi les pouvoirs de contrôle et de privation de liberté. Qu'un opérateur privé détienne des informations qui nous caractérisent, selon un double, d'après un modèle informatique, et non plus selon ce qu'on dit et fait, peut éveiller quelques craintes. Certes, l'enjeu est somme toute altruiste et bienveillant puisqu'il s'agit de protéger des malheureux contre eux-mêmes, mais à ce jour, Facebook n'a fourni aucune information sur la nature de ses algorithmes et sur leur manière d'intervenir. Des études évoquent des algorithmes se fixant sur des termes jugés ­prédictifs, de type « échec » ou « ibuprofrène », plus sensibles que « suicide », qui seraient alors corrélés au rythme des posts déposés. Il s'agirait de modéliser des « profils types numériques » pour lesquels des modérateurs de la société - une « police du Net » - auraient pour fonction de gérer les alertes et, de surcroît, les moyens de protection à prévoir.

A l'heure où les libertés individuelles sont toujours plus menacées - état d'urgence oblige ou accentuation des pouvoirs administratifs dans l'Etat de droit -, toute bonne volonté qui mise sur la prévention du suicide, et bien sûr, dans le même sens, sur la prévention de la radicalisation et d'autres ­aspects encore, légitimes a priori, ­mérite qu'on ne soit pas dupe face aux possibles conséquences de ces propositions qui modélisent cette sorte d'autre, à notre insu.

Avec une pointe d'ironie, on peut se demander si notre futur double sera encore notre inconscient ou alors une sorte d'impensé, à ne pas mettre entre toutes les mains; que ce soit dans ­celles des autorités administratives, des sociétés d'assurances ou des mutuelles. Ces acteurs, à n'en pas douter, verraient sûrement d'un très bon oeil d'être en pouvoir de nous juger, non pas à travers ce qu'on a fait ou pas fait, mais à travers notre double, en somme ce qui était, en soi, prévisible et ­démontrable, statistiquement parlant, par tous ces algorithmes.
Note(s) :

Franck Enjolras, psychiatre et docteur en anthropologie (IRIS-EHESS)

Le supplément « Science & médecine » publie chaque semaine une tribune libre. Si vous souhaitez soumettre un texte, prière de l'adresser à sciences@lemonde.fr

http://www.lemonde.fr/sciences/article/2017/12/26/gare-a-ces-algorithmes-qui-nous-connaissent-mieux-que-nous-memes_5234390_1650684.html