BFM Business

Pour prévenir les suicides, Facebook va épier ses membres, sauf en Europe

VIDÉO - Facebook a dévoilé une intelligence artificielle capable d'identifier les membres du réseau social en proie aux idées suicidaires pour les aider. Basée sur l'analyse permanente des messages et vidéos privés, cette méthode ne sera pas déployée en Europe.

En janvier 2017, une jeune Américaine a mis fin à ses jours en direct sur Facebook sans que personne ne puisse lui venir en aide. L'été dernier, une jeune Britannique s’est suicidée dans un jardin public en diffusant son acte sur Facebook Live. En octobre, un autre fait divers aussi tragique a eu lieu en Turquie. Un homme s'est donné la mort en direct sur le réseau social lors du mariage de sa fille. En mai dernier, à Nevers, une adolescente de 15 ans a été sauvée in extremis par la police alors qu'elle tentait de se suicider en direct sur Facebook.

Le réseau social ne peut physiquement empêcher quelqu’un d’attenter à ses jours. En revanche son intelligence artificielle, qui peut savoir beaucoup de choses d’un individu, pourrait détecter les membres en proie à des idées suicidaires. C’est le projet que Facebook a annoncé lundi pour tenter d’aider les personnes en souffrance.

Identifier les messages et les vidéos en direct

"De terribles événements tragiques - dont des suicides, certains diffusés en direct - auraient peut-être pu être évités si quelqu'un s'était rendu compte de ce qui se passait et en avait fait part plus tôt", avait déclaré le patron de Facebook, Mark Zuckerberg, en février. "L'intelligence artificielle peut aider à offrir une meilleure approche", poursuivait-il dans une lettre ouverte.

Grâce à l'intelligence artificielle, Facebook va désormais chercher automatiquement des indices dans les messages ainsi que les vidéos mises en ligne en direct sur Facebook Live, afin d'avertir plus rapidement son personnel et les organisations d'aide spécialisées. "Cette approche utilise une technologie de reconnaissance comportementale pour aider à identifier les messages et les vidéos en direct qui expriment potentiellement des pensées suicidaires", a écrit dans une note de blog le vice-président de gestion des produits de Facebook, Guy Rosen. 

Cette technologie passera au crible les messages de membres, mais aussi les réponses de leurs amis qui pourraient par exemple leur demander si tout va bien ou "qu'est-ce que je peux faire pour t'aider?", explique Guy Rosen. 

Une méthode qui serait interdite en Europe

Facebook a déjà mis en place des outils permettant à ses utilisateurs de signaler si un ami semble vouloir mettre fin à ses jours, mais l'intelligence artificielle permet de signaler plus rapidement ces informations et même de détecter des signaux que les membres pourraient ne pas déceler. Facebook collabore déjà et depuis une décennie avec des organisations spécialisées dans la santé mentale afin de prévenir les suicides et d'aider ses membres en détresse à trouver le soutien nécessaire, explique Guy Rosen dans son message. 

Après l'avoir testé aux États-Unis, Facebook va déployer ce système d'intelligence artificielle partout dans le monde, à l’exception de l’Union européenne, comme l’a précisé Guy Rosen sans entrer dans les détails. La raison reposerait sur la législation concernant la protection des données personnelles dans l’UE qui est l’une des plus strictes du monde. Le réseau social doit en effet avoir accès aux informations privées de ses 2,1 milliards d’utilisateurs afin de détecter les suicides potentiels. Une méthode qui, jusque-là, n’était utilisée que pour traquer les prédateurs sexuels lorsqu’ils tentent d’aborder des mineurs sur le réseau social.

Dans ce cas, l’accès aux données privées est admis, mais concernant les suicides, des experts américains s’interrogent. Comme le rapporte Reuters, Ryan Calo, professeur de droit à l'Université de Washington, estime que Facebook franchit une limite. "Une fois que vous ouvrez la porte, vous pourriez vous demander ce qu'on va chercher d'autre".

Pascal Samama avec AFP