La salle de Facebook contre les manipulations

InternetLe réseau social a dévoilé sa «War Room», une pièce où les employés traquent les activités malveillantes destinées à tromper ses utilisateurs.

Une vingtaine d'analystes et d'informaticiens chevronnés travaillent dans la «War Room».

Une vingtaine d'analystes et d'informaticiens chevronnés travaillent dans la «War Room». Image: AFP

Signaler une erreur

Vous voulez communiquer un renseignement ou vous avez repéré une erreur?

C'est le centre névralgique de la lutte contre la manipulation des élections chez Facebook. Au sein de la «War Room», une vingtaine d'analystes et d'informaticiens chevronnés sont à l'affût de tout signe suspect, prêts à riposter.

De l'extérieur, peu de choses distinguent cette «salle de crise» des autres salles de réunion situées dans les dizaines de bâtiments du tentaculaire siège du réseau social en Californie. Si ce n'est sa porte vitrée teintée, où est scotché un petit panneau «WAR ROOM» en grosses lettres rouges au style rétro.

A l'intérieur, des horloges sur plusieurs fuseaux horaires, des écrans branchés sur CNN, Fox News ou Twitter, des dizaines d'ordinateurs, des cartes des Etats-Unis et du Brésil. Fixés au mur, d'autres écrans montrent des graphiques qui suivent l'activité sur le réseau en temps réel, prêts à donner l'alerte en cas d'anomalie.

Agir vite

«Notre job est de détecter (...) quiconque essaie de manipuler le débat public», résume Nathaniel Gleicher, à la tête de la cybersécurité de Facebook et ancien du Conseil national de sécurité à la Maison Blanche.

Et surtout, d'agir vite. C'est le but de la War Room, lancée en septembre et qui a fait son baptême du feu avec le premier tour de la présidentielle brésilienne le 7 octobre.

«Le jour de l'élection, nous avons observé une hausse de messages (trompeurs) disant que l'élection était reportée à cause de manifestations», explique Samidh Chakrabarti, l'un des responsables élections et engagement civique au sein du réseau social.

«Nous avons été capables de les retirer avant que l'histoire ne devienne virale», assure-t-il. Cela s'est fait en «une heure ou deux» alors que «cela aurait pu prendre plusieurs jours» sans la «War Room» et ses employés dédiés.

«Face-à-face»

Derrière un écran où est fixé un petit drapeau du Brésil, un jeune homme à chapeau gris est l'un d'eux. Interdiction aux journalistes de l'interroger mais sa mission est évidente: surveiller le deuxième tour de la présidentielle, le 28 octobre.

Depuis que Facebook a reconnu avoir totalement sous-estimé la manipulation de l'élection présidentielle américaine de 2016 via les réseaux sociaux, le groupe américain a mis les bouchées doubles sur le sujet et n'en finit plus de détailler tout ce qu'il met en oeuvre pour détecter les activités malveillantes destinées à attiser les fractures idéologiques ou à tromper les électeurs.

Rien ne vaut les humains

Cette fois, Facebook a décidé de créer un centre de commandement physique, avec des analystes de données, ingénieurs informatiques, juristes, ou experts en menaces ... réunis au même endroit pour être plus rapides et efficaces. Contrairement aux machines, «les humains peuvent s'adapter très vite aux nouvelles menaces», note M. Gleicher.

Même si le groupe prospère depuis près de 15 ans sur les interactions virtuelles entre «amis» parfois situés à des milliers de kilomètres les uns des autres, «rien ne vaut la communication en face-à-face», reconnaît M. Chakrabarti à moins de trois semaines des élections législatives américaines de mi-mandat, sur lesquelles planent des menaces d'interférences venues de l'étranger, notamment depuis la Russie.

«Au moment des élections, nous avons besoin que les gens détectent et suppriment (des contenus) le plus vite possible (...). Il faut que les décisions soient prises de façon rapide», poursuit-il, rappelant que 20'000 personnes sont désormais chargées de la sécurité des contenus dans l'ensemble du groupe.

«Si une anomalie est détectée (par les systèmes informatiques), un analyste de données va investiguer, voir s'il semble y avoir vraiment un problème», explique encore Samidh Chakrabarti. Si les contenus enfreignent de façon claire les règles de Facebook (discours de haine, informations trompeuses sur le déroulement du vote...), il est ôté directement.

Partenaires

Si ce contenu demande des vérifications factuelles, il peut être envoyé à des «partenaires» extérieurs : médias (dont l'AFP), universitaires...

Les salariés de la «War Room» s'entraînent aussi à des scénarios catastrophe, avec des afflux massifs de messages trompeurs le jour d'un scrutin majeur.

«Nous devons garder une longueur d'avance sur les acteurs malveillants (...) Nous réduisons continuellement la taille de la porte d'entrée, ils essayent en permanence d'entrer», résume M. Gleicher. (ats/nxp)

Créé: 18.10.2018, 13h19

Articles en relation

Le piratage massif imputé à des spammeurs

Facebook Le réseau social pense que le piratage massif aurait été mené par des spammeurs pour de l'argent et non pas à des fins politiques. Plus...

Facebook: des millions de données volées

Technologie Les informations de 29 millions de comptes ont été compromises lors du dernier piratage du réseau social. Plus...

Facebook supprime près de 600 pages

High-Tech Pour lutter contre la désinformation à l'approche des élections américaines, Facebook a supprimé près de 600 pages. Plus...

Facebook lance «Portal», son écran intelligent

Technologie La course aux innovations des réseaux sociaux se poursuit. Facebook se dote cette fois-ci d'intelligence artificielle pour passer des appels vidéos. Plus...

Les données de 5 millions d'Européens piratées

Faille de Facebook Des pirates ont profité d'une faille du réseau social pour accéder aux informations sur les profils de 50 millions de comptes dans le monde. Plus...

Publier un nouveau commentaire

Nous vous invitons ici à donner votre point de vue, vos informations, vos arguments. Nous vous prions d’utiliser votre nom complet, la discussion est plus authentique ainsi. Vous pouvez vous connecter via Facebook ou créer un compte utilisateur, selon votre choix. Les fausses identités seront bannies. Nous refusons les messages haineux, diffamatoires, racistes ou xénophobes, les menaces, incitations à la violence ou autres injures. Merci de garder un ton respectueux et de penser que de nombreuses personnes vous lisent.
La rédaction

Caractères restants:

J'ai lu et j'accepte la Charte des commentaires.

No connection to facebook possible. Please try again. There was a problem while transmitting your comment. Please try again.