Meta, dirigé par Mark Zuckerberg, amorce un virage majeur en matière de modération sur Facebook, Instagram et Threads. Dans une vidéo publiée ce mardi 7 janvier 2025, le dirigeant a annoncé la fin du programme de modération et de fact-checking aux États-Unis, un dispositif notamment instauré pour lutter contre la désinformation. À l’avenir, Meta s’appuiera sur un système de modération participative inspiré des « Notes de la Communauté », utilisées sur le réseau X d’Elon Musk.
Joel Kaplan, responsable des affaires mondiales de Meta, a vivement critiqué l’ancien modèle, estimant qu’il censurait à tort des contenus « inoffensifs ». Désormais, les interventions manuelles par les équipes de ces réseaux sociaux seront limitées aux violations graves. La plateforme va aussi permettre aux utilisateurs intéressés d’accéder à plus de contenus politiques alors qu’elle en avait réduit la visibilité ces dernières années.
Avec cette nouvelle approche, Meta entend privilégier la liberté d’expression et répondre à une demande croissante de transparence et de pluralité sur ses plateformes, tout en risquant d’exposer les utilisateurs à des discours plus controversés.
En Europe, et donc en France, ces changements ne s’appliqueront pas pour le moment. Clara Chappaz, ministre française du Numérique, a rassuré sur le respect du Digital Services Act, imposant des règles strictes en matière de modération. La ministre s’est dite vigilante sur le respect de ces obligations.
J’ai echangé avec la direction de Meta France ce soir qui m’assure que cette fonctionnalité ne sera déployée qu’aux Etats-Unis pour le moment. En Europe, le Digital Service Act sera respecté. Croyez en ma vigilance sur le sujet. https://t.co/EWOnqxCnbt
— Clara Chappaz (@ClaraChappaz) January 7, 2025
Avec cette décision, Meta ravive le débat sur la frontière entre modération et liberté d’expression, une question brûlante dans un contexte mondial divisé et de plus en plus polarisé.