Le Conseil de surveillance annonce sept priorités stratégiques
20 octobre 2022
Le Conseil de surveillance a commencé à accepter des cas en octobre 2020. Pour la première fois, si une publication était supprimée de Facebook ou d’Instagram et la voie de recours de l’entreprise avait déjà été épuisée, la personne à l’origine de la publication pouvait contester cette décision en faisant appel auprès d’un organisme externe et indépendant.
Deux ans plus tard, nous annonçons les sept priorités stratégiques sur lesquelles nous souhaitons travailler avec les différentes parties prenantes pour mettre à jour l’approche de Meta en matière de modération de contenu. Nous aurons ainsi plus d’impact dans des domaines dans lesquels nous pouvons faire une différence importante pour améliorer l’expérience des personnes qui utilisent Facebook et Instagram. De plus, les nouvelles réglementations entraînant de nouvelles exigences pour les entreprises technologiques, nous sommes prêts à nous associer à d’autres entreprises, à des organismes de réglementation et à d’autres parties prenantes pour partager les avantages d’une approche de modération du contenu indépendante et fondée sur des principes.
Présentation de nos priorités stratégiques
Nos sept priorités stratégiques se basent sur une analyse des cas qui ont été soumis au Conseil et sur les problèmes auxquels les personnes qui utilisent nos services dans le monde entier sont confrontées. Le Conseil sélectionnera les cas en fonction de ces priorités. Nous encourageons donc les personnes qui font appel auprès du Conseil à prendre en considération ces priorités, notamment en expliquant les raisons pour lesquelles elles ne sont pas d’accord avec les décisions de Meta.
Nos priorités stratégiques sont les suivantes :
- Élections et espace civique
Dans de nombreuses régions du monde, les entreprises de médias sociaux ont du mal à appliquer leurs règles en matière d’expression politique, notamment lors d’élections ou de manifestations à grande échelle. Nous avons souligné l’importance de la protection de l’expression politique dans notre décision « Manifestations pro-Navalny en Russie », et notre décision « Mention des talibans dans les reportages » a abordé la question de la liberté des médias. Le Conseil souhaite passer en revue les responsabilités de Meta lors d’élections, de manifestations et d’autres moments de participation civique importants.
- Situations de crise et de conflit
En temps de crise, par exemple lors de conflits armés, d’attentats terroristes ou d’urgences sanitaires, les médias sociaux peuvent aider la population à rester en sécurité, mais aussi créer un environnement propice aux discours haineux et à la propagation de fausses informations. Nos décisions « Crimes présumés à Raya Kobo » et « Bureau des affaires de communication du Tigré » concernaient des publications liées au conflit en Éthiopie, et notre décision sur l’ancien président des États-Unis Donald Trump a conduit Meta à adopter un protocole de politiques de crise. Le Conseil souhaite déterminer si Meta est en mesure de répondre aux préjudices potentiels auxquels ses produits pourraient contribuer pendant les conflits armés, les troubles civils ou d’autres situations d’urgence.
- Genre
Les femmes, les personnes non binaires et les personnes trans rencontrent des obstacles à l’exercice de leur droit à la liberté d’expression sur les médias sociaux. Dans notre décision « Symptômes du cancer du sein et nudité », par exemple, les systèmes automatisés de Meta n’ont pas appliqué l’exception de la sensibilisation au cancer du sein, ce qui a entraîné la suppression d’informations de santé importantes sur Instagram. Le Conseil souhaite analyser les obstacles auxquels les femmes et les personnes LGBTQI+ sont confrontées dans l’exercice de leur droit à la liberté d’expression, y compris la violence et le harcèlement fondés sur le genre, ainsi que l’impact des distinctions basées sur le genre sur la politique de contenu.
- Discours haineux contre des groupes marginalisés
Le discours haineux crée un environnement de discrimination et d’hostilité envers les groupes marginalisés. Il est souvent codé et spécifique au contexte, et ses conséquences s’accumulent au fil du temps. Notre décision « Représentation de Zwarte Piet » a démontré qu’autoriser les images de blackface créerait un environnement discriminatoire pour les personnes noires, et nos décisions « Ceinture wampum » et « Réappropriation de mots arabes » ont abordé le contre-discours qui fait référence au discours haineux pour lutter contre la discrimination. Le Conseil souhaite analyser la façon dont Meta devrait protéger les groupes marginalisés, tout en veillant à ce que la mise en application de ses règles ne cible pas à tort les personnes qui signalent le discours haineux.
- Utilisation des plateformes de Meta par le gouvernement
Les gouvernements utilisent Facebook et Instagram pour transmettre leurs politiques et demander à Meta de supprimer du contenu. En réponse à notre décision « Isolement d’Öcalan », Meta a accepté de fournir des informations sur le contenu supprimé pour infraction à ses Standards de la communauté à la suite d’un signalement de la part d’un gouvernement, et notre décision « Musique drill britannique » à venir abordera la façon dont Meta devrait répondre aux demandes de la police nationale. Le Conseil souhaite analyser la manière dont les gouvernements utilisent les plateformes de Meta et ce que cela implique pour la modération de contenu.
- Traitement équitable
Lorsque le contenu d’une personne est supprimé de Facebook et d’Instagram, il ne lui est pas toujours expliqué quelle règle elle a enfreinte. Ce manque de transparence peut donner l’impression que tout le monde n’est pas traité de la même manière sur la plateforme. Le Conseil souhaite déterminer ce que Meta peut faire de plus pour traiter les personnes qui utilisent ses services comme s’il s’agissait de sa clientèle, notamment en leur envoyant des notifications plus spécifiques, en veillant à ce qu’il soit toujours possible de faire appel des décisions de Meta auprès de l’entreprise et en faisant preuve de plus de transparence dans des domaines tels que les pénalités et la vérification cross-check.
- Mise en application automatisée des règles et sélection du contenu
Si les algorithmes sont essentiels pour modérer du contenu à grande échelle, la façon dont les systèmes automatisés de Meta fonctionnent et influencent le contenu affiché n’est pas toujours claire. Notre décision « Dessin représentant la police colombienne » a montré comment l’automatisation pouvait accentuer l’impact des décisions de modération du contenu incorrectes. En réponse à notre décision « Symptômes du cancer du sein et nudité », Meta teste des notifications qui indiquent si ses décisions ont été prises à la suite d’un examen manuel ou automatisé. Le Conseil souhaite analyser la façon dont la mise en application automatisée devrait être conçue, la précision des systèmes automatisés et l’importance d’une plus grande transparence dans ce domaine.
Travailler avec les différentes parties prenantes pour augmenter notre impact
En tant que Conseil, ce que nous avons accompli jusqu’à présent a été rendu possible par les efforts d’équipes de recherche, de groupes de la société civile et d’autres personnes qui ont travaillé sur ces questions pendant de nombreuses années. L’expertise en la matière et les connaissances locales de ces parties prenantes seront essentielles pour trouver des solutions durables à nos priorités stratégiques et aux enjeux extrêmement complexes qu’elles soulèvent.
Pour toutes nos priorités stratégiques, nous continuerons de travailler avec les différentes parties prenantes pour comprendre les règles et les pratiques de mise en application de ces règles que Meta doit améliorer de toute urgence, ainsi que les types de cas qui pourraient y contribuer.
Pour y parvenir, nous souhaitons nous associer à des organisations du monde entier par le biais de notre processus de commentaires publics, de tables rondes et de conversations individuelles. Pour discuter de la manière dont votre organisation peut prendre part à cette initiative, veuillez vous inscrire pour recevoir les actualités du Conseil ici, ou contactez engagement@osbadmin.com.
Soutenir une approche indépendante et fondée sur des principes
Trouver des solutions aux problèmes soulevés par nos priorités stratégiques est important pour Meta et pour toutes les autres entreprises de médias sociaux. Les nouvelles réglementations entraînant de nouvelles exigences pour les entreprises technologiques, nombre d’entre elles seront contraintes de changer d’approche. Bien qu’il n’y ait pas de réponse unique et que de nombreux acteurs auront un rôle à jouer, nous pensons que l’approche indépendante et fondée sur les droits de la personne du Conseil peut faire partie de la solution.
Aujourd’hui, lors de la modération du contenu, les entreprises de médias sociaux sont confrontées à un défi important : quelles règles faut-il appliquer à des milliards de personnes dont la nationalité, la langue et la culture diffèrent ? Pour répondre à cette question, nous pensons que les normes internationales en matière de droits de la personne seront essentielles. En effet, elles s’appliquent à tout le monde de la même manière et fournissent un cadre cohérent pour examiner le droit d’une personne à la liberté d’expression parallèlement à d’autres droits, comme le droit à la vie ou le droit à la vie privée.
Nous avons également constaté que le secteur technologique, entre autres, est de plus en plus favorable à une surveillance indépendante. Il s’agit de sociétés qui ouvrent leurs processus internes et qui invitent des personnes externes, sans intérêts commerciaux dans l’entreprise, à examiner leurs décisions. Nous pensons que ce type d’examen permet de prendre de meilleures décisions, plus solides sur le long terme.
En tant que Conseil, nous avons développé une grande expérience au cours des deux dernières années. Nous espérons que l’approche indépendante et fondée sur les droits de la personne du Conseil fournira un cadre crédible aux autres entreprises de médias sociaux, aux organismes de réglementation et aux organisations de la société civile. Nous sommes prêts à établir de nouveaux partenariats et à partager ce que nous avons appris pour améliorer les médias sociaux ensemble.
Et après ?
Au cours des deux dernières années, nous avons reçu près de deux millions d’appels. Grâce aux 130 recommandations que nous avons formulées jusqu’à présent, nous avons commencé à mettre à jour l’approche de Meta en matière de modération du contenu. Aujourd’hui, avec l’annonce de nos priorités stratégiques, nous cherchons à renforcer notre impact, en travaillant avec des parties prenantes du monde entier pour trouver des solutions durables. Nous sommes également prêts à nous associer à des entreprises, des organismes de réglementation et d’autres parties prenantes pour partager les avantages d’une approche de modération du contenu indépendante et fondée sur des principes.