Renversé
En journalists berättelse om ett möte i Gaza
4 avril 2024
En journalist överklagade Metas beslut att ta bort ett Facebook-inlägg i vilket han berättade om när han intervjuade Abd al-Aziz ar-Rantissi, en av Hamas grundare. Ärendet belyser ett återkommande problem med alltför strikt verkställande av företagets policy om farliga individer och organisationer, särskilt avseende neutrala inlägg. Efter det att rådet uppmärksammat Meta på överklagandet upphävde företaget sitt ursprungliga beslut och återställde inlägget.
Detta är ett sammanfattande beslut. I våra sammanfattande beslut undersöker vi ärenden i vilka Meta har ändrat sina ursprungliga innehållsbeslut efter det att rådet uppmärksammat företaget på ärendet. De innehåller även information om fel som Meta erkänner sig ha gjort. Sammanfattande beslut fattas inte av hela rådet, utan av en mindre panel med rådsmedlemmar.,Inga kommentarer från allmänheten vägs in i bedömningen och beslutet ska inte betraktas som prejudicerande för rådet. Sammanfattande beslut kan innebära direkta ändringar av Metas beslut, tillhandahålla transparens kring eventuella rättelser och visa var det finns utrymme för förbättringar i Metas verkställighetsåtgärder.
Sammanfattning av ärendet
En journalist överklagade Metas beslut att ta bort ett Facebook-inlägg i vilket han berättade om när han intervjuade Abd al-Aziz ar-Rantissi, en av Hamas grundare. Ärendet belyser ett återkommande problem med alltför strikt verkställande av företagets policy om farliga individer och organisationer, särskilt avseende neutrala inlägg. Efter det att rådet uppmärksammat Meta på överklagandet upphävde företaget sitt ursprungliga beslut och återställde inlägget.
Beskrivning av och bakgrund till ärendet
Kort efter terrorattackerna mot Israel den 7 oktober 2023 publicerade en journalist en text på Facebook om sina minnen från när har gjorde en intervju med Abd al-Aziz ar-Rantissi. Han var en av grundarna av Hamas som är en organisation som definierats som farlig på nivå 1 enligt Metas policy om farliga individer och organisationer. I inlägget beskrivs journalistens resa till Gaza, hans möte med Hamas-medlemmar och lokalbefolkningen, samt upplevelsen av att möta och intervjua ar-Rantissi. Inlägget innehåller fyra fotografier, bland annat på ar-Rantissi, intervjuaren och maskerade Hamas-män.
I sitt överklagande till rådet förtydligade användaren att avsikten med inlägget var att informera allmänheten om hans erfarenheter i Gaza och om intervjun med en av Hamas grundare.
Meta tog bort inlägget från Facebook med hänvisning till sin policy om farliga individer och organisationer, enligt vilken de tar bort visst innehåll om individer och organisationer som Meta definierat som farliga. Enligt policyn får användare emellertid dela innehåll som omfattar referenser till organisationer och individer som har definierats som farliga i samband med den sociala och politiska debatten. Det gäller bland annat innehåll som rapporterar om, neutralt diskuterar eller fördömer farliga organisationer och individer eller deras aktiviteter.
Efter det att rådet uppmärksammat Meta på ärendet bedömde företaget att ”innehållet syftade till att öka kunskapen om situationen” och att det därmed inte bröt mot policyn om farliga individer och organisationer. Meta hänvisade till undantaget för sociala och politiska debatter i kontexten ”neutrala och informativa beskrivningar av farliga individer och organisationers handlingar och beteende”. Meta uppgav även att ”kontexten med sociala och politiska debatter uttryckligen nämns i innehållet så det finns ingen osäkerhet [avseende] användarens avsikt” i detta ärende.
Rådets behörighet och omfång
Rådet har behörighet att granska Metas beslut efter ett överklagande från den användare vars innehåll har tagits bort (artikel 2, avsnitt 1 i stadgan, artikel 3, avsnitt 1 i regelverket).
När Meta erkänner att de har gjort fel och upphäver sitt beslut i ett ärende som övervägs för granskning av rådet kan rådet välja ut ärendet för ett sammanfattande beslut (artikel 2, avsnitt 2.1.3 i regelverket). Rådet granskar det ursprungliga beslutet för att få bättre förståelse för processen för innehållsmoderering i syfte att minska felen och öka rättvisan för de som använder Facebook och Instagram.
Ärendets betydelse
Ärendet belyser den alltför strikta tillämpningen av Metas policy om farliga individer och organisationer, särskilt när det gäller nyhetsrapportering om enheter som företaget definierar som farliga. Detta är ett återkommande problem, som har varit särskilt aktuellt under konflikten mellan Israel och Hamas i vilken den ena parten är en organisation som definieras som farlig. Rådet har utfärdat flera rekommendationer avseende undantaget för nyhetsrapportering i policyn om farliga organisationer och individer. Fel i tillämpningen av detta viktiga undantag kan medföra betydande inskränkningar av användarnas yttrandefrihet och allmänhetens tillgång till information och hämma den offentliga debatten.
I ett tidigare beslut rekommenderade rådet att Meta ”lägger till kriterier och illustrativa exempel i Metas policy om farliga individer och organisationer som ger ökad förståelse för de undantag som görs för neutrala diskussioner och nyhetsrapportering”, (rekommendation 1 i ärendet Delat Al Jazeera-inlägg). Meta har visat att rekommendationen har implementerats genom att publicera information. I en uppdatering av policyn om farliga individer och organisationer som gjordes den 29 december 2023 justerade Meta sina förklaringar och använder numera begreppet ”glorifiering” istället för ”hyllning” i sin communityregel.
Dessutom har rådet rekommenderat Meta att ”utvärdera andelen korrekta bedömningar gjorda av granskare som verkställer tillståndet för rapportering enligt regeln om farliga individer och organisationer för att identifiera systemfel som orsakar verkställighetsfel” (rekommendation 5 i ärendet Omnämnande av Talibanerna i nyhetsrapportering). Meta meddelade att företaget implementerar rekommendationen, men har inte publicerat information som visar på denna implementation.
När det gäller automatiserad moderering har rådet rekommenderat att Meta implementerar en intern granskningsprocess för att löpande analysera ett statistiskt representativt urval automatiska borttagningsbeslut i syfte att upphäva dem och lära sig av misstagen (rekommendation 5 i ärendet Bröstcancersymtom och nakenhet,). Meta har meddelat att rekommendationen implementerats.
Rådet anser att om dessa rekommendationer implementeras till fullo kan det leda till färre verkställighetsfel med hänvisning till Metas policy om farliga individer och organisationer.
Beslut
Rådet upphäver Metas ursprungliga beslut att ta bort innehållet. Rådet framhåller att Meta korrigerade sitt misstag när rådet uppmärksammat Meta på ärendet.
Retour aux décisions de cas et aux avis consultatifs politiques