De raad, die door het bedrijf is opgericht om kritiek op zijn aanpak van problematisch materiaal te pareren, neemt bindende beslissingen over een klein aantal uitdagende gevallen van moderatie van inhoud en geeft niet-bindende beleidsaanbevelingen.

Meta is door wetgevers en regelgevers onder de loep genomen in verband met de veiligheid van de gebruikers en de manier waarop het bedrijf omgaat met misbruiken op zijn platforms in de hele wereld, vooral nadat klokkenluider Frances Haugen interne documenten had laten uitlekken waaruit bleek hoe het bedrijf worstelt met het controleren van inhoud in landen waar de kans het grootst is dat dergelijke meningsuiting schade berokkent, waaronder Ethiopië.

Duizenden zijn omgekomen en miljoenen ontheemd geraakt tijdens een jarenlang conflict tussen de Ethiopische regering en opstandige krachten uit de noordelijke regio Tigray.

De socialemediagigant zei dat hij "aanzienlijke middelen in Ethiopië heeft geïnvesteerd om potentieel schadelijke inhoud te identificeren en te verwijderen," als onderdeel van zijn reactie op de aanbevelingen van de raad van toezicht van december over een zaak met betrekking tot in het land geposte inhoud.

De toezichtsraad bevestigde vorige maand het oorspronkelijke besluit van Meta om een bericht te verwijderen waarin de betrokkenheid van etnische Tigrayaanse burgers bij wreedheden in de Amhara-regio van Ethiopië werd beweerd. Aangezien Meta de post had hersteld na het beroep van de gebruiker bij de raad, moest het bedrijf de inhoud opnieuw verwijderen.

Op donderdag zei Meta dat het de post weliswaar had weggehaald, maar dat het het niet eens was met de redenering van het bestuur dat de post verwijderd had moeten worden omdat het een "ongeverifieerd gerucht" was dat het risico van dreigend geweld aanzienlijk vergrootte. Het zei dat dit "een journalistieke publicatienorm aan mensen zou opleggen."

Een woordvoerder van de toezichtsraad zei in een verklaring: "Het bestaande beleid van Meta verbiedt geruchten die bijdragen tot dreigend geweld en die niet binnen een zinvol tijdsbestek kunnen worden ontkracht, en de raad heeft aanbevelingen gedaan om ervoor te zorgen dat dit beleid in conflictsituaties effectief wordt toegepast."

"Geruchten waarin beweerd wordt dat een etnische groep medeplichtig is aan gruweldaden, zoals in dit geval is gebleken, kunnen leiden tot ernstige schade voor mensen," zeiden zij.

De raad van bestuur had aanbevolen dat Meta een due diligence-onderzoek naar de mensenrechten zou laten uitvoeren, dat binnen zes maanden voltooid zou moeten zijn, en dat een onderzoek zou moeten omvatten naar de taalcapaciteiten van Meta in Ethiopië en een onderzoek naar de maatregelen die genomen zijn om misbruik van haar diensten in het land te voorkomen.

Het bedrijf zei echter dat niet alle elementen van deze aanbeveling "haalbaar kunnen zijn in termen van timing, gegevenswetenschap of aanpak." Het zei dat het zijn bestaande due diligence op het gebied van de mensenrechten zou voortzetten en in de komende maanden een update zou moeten hebben over de vraag of het de aanbeveling van de raad van bestuur kan opvolgen.

In eerdere berichtgeving van Reuters over Myanmar https://www.reuters.com/investigates/special-report/myanmar-facebook-hate en andere landen https://www.reuters.com/article/us-facebook-india-content/facebook-a-megaphone-for-hate-against-indian-minorities-idUSKBN1X929F is onderzocht hoe Facebook moeite had om inhoud in verschillende talen over de hele wereld te controleren. In 2018 zeiden de mensenrechtenonderzoekers van de V.N. dat het gebruik van Facebook een sleutelrol had gespeeld bij de verspreiding van haatdragende taal die het geweld in Myanmar aanwakkerde.

Meta, dat heeft gezegd dat het te traag was om verkeerde informatie en haat in Myanmar te voorkomen, heeft gezegd dat het bedrijf nu wereldwijd moedertaalsprekers heeft die inhoud in meer dan 70 talen beoordelen en die werken aan het stoppen van misbruik op zijn platforms op plaatsen waar een verhoogd risico op conflicten en geweld bestaat.

Het bestuur heeft Meta ook aanbevolen zijn waardeverklaring over veiligheid te herschrijven om duidelijk te maken dat online meningsuiting een risico kan inhouden voor de fysieke veiligheid van personen en hun recht op leven. Het bedrijf zei dat het wijzigingen in deze waarde zou aanbrengen, in een gedeeltelijke uitvoering van de aanbeveling.