Sociale mediaplatforms zoals Instagram van Meta, TikTok van ByteDance en Snap Inc.'s Snapchat vereisen dat gebruikers ten minste 13 jaar oud zijn. Deze beperkingen zijn bedoeld om de privacy en veiligheid van jonge kinderen te beschermen.

Vooruitlopend op de geplande Britse Online Safety Bill, bedoeld om gebruikers van sociale media te beschermen tegen schadelijke inhoud zoals kinderporno, vroeg Ofcom aan TikTok en Snapchat hoeveel verdachte jongeren onder de 13 jaar zij in een jaar tijd van hun platforms hadden geschopt.

Volgens de door Reuters ingeziene gegevens vertelde TikTok aan Ofcom dat het tussen april 2021 en april 2022 elke maand gemiddeld ongeveer 180.000 verdachte minderjarige accounts in Groot-Brittannië had geblokkeerd, of ongeveer 2 miljoen in die periode van 12 maanden.

In dezelfde periode onthulde Snapchat dat het ongeveer 60 accounts per maand had verwijderd, of iets meer dan 700 in totaal.

Een woordvoerder van Snap vertelde Reuters dat de cijfers een verkeerd beeld gaven van de omvang van het werk dat het bedrijf deed om minderjarigen van zijn platform te weren. De woordvoerder weigerde aanvullende context te geven of specifieke blokkeringsmaatregelen die het bedrijf heeft genomen te detailleren.

"Wij nemen deze verplichtingen serieus en elke maand blokkeren en verwijderen wij in het Verenigd Koninkrijk tienduizenden pogingen van minderjarige gebruikers om een Snapchat-account aan te maken", aldus de Snap-woordvoerder.

Uit recent onderzoek van Ofcom blijkt dat beide apps even populair zijn bij minderjarige gebruikers. In vergelijking met TikTok zijn kinderen ook eerder geneigd hun eigen privéaccount op Snapchat aan te maken dan dat van een ouder.

"Het is niet logisch dat Snapchat een fractie van het aantal kinderen blokkeert dat TikTok blokkeert", aldus een bron binnen Snapchat, die spreekt op voorwaarde van anonimiteit.

Snapchat blokkeert wel gebruikers die zich aanmelden met een geboortedatum die hen onder de 13 jaar plaatst. Reuters kon niet vaststellen welke protocollen er zijn om minderjarige gebruikers te verwijderen zodra zij toegang hebben gekregen tot het platform en de woordvoerder heeft deze niet nader toegelicht.

Ofcom vertelde Reuters dat het beoordelen van de stappen die platforms voor het delen van video's nemen om kinderen online te beschermen een belangrijk aandachtspunt blijft, en dat de toezichthouder, die onafhankelijk van de regering opereert, later dit jaar verslag zal uitbrengen over zijn bevindingen.

Momenteel zijn socialemediabedrijven verantwoordelijk voor het vaststellen van de leeftijdsgrenzen op hun platforms. Volgens de langverwachte wet inzake online veiligheid zullen zij echter wettelijk verplicht zijn deze grenzen te handhaven en aan te tonen hoe zij dat doen, bijvoorbeeld door middel van technologie voor leeftijdsverificatie.

Bedrijven die hun servicevoorwaarden niet naleven, riskeren een boete tot 10% van hun jaaromzet.

In 2022 bleek uit onderzoek van Ofcom dat 60% van de kinderen tussen acht en elf jaar minstens één socialemedia-account had, dat vaak was aangemaakt door een valse geboortedatum op te geven. De toezichthouder ontdekte ook dat Snapchat de populairste app was voor minderjarige sociale media-gebruikers.

RISICO'S VOOR JONGE KINDEREN

Sociale media vormen ernstige risico's voor jonge kinderen, zeggen voorstanders van kinderveiligheid.

Volgens recent gepubliceerde cijfers van de NSPCC (National Society for the Prevention of Cruelty to Young Children) was Snapchat goed voor 43% van de gevallen waarin sociale media werden gebruikt om onfatsoenlijke beelden van kinderen te verspreiden.

Richard Collard, associate head of child safety online bij de NSPCC, zei dat het "ongelooflijk alarmerend" was hoe weinig minderjarige gebruikers Snapchat leek te verwijderen.

Snapchat "moet veel strengere maatregelen nemen om ervoor te zorgen dat jonge kinderen het platform niet gebruiken en oudere kinderen worden beschermd tegen schade", zei hij.

Net als de Europese Unie en andere landen heeft Groot-Brittannië gezocht naar manieren om gebruikers van sociale media, met name kinderen, te beschermen tegen schadelijke inhoud zonder de vrijheid van meningsuiting aan te tasten.

Handhaving van leeftijdsbeperkingen zal naar verwachting een belangrijk onderdeel zijn van de Online Safety Bill, samen met de garantie dat bedrijven inhoud verwijderen die illegaal of verboden is volgens hun servicevoorwaarden.

Een woordvoerder van TikTok zei dat de cijfers de kracht weergeven van de inspanningen van het bedrijf om vermoedelijke minderjarige gebruikers te verwijderen.

"TikTok is strikt een 13+ platform en we hebben processen in werking om onze minimumleeftijdseisen te handhaven, zowel op het moment van aanmelden als door het voortdurend proactief verwijderen van verdachte minderjarige accounts van ons platform," zeiden ze.