Meta Platforms zal in de komende maanden beginnen met het detecteren en labelen van afbeeldingen die door kunstmatige intelligentie-diensten van andere bedrijven zijn gegenereerd, met behulp van een set onzichtbare markeringen die in de bestanden zijn ingebouwd, aldus de hoogste beleidsmedewerker op dinsdag.

Meta zal de labels toepassen op alle inhoud met de markers die op zijn Facebook-, Instagram- en Threads-services wordt geplaatst, in een poging om gebruikers duidelijk te maken dat de afbeeldingen - die in veel gevallen op echte foto's lijken - in werkelijkheid digitale creaties zijn, schreef Nick Clegg, president global affairs van het bedrijf, in een blogpost.

Het bedrijf labelt al inhoud die met zijn eigen AI-tools is gegenereerd.

Zodra het nieuwe systeem werkt, zal Meta hetzelfde doen voor afbeeldingen die gemaakt zijn op diensten van OpenAI, Microsoft, Adobe, Midjourney, Shutterstock en Alphabet's Google, aldus Clegg.

De aankondiging biedt een eerste blik op een opkomend systeem van standaarden die technologiebedrijven aan het ontwikkelen zijn om de potentiële schade te beperken die geassocieerd wordt met generatieve AI-technologieën, die valse maar realistisch lijkende inhoud kunnen uitspugen als reactie op eenvoudige aanwijzingen.

De aanpak bouwt voort op een sjabloon dat in de afgelopen tien jaar door een aantal van dezelfde bedrijven is ontwikkeld om de verwijdering van verboden inhoud op verschillende platforms te coördineren, waaronder afbeeldingen van massaal geweld en uitbuiting van kinderen.

In een interview vertelde Clegg aan Reuters dat hij er vertrouwen in had dat de bedrijven de door AI gegenereerde afbeeldingen op dit moment betrouwbaar konden labelen, maar hij zei dat hulpmiddelen om audio- en videocontent te markeren gecompliceerder waren en nog werden ontwikkeld.

"Ook al is de technologie nog niet volledig uitgerijpt, vooral als het gaat om audio en video, toch is het te hopen dat we een momentum kunnen creëren en de rest van de industrie kunnen stimuleren om te volgen," zei Clegg.

In de tussentijd, voegde hij eraan toe, zou Meta beginnen met mensen te verplichten hun eigen gewijzigde audio- en video-inhoud te labelen en zou boetes opleggen als ze dat niet deden. Clegg gaf geen beschrijving van de boetes.

Hij voegde eraan toe dat er momenteel geen werkbaar mechanisme is om geschreven tekst te labelen die door AI-tools zoals ChatGPT wordt gegenereerd.

"Dat is niet meer van deze tijd," zei Clegg.

Een woordvoerder van Meta weigerde te zeggen of het bedrijf labels zou toepassen op generatieve AI-inhoud die wordt gedeeld op zijn gecodeerde berichtendienst WhatsApp.

De onafhankelijke toezichtsraad van Meta heeft maandag het beleid van het bedrijf inzake misleidende bewerkte video's afgekeurd en gezegd dat het te beperkt was en dat de inhoud gelabeld zou moeten worden in plaats van verwijderd.

Clegg zei dat hij het in grote lijnen eens was met deze kritiek.

Het bestuur had gelijk, zei hij, dat het bestaande beleid van Meta "gewoon niet geschikt is voor het doel in een omgeving waar je veel meer synthetische inhoud en hybride inhoud zult hebben dan voorheen."

Hij noemde het nieuwe labelpartnerschap als bewijs dat Meta al in de richting ging die het bestuur had voorgesteld. (Verslaggeving door Katie Paul in New York; Bewerking door Matthew Lewis en Jamie Freed)