Beleidsmakers en wetgevers van de Europese Unie hebben vrijdag overeenstemming bereikt over 's werelds eerste uitgebreide reeks regels voor het gebruik van kunstmatige intelligentie (AI) in hulpmiddelen zoals ChatGPT en biometrische surveillance.

In de komende weken zullen ze details uitwerken die de definitieve wetgeving, die naar verwachting begin volgend jaar van kracht wordt en in 2026 van kracht wordt, kunnen veranderen.

Tot die tijd worden bedrijven aangemoedigd om een vrijwillig AI-pact te ondertekenen om de belangrijkste verplichtingen van de regels te implementeren.

Hier zijn de belangrijkste punten die zijn overeengekomen:

SYSTEMEN MET EEN HOOG RISICO

Zogenaamde AI-systemen met een hoog risico - systemen die geacht worden een aanzienlijk risico te vormen voor de gezondheid, de veiligheid, de grondrechten, het milieu, de democratie, de verkiezingen en de rechtsstaat - zullen aan een aantal eisen moeten voldoen, zoals het ondergaan van een beoordeling van de gevolgen voor de grondrechten en verplichtingen om toegang te krijgen tot de EU-markt.

AI-systemen die geacht worden beperkte risico's met zich mee te brengen, zouden onderworpen worden aan zeer lichte transparantieverplichtingen, zoals openbaarmakingslabels die aangeven dat de inhoud door AI is gegenereerd, zodat gebruikers kunnen beslissen hoe ze deze inhoud willen gebruiken.

GEBRUIK VAN AI BIJ WETSHANDHAVING

Het gebruik van realtime biometrische identificatiesystemen op afstand in openbare ruimtes door wetshandhavers zal alleen worden toegestaan om slachtoffers van ontvoering, mensenhandel, seksuele uitbuiting te helpen identificeren en om een specifieke en aanwezige terroristische dreiging te voorkomen.

Ze zullen ook worden toegestaan bij inspanningen om mensen op te sporen die verdacht worden van terroristische misdrijven, mensenhandel, seksuele uitbuiting, moord, ontvoering, verkrachting, gewapende overval, deelname aan een criminele organisatie en milieucriminaliteit.

AI-SYSTEMEN VOOR ALGEMENE DOELEINDEN (GPAI) EN STICHTINGSMODELLEN

Voor GPAI- en foundationmodellen zullen transparantievereisten gelden, zoals het opstellen van technische documentatie, het naleven van de EU-wetgeving inzake auteursrecht en het verspreiden van gedetailleerde samenvattingen over de inhoud die gebruikt wordt voor algoritmetraining.

Stichtingsmodellen die zijn geclassificeerd als een systeemrisico en GPAI met een grote impact moeten modelevaluaties uitvoeren, risico's beoordelen en beperken, tegenstanderstests uitvoeren, rapporteren over ernstige incidenten aan de Europese Commissie, zorgen voor cyberbeveiliging en rapporteren over hun energie-efficiëntie.

Totdat er geharmoniseerde EU-normen zijn gepubliceerd, kunnen GPAI's met systeemrisico's vertrouwen op praktijkcodes om aan de verordening te voldoen.

VERBODEN AI

De regelgeving verbiedt het volgende:

- Biometrische categoriseringssystemen die gebruik maken van gevoelige kenmerken zoals politieke, religieuze, filosofische overtuigingen, seksuele geaardheid, ras.

- Ongericht schrapen van gezichtsfoto's van het internet of CCTV-beelden om gezichtsherkenningsdatabases te creëren;

- Emotieherkenning op het werk en in onderwijsinstellingen.

- Sociaal scoren op basis van sociaal gedrag of persoonlijke kenmerken.

- AI-systemen die menselijk gedrag manipuleren om hun vrije wil te omzeilen.

- AI die gebruikt wordt om de kwetsbaarheid van mensen uit te buiten vanwege hun leeftijd, handicap, sociale of economische situatie.

SANCTIES VOOR SCHENDINGEN

Afhankelijk van de overtreding en de grootte van het betrokken bedrijf, beginnen de boetes vanaf 7,5 miljoen euro ($8 miljoen) of 1,5% van de wereldwijde jaaromzet, oplopend tot maximaal 35 miljoen euro of 7% van de wereldwijde omzet.

($1 = 0,9293 euro) (Verslaggeving door Foo Yun Chee Redactie door Helen Popper)