De Verenigde Staten, Groot-Brittannië en meer dan een dozijn andere landen hebben zondag onthuld wat een hoge Amerikaanse functionaris omschreef als de eerste gedetailleerde internationale overeenkomst over hoe kunstmatige intelligentie veilig kan worden gehouden voor kwaadwillende actoren, waarbij bedrijven worden aangespoord om AI-systemen te maken die "secure by design" zijn.

In een document van 20 pagina's dat zondag werd onthuld, kwamen de 18 landen overeen dat bedrijven die AI ontwerpen en gebruiken, dit op een manier moeten ontwikkelen en inzetten die klanten en het grote publiek beschermen tegen misbruik.

De overeenkomst is niet-bindend en bevat voornamelijk algemene aanbevelingen zoals het controleren van AI-systemen op misbruik, het beschermen van gegevens tegen knoeien en het doorlichten van softwareleveranciers.

Toch zei de directeur van het Amerikaanse Cybersecurity and Infrastructure Security Agency, Jen Easterly, dat het belangrijk was dat zoveel landen hun naam verbinden aan het idee dat AI-systemen veiligheid voorop moeten stellen.

"Dit is de eerste keer dat we een bevestiging zien dat deze mogelijkheden niet alleen moeten gaan over coole functies en hoe snel we ze op de markt kunnen brengen of hoe we kunnen concurreren om de kosten te drukken," vertelde Easterly aan Reuters, en zei dat de richtlijnen "een overeenkomst vertegenwoordigen dat het belangrijkste dat in de ontwerpfase gedaan moet worden, veiligheid is."

De overeenkomst is de laatste in een reeks initiatieven - waarvan er maar weinig tanden hebben - van regeringen over de hele wereld om de ontwikkeling van AI vorm te geven, waarvan het gewicht steeds meer gevoeld wordt in de industrie en de maatschappij in het algemeen.

Naast de Verenigde Staten en Groot-Brittannië hebben 18 landen de nieuwe richtlijnen ondertekend, waaronder Duitsland, Italië, Tsjechië, Estland, Polen, Australië, Chili, Israël, Nigeria en Singapore.

Het raamwerk gaat in op de vraag hoe we kunnen voorkomen dat AI-technologie wordt gekaapt door hackers en bevat aanbevelingen zoals het pas vrijgeven van modellen na de juiste beveiligingstests.

Er wordt niet ingegaan op netelige kwesties zoals het juiste gebruik van AI of de manier waarop de gegevens die deze modellen voeden, worden verzameld.

De opkomst van AI heeft geleid tot een groot aantal zorgen, waaronder de angst dat het kan worden gebruikt om het democratische proces te verstoren, fraude te stimuleren of te leiden tot een dramatisch verlies van banen, naast andere schade.

Europa loopt voor op de Verenigde Staten wat betreft regelgeving rondom AI, met wetgevers daar die AI-regels opstellen. Frankrijk, Duitsland en Italië hebben onlangs ook een overeenkomst bereikt over hoe kunstmatige intelligentie gereguleerd moet worden die "verplichte zelfregulering door middel van gedragscodes" ondersteunt voor zogenaamde foundation modellen van AI, die ontworpen zijn om een breed scala aan outputs te produceren.

De regering Biden heeft bij wetgevers aangedrongen op AI-regulering, maar het gepolariseerde Amerikaanse Congres heeft weinig vooruitgang geboekt bij het aannemen van effectieve regelgeving.

Het Witte Huis probeerde in oktober met een nieuw uitvoerend bevel de risico's van AI voor consumenten, werknemers en minderheidsgroepen te beperken en tegelijkertijd de nationale veiligheid te versterken. (Verslaggeving door Raphael Satter en Diane Bartz; Bewerking door Alexandra Alper en Deepa Babington)