De regering Biden is klaar om een nieuw front te openen in haar poging om Amerikaanse AI te beschermen tegen China met voorlopige plannen om vangrails te plaatsen rond de meest geavanceerde AI-modellen, de kernsoftware van kunstmatige intelligentiesystemen zoals ChatGPT, aldus bronnen.

Het ministerie van Handel overweegt een nieuwe regelgevende stap om de export van propriëtaire of closed source AI-modellen te beperken, waarvan de software en de gegevens waarop het getraind is geheim worden gehouden, aldus drie mensen die bekend zijn met de zaak.

Elke actie zou een aanvulling zijn op een reeks maatregelen die de afgelopen twee jaar zijn genomen om de export van geavanceerde AI-chips naar China te blokkeren in een poging om Pekings ontwikkeling van deze geavanceerde technologie voor militaire doeleinden af te remmen. Toch zal het voor de toezichthouders moeilijk zijn om gelijke tred te houden met de snelle ontwikkelingen in de sector.

Het ministerie van Handel gaf geen commentaar. De Chinese ambassade in Washington reageerde niet onmiddellijk op een verzoek om commentaar.

Op dit moment weerhoudt niets Amerikaanse AI-giganten zoals OpenAI, het door Microsoft gesteunde Alphabet DeepMind en rivaal Anthropic, die enkele van de krachtigste closed source AI-modellen hebben ontwikkeld, ervan om deze zonder overheidstoezicht aan bijna iedereen ter wereld te verkopen.

Onderzoekers uit de overheid en de privésector maken zich zorgen dat Amerikaanse tegenstanders de modellen, die enorme hoeveelheden tekst en afbeeldingen verzamelen om informatie samen te vatten en inhoud te genereren, zouden kunnen gebruiken om agressieve cyberaanvallen uit te voeren of zelfs krachtige biologische wapens te maken.

Om een exportcontrole op AI-modellen te ontwikkelen, zouden de VS zich volgens de bronnen kunnen wenden tot een drempelwaarde die is opgenomen in een uitvoerende order voor AI die afgelopen oktober is uitgevaardigd en die gebaseerd is op de hoeveelheid rekenkracht die nodig is om een model te trainen. Wanneer dat niveau bereikt is, moet een ontwikkelaar zijn plannen voor de ontwikkeling van AI-modellen en testresultaten aan het Ministerie van Handel melden.

Deze rekenkrachtdrempel zou de basis kunnen worden om te bepalen welke AI-modellen onder exportbeperkingen zouden vallen, volgens twee Amerikaanse functionarissen en een andere bron die op de hoogte is van de besprekingen. Ze wilden niet bij naam genoemd worden omdat de details niet openbaar zijn gemaakt.

Als het gebruikt zou worden, zou het waarschijnlijk alleen de export beperken van modellen die nog uitgebracht moeten worden, aangezien er nog geen enkele de drempel bereikt zou hebben, hoewel Google's Gemini Ultra volgens EpochAI, een onderzoeksinstituut dat AI-trends volgt, dicht in de buurt zou komen.

Het agentschap is nog ver verwijderd van de afronding van een regelvoorstel, benadrukten de bronnen. Maar het feit dat zo'n stap wordt overwogen, laat zien dat de Amerikaanse overheid gaten probeert te dichten in haar poging om de AI-ambities van Beijing te dwarsbomen, ondanks de serieuze uitdagingen om een streng regelgevend regime op te leggen aan de zich snel ontwikkelende technologie.

Terwijl de regering Biden de concurrentie met China en de gevaren van geavanceerde AI onder de loep neemt, zijn AI-modellen "duidelijk een van de hulpmiddelen, een van de potentiële blokkades waar je over na moet denken", aldus Peter Harrell, een voormalig ambtenaar bij de Nationale Veiligheidsraad. "Of je er in de praktijk een uitvoerbaar chokepunt van kunt maken, valt nog te bezien," voegde hij eraan toe.

BIOWAPENS EN CYBERAANVALLEN?

De Amerikaanse inlichtingendiensten, denktanks en academici maken zich steeds meer zorgen over de risico's van buitenlandse slechte actoren die toegang krijgen tot geavanceerde AI-capaciteiten. Onderzoekers van Gryphon Scientific en Rand Corporation merkten op dat geavanceerde AI-modellen informatie kunnen verschaffen die kan helpen bij het maken van biologische wapens.

Het Department of Homeland Security (Ministerie van Binnenlandse Veiligheid) zei in zijn dreigingsanalyse voor 2024 dat cyberactoren AI waarschijnlijk zouden gebruiken om "nieuwe tools te ontwikkelen" om "grootschaligere, snellere, efficiëntere en meer ontwijkende cyberaanvallen" mogelijk te maken.

Nieuwe exportregels zouden ook gericht kunnen zijn op andere landen, aldus een van de bronnen.

"De potentiële explosie voor het gebruik en de exploitatie van [AI] is radicaal en we hebben het eigenlijk heel moeilijk om dat te volgen," zei Brian Holmes, een ambtenaar bij het Office of the Director of National Intelligence, tijdens een bijeenkomst over exportcontrole in maart, waarbij hij de vooruitgang van China als een bijzonder punt van zorg bestempelde.

AI CRACKDOWN

Om deze zorgen weg te nemen, heeft de VS maatregelen genomen om de stroom van Amerikaanse AI-chips en de hulpmiddelen om ze te maken naar China tegen te houden.

Er is ook een regel voorgesteld om Amerikaanse cloudbedrijven te verplichten de overheid te vertellen wanneer buitenlandse klanten hun diensten gebruiken om krachtige AI-modellen te trainen die gebruikt kunnen worden voor cyberaanvallen.

Maar tot nu toe zijn de AI-modellen zelf nog niet aan bod gekomen. Alan Estevez, die toezicht houdt op het exportbeleid van de VS bij het ministerie van Handel, zei in december dat het agentschap opties aan het bekijken was voor het reguleren van de export van open source grote taalmodellen (LLM) voordat er feedback uit de industrie werd gevraagd.

Tim Fist, een AI-beleidsdeskundige bij de denktank CNAS in Washington DC, zegt dat de drempel "een goede tijdelijke maatregel is totdat we betere methoden ontwikkelen om de mogelijkheden en risico's van nieuwe modellen te meten".

De drempel is niet in steen gebeiteld. Een van de bronnen zei dat Commerce misschien een lagere ondergrens vaststelt, in combinatie met andere factoren, zoals het type gegevens of het potentiële gebruik van het AI-model, zoals de mogelijkheid om eiwitten te ontwerpen die gebruikt kunnen worden om een biologisch wapen te maken.

Ongeacht de drempel zal de export van AI-modellen moeilijk te controleren zijn. Veel modellen zijn open source, wat betekent dat ze buiten het bereik blijven van de exportcontroles die nu worden overwogen.

Zelfs het opleggen van controles op de meer geavanceerde propriëtaire modellen zal een uitdaging blijken te zijn, omdat regelgevers waarschijnlijk moeite zullen hebben om de juiste criteria te definiëren om te bepalen welke modellen überhaupt gecontroleerd moeten worden, aldus Fist, die opmerkte dat China waarschijnlijk slechts ongeveer twee jaar achterloopt op de Verenigde Staten bij de ontwikkeling van zijn eigen AI-software.