De regering Biden is klaar om een nieuw front te openen in haar poging om Amerikaanse AI te beschermen tegen China en Rusland met voorlopige plannen om vangrails te plaatsen rond de meest geavanceerde AI-modellen, meldde Reuters op woensdag.

Onderzoekers uit de overheid en de privésector maken zich zorgen dat Amerikaanse tegenstanders de modellen, die enorme hoeveelheden tekst en afbeeldingen verzamelen om informatie samen te vatten en inhoud te genereren, zouden kunnen gebruiken om agressieve cyberaanvallen uit te voeren of zelfs krachtige biologische wapens te maken.

Hier zijn enkele bedreigingen van AI:

DEEPFAKES EN DESINFORMATIE

Deepfakes - realistische maar verzonnen video's die gemaakt zijn door AI-algoritmes die getraind zijn op overvloedig online beeldmateriaal - duiken op in sociale media, waardoor feit en fictie in de gepolariseerde wereld van de Amerikaanse politiek vervagen.

Dergelijke synthetische media bestaan al een paar jaar, maar het afgelopen jaar is er een enorme vlucht genomen door een hele reeks nieuwe "generatieve AI" tools zoals Midjourney, waarmee het goedkoop en gemakkelijk is om overtuigende deepfakes te maken.

Tools voor het maken van afbeeldingen, aangedreven door kunstmatige intelligentie van bedrijven zoals OpenAI en Microsoft, kunnen worden gebruikt om foto's te maken die verkiezings- of stemgerelateerde desinformatie kunnen promoten, ondanks het feit dat ze allemaal beleidsregels hebben tegen het maken van misleidende inhoud, zeiden onderzoekers in een rapport in maart.

Sommige desinformatiecampagnes maken simpelweg gebruik van het vermogen van AI om echte nieuwsartikelen na te bootsen als middel om valse informatie te verspreiden. Hoewel grote sociale mediaplatforms zoals Facebook, Twitter en YouTube zich hebben ingespannen om deepfakes te verbieden en te verwijderen, varieert hun effectiviteit bij het controleren van dergelijke inhoud. Vorig jaar bijvoorbeeld verspreidde een door de Chinese overheid gecontroleerde nieuwssite met behulp van een generatief AI-platform een eerder verspreide valse bewering dat de Verenigde Staten in Kazachstan een laboratorium runde om biologische wapens te maken voor gebruik tegen China, aldus het Department of Homeland Security (DHS) in zijn dreigingsanalyse voor het thuisland van 2024.

Nationaal Veiligheidsadviseur Jake Sullivan zei woensdag op een AI-evenement in Washington dat het probleem geen gemakkelijke oplossingen heeft, omdat het de capaciteit van AI combineert met "de intentie van statelijke en niet-statelijke actoren om desinformatie op grote schaal te gebruiken, om democratieën te ontwrichten, om propaganda te verspreiden, om de perceptie in de wereld te vormen".

"Op dit moment verslaat de aanval de verdediging ruimschoots," zei hij.

BIOWEAPONS

De Amerikaanse inlichtingendiensten, denktanks en academici maken zich steeds meer zorgen over de risico's van buitenlandse slechte actoren die toegang krijgen tot geavanceerde AI-mogelijkheden. Onderzoekers van Gryphon Scientific en Rand Corporation merkten op dat geavanceerde AI-modellen informatie kunnen verschaffen die kan helpen bij het maken van biologische wapens.

Gryphon bestudeerde hoe grote taalmodellen (LLM) - computerprogramma's die uit enorme hoeveelheden tekst putten om antwoorden op zoekopdrachten te genereren - door vijandige actoren gebruikt zouden kunnen worden om schade aan te richten in het domein van de biowetenschappen en ontdekte dat ze "informatie kunnen verschaffen die een kwaadwillende actor kan helpen bij het creëren van een biologisch wapen door nuttige, nauwkeurige en gedetailleerde informatie te verschaffen bij elke stap in dit traject".

Ze ontdekten bijvoorbeeld dat een LLM kennis op postdoctoraal niveau kan leveren om problemen op te lossen bij het werken met een virus dat geschikt is voor een pandemie.

Rand onderzoek toonde aan dat LLM's zouden kunnen helpen bij de planning en uitvoering van een biologische aanval. Ze ontdekten dat een LLM bijvoorbeeld aerosol toedieningsmethoden voor botulinetoxine zou kunnen voorstellen.

CYBERWEAPONS

Het DHS zei in zijn dreigingsanalyse voor het thuisland van 2024 dat cyberactoren AI waarschijnlijk zouden gebruiken om "nieuwe tools te ontwikkelen" om "grootschaligere, snellere, efficiëntere en meer ontwijkende cyberaanvallen" op kritieke infrastructuur, waaronder pijpleidingen en spoorwegen, mogelijk te maken.

China en andere tegenstanders ontwikkelen AI-technologieën die de Amerikaanse cyberverdediging kunnen ondermijnen, aldus het DHS, waaronder generatieve AI-programma's die malware-aanvallen ondersteunen.

Microsoft zei in een rapport van februari dat het hackinggroepen had opgespoord die gelieerd waren aan de Chinese en Noord-Koreaanse regering, evenals aan de Russische militaire inlichtingendienst en de Revolutionaire Garde van Iran, terwijl ze probeerden hun hackingcampagnes te perfectioneren met behulp van grote taalmodellen.

Het bedrijf kondigde de vondst aan toen het een algemeen verbod uitrolde op het gebruik van AI-producten door staatsgesteunde hackersgroepen.

NIEUWE INSPANNINGEN OM BEDREIGINGEN AAN TE PAKKEN

Een tweepartijdige groep wetgevers onthulde eind woensdag een wetsvoorstel dat het voor de regering Biden makkelijker zou maken om exportcontroles op te leggen aan AI-modellen, in een poging om de gewaardeerde Amerikaanse technologie te beschermen tegen buitenlandse slechteriken.

Het wetsvoorstel, gesponsord door de Republikeinen in het Huis Michael McCaul en John Molenaar en de Democraten Raja Krishnamoorthi en Susan Wild, zou het Ministerie van Handel ook de uitdrukkelijke bevoegdheid geven om Amerikanen te verbieden samen te werken met buitenlanders om AI-systemen te ontwikkelen die een risico vormen voor de Amerikaanse nationale veiligheid.

Tony Samp, een AI-beleidsadviseur bij DLA Piper in Washington, zei dat beleidsmakers in Washington proberen om "innovatie te stimuleren en te voorkomen dat strenge regelgeving innovatie in de kiem smoort", terwijl ze de vele risico's van de technologie proberen aan te pakken.

Maar hij waarschuwde dat "het hardhandig aanpakken van AI-ontwikkeling door middel van regelgeving potentiële doorbraken op gebieden als het ontdekken van medicijnen, infrastructuur, nationale veiligheid en andere zou kunnen belemmeren, en terrein zou kunnen prijsgeven aan concurrenten overzee. (Verslaggeving door Alexandra Alper; Bewerking door Anna Driver en Stephen Coates)