In een interview deze week zei Sami Khoury, hoofd van het Canadese centrum voor cyberveiligheid, dat zijn agentschap had gezien dat AI werd gebruikt "in phishingmails, of het meer gericht opstellen van e-mails, in kwaadaardige code (en) in desinformatie en desinformatie".

Khoury gaf geen details of bewijs, maar zijn bewering dat cybercriminelen AI al gebruiken, voegt een dringende noot toe aan het koor van bezorgdheid over het gebruik van de opkomende technologie door malafide actoren.

In de afgelopen maanden hebben verschillende cyberwaakhonden rapporten gepubliceerd waarin wordt gewaarschuwd voor de hypothetische risico's van AI - met name de snel ontwikkelende taalverwerkingsprogramma's die bekend staan als grote taalmodellen (LLM's), die enorme hoeveelheden tekst gebruiken om overtuigend klinkende dialogen, documenten en meer te maken.

In maart publiceerde de Europese politieorganisatie Europol een rapport waarin stond dat modellen zoals OpenAI's ChatGPT het mogelijk hadden gemaakt "om zich op een zeer realistische manier voor te doen als een organisatie of individu, zelfs met slechts een basiskennis van de Engelse taal". Dezelfde maand zei het Britse National Cyber Security Centre in een blogbericht dat er een risico bestond dat criminelen "LLM's zouden kunnen gebruiken om te helpen bij cyberaanvallen die verder gaan dan hun huidige mogelijkheden."

Onderzoekers op het gebied van cyberbeveiliging hebben verschillende potentieel schadelijke gebruikssituaties aangetoond en sommigen zeggen nu dat ze vermoedelijk door AI gegenereerde inhoud in het wild beginnen te zien. Vorige week zei een voormalige hacker dat hij een LLM had ontdekt die getraind was op kwaadaardig materiaal en vroeg om een overtuigende poging op te stellen om iemand te verleiden tot een geldoverboeking.

De LLM reageerde met een e-mail van drie alinea's waarin het doelwit om hulp werd gevraagd met een dringende factuur.

"Ik begrijp dat dit misschien kort dag is," zei de LLM, "maar deze betaling is ongelooflijk belangrijk en moet in de komende 24 uur worden gedaan."

Khoury zei dat terwijl het gebruik van AI om kwaadaardige code op te stellen nog in de beginfase was - "er is nog een weg te gaan omdat er veel voor nodig is om een goede exploit te schrijven" - de zorg was dat AI-modellen zich zo snel ontwikkelden dat het moeilijk was om vat te krijgen op hun kwaadaardige potentieel voordat ze in het wild werden losgelaten.

"Wie weet wat er om de hoek komt kijken," zei hij.