In een tweetal blogberichten die woensdag gepubliceerd zullen worden, zegt het Britse National Cyber Security Centre (NCSC) dat experts nog geen grip hebben op de potentiële veiligheidsproblemen die verbonden zijn aan algoritmen die menselijk klinkende interacties kunnen genereren - ook wel grote taalmodellen of LLM's genoemd.

De AI-hulpmiddelen worden al vroeg gebruikt als chatbots die volgens sommigen niet alleen zoekopdrachten op internet zullen vervangen, maar ook klantenservice en verkoopgesprekken.

Het NCSC zegt dat dit risico's met zich mee kan brengen, vooral als dergelijke modellen in de bedrijfsprocessen van andere organisaties worden geïntegreerd. Academici en onderzoekers hebben herhaaldelijk manieren gevonden om chatbots te ondermijnen door ze onbetrouwbare commando's te geven of ze te misleiden om hun eigen ingebouwde afschermingen te omzeilen.

Een AI-gestuurde chatbot van een bank zou bijvoorbeeld een ongeautoriseerde transactie kunnen uitvoeren als een hacker de zoekopdracht precies goed zou structureren.

"Organisaties die diensten bouwen die LLM's gebruiken, moeten voorzichtig zijn, op dezelfde manier als ze zouden zijn als ze een product of codebibliotheek in bèta zouden gebruiken," zei het NCSC in een van zijn blogberichten, verwijzend naar experimentele softwarereleases.

"Ze laten dat product misschien niet betrokken zijn bij het maken van transacties namens de klant, en zouden het hopelijk niet volledig vertrouwen. Een soortgelijke voorzichtigheid zou moeten gelden voor LLM's."

Autoriteiten over de hele wereld worstelen met de opkomst van LLM's, zoals OpenAI's ChatGPT, die bedrijven integreren in een groot aantal diensten, waaronder verkoop en klantenservice. De implicaties van AI voor de veiligheid komen ook nog steeds in beeld, met autoriteiten in de VS en Canada die zeggen dat ze hebben gezien dat hackers de technologie omarmen.