In zwei Blog-Beiträgen, die am Mittwoch veröffentlicht werden sollen, erklärt das britische National Cyber Security Centre (NCSC), dass Experten die potenziellen Sicherheitsprobleme im Zusammenhang mit Algorithmen, die menschlich klingende Interaktionen generieren können - sogenannte Large Language Models (LLMs) - noch nicht in den Griff bekommen haben.

Die KI-gestützten Tools werden bereits als Chatbots eingesetzt, die nicht nur die Internetsuche, sondern auch den Kundendienst und Verkaufsgespräche ersetzen sollen.

Die NCSC sagte, dass dies Risiken bergen könnte, insbesondere wenn solche Modelle in die Geschäftsprozesse anderer Unternehmen integriert werden. Akademiker und Forscher haben wiederholt Wege gefunden, Chatbots zu unterwandern, indem sie sie mit falschen Befehlen füttern oder sie dazu bringen, ihre eigenen eingebauten Schutzmechanismen zu umgehen.

Ein von einer Bank eingesetzter KI-gesteuerter Chatbot könnte beispielsweise dazu verleitet werden, eine nicht autorisierte Transaktion durchzuführen, wenn ein Hacker seine Anfrage richtig strukturiert.

"Organisationen, die Dienste entwickeln, die LLMs verwenden, müssen genauso vorsichtig sein, wie sie es sein würden, wenn sie ein Produkt oder eine Code-Bibliothek verwenden würden, die sich in der Beta-Phase befinden", so der NCSC in einem seiner Blog-Beiträge und bezieht sich dabei auf experimentelle Software-Versionen.

"Sie würden nicht zulassen, dass dieses Produkt im Namen des Kunden Transaktionen durchführt, und würden ihm hoffentlich nicht völlig vertrauen. Ähnliche Vorsicht sollte für LLMs gelten.

Behörden auf der ganzen Welt haben mit dem Aufkommen von LLMs wie ChatGPT von OpenAI zu kämpfen, die von Unternehmen in eine breite Palette von Dienstleistungen, einschließlich Verkauf und Kundenbetreuung, integriert werden. Auch die Auswirkungen von KI auf die Sicherheit rücken immer noch in den Fokus. So berichten Behörden in den USA und Kanada, dass Hacker die Technologie für sich entdeckt haben.