Unabhängiges Magazin für Wirtschaft und Bildung

12. Dezember 2024

Search form

Search form

Geschäftsmodell Cyber-Kriminalität mit KI-Services

Geschäftsmodell Cyber-Kriminalität mit KI-Services© Pexels.com/Rahul Pandit

Generative KI-Tools haben das Potenzial wirklich disruptive Cyberangriffe zu ermöglichen. Eine Analyse von Trend Micro zeigt neueste Entwicklungen und beleuchtet Bedrohungen der nahen Zukunft.

(red/czaak) Technologien im Bereich der Künstlichen Intelligenz (KI) gewinnen in der Wirtschaft rasch an Akzeptanz und das inkludiert auch die neuen generativen, sprachgesteuerten Anwendungen. Auch die Welt der Cyberkriminalität verwendet KI und hier gibt es zwar Versuche, eigene cyberkriminelle Large Language Models (LLMs) zu entwickeln, doch diese wurden weitgehend aufgegeben. Die Kriminellen setzen nun auf bestehende Modelle, die sie „jailbreaken“. Hier wird mit speziellen Tricks versucht die grundsätzlich ja integrierten Sicherheitsvorkehrungen zu umgehen, so aktuelle Analysen des Security-Dienstleisters Trend Micro.

KI-gestützte Cyber-Attacken als (kriminelle) Dienstleistung
Bei „Angeboten“ von Jailbreaking-as-a-Service nutzen Kriminelle raffinierte Techniken, um LLMs dazu zu bringen, Anfragen zu beantworten, die eigentlich blockiert werden sollten. Diese Techniken reichen von Rollenspielen über hypothetische Szenarien bis hin zur Nutzung fremder Sprachen. Dienstanbieter wie OpenAI oder Google arbeiten daran, diese Sicherheitslücken zu schließen. Cyberkriminelle Nutzer wiederum müssen deshalb auf raffiniertere Jailbreaking-Prompts zurückgreifen. So ist ein Markt für eine neue Klasse von kriminellen Diensten in Form von Chatbot-Angeboten für Jailbreaking entstanden.

„Cyberkriminelle haben KI schon lange vor dem jüngsten Hype um generative KI in der IT-Branche missbraucht. Trend Micro hat sich daher in kriminelle Untergrundforen begeben, um herauszufinden, wie Cyberkriminelle KI tatsächlich nutzen, um ihre Ziele zu erreichen und welche Art von KI-gestützten kriminellen Dienstleistungen angeboten werden. In diesen Untergrundgesprächen über KI zeigt sich, dass das Interesse an generativer KI den allgemeinen Markttrends gefolgt ist, die Akzeptanz jedoch hinterherzuhinken scheint“, sagt David Sancho, Researcher bei Trend Micro.
„Wir haben Geschäftsmodelle rund um diese KI-gestützten Fälschungen gesehen“

„Wir haben auch LLM-Angebote von Kriminellen für Kriminelle gesehen. Darunter FraudGPT, DarkBARD, DarkBERT und DarkGPT, die viele Ähnlichkeiten aufweisen. Aus diesem Grund vermuten wir, dass sie höchstwahrscheinlich als sogenannte Wrapper-Dienste für den legitimen ChatGPT oder Google BARD funktionieren. Wir nennen sie Jailbreaking-as-a-Service-Dienste“, so Sancho.

„Weiters haben wir auch andere möglicherweise gefälschte kriminelle LLM-Angebote untersucht: WolfGPT, XXXGPT und Evil-GPT. Dabei befassen wir uns auch mit Deepfake-Diensten für Kriminelle, wo wir Preise und einige frühe Geschäftsmodelle rund um diese KI-gestützten gefälschten Bilder und Videos gesehen haben“, ergänzt David Sancho, Senior Threat Researcher bei Trend Micro.

Deepfake-Services auf dem Vormarsch
Trend Micro äußert sich auch zum Thema Deepfakes. Diese gibt es zwar schon länger, aber erst kürzlich wurden echte cyberkriminelle Angebote entdeckt. Kriminelle bieten Deepfake-Dienste an, um Systeme zur Identitätsüberprüfung zu umgehen. Besonders im Finanzsektor wird dies zu einem zunehmenden Problem, da Banken und Kryptowährungsbörsen immer strengere Überprüfungen verlangen.

Die Erstellung von Deepfakes wird immer günstiger und einfacher. Cyberkriminelle nutzen diese Technologie, um gefälschte Bilder und Videos zu erstellen, die selbst fortgeschrittene Sicherheitssysteme täuschen können. Dabei reicht oft schon ein gestohlenes Ausweisdokument, um ein überzeugendes Fake-Bild zu erstellen.

Einschätzungen für die nahe Zukunft und drei grundlegende Regeln
Die Entwicklungen zeigen, dass Kriminelle immer neue Wege finden, KI-Technologien zu missbrauchen. Unternehmen und Privatpersonen müssen deshalb wachsam bleiben und ihre Cybersicherheitsmaßnahmen stetig verbessern, um gegen diese Bedrohungen gewappnet zu sein. Trend Micro hat drei grundlegende Regeln von cyberkriminellen Geschäftsmodellen ausgemacht, wenn diese Akteure in großem Stil auf GenAI setzen.

Ales Erstes wollen Kriminelle mit möglichst geringem Aufwand und niedrigem Risiko ein bestimmtes wirtschaftliches Ergebnis erreichen. Sie übernehmen neue Technologien nur, wenn die „Rendite“ höher ist als bei den bestehenden Methoden ist die zweite These. Und drittens gilt: Evolution statt Revolution. Kriminelle bevorzugen schrittweise Anpassungen, statt umfassender Überarbeitungen, um neue Risikofaktoren zu vermeiden.

Aktuell über 6 .700 Large Language Modelle nur auf einer KI-Plattform
Zusammenfassend gesagt, bleibt der Bedarf an sicheren, anonymen und nicht nachverfolgbaren Zugängen zu LLMs bestehen. Damit werden sich kriminelle Dienste immer wieder neue LLMs zunutze machen, die dann auch einfacher zu jailbreaken oder auf ihre speziellen Bedürfnisse zugeschnitten sind.

Derzeit gibt es allein auf der KI-Plattform Hugging Face über 6.700 verfügbare LLMs. Es werden aber immer mehr alte und neue kriminelle Tools GenAI-Funktionen integrieren. „Cyberkriminelle beginnen die tatsächlichen Möglichkeiten der generativen KI gerade erst zu entdecken“, so die finale Erkenntnis von Trend Micro.

Links

red/czaak, Economy Ausgabe Webartikel, 18.06.2024