Chatbots und LLM tragen dazu bei, dass Betrugsversuche immer raffinierter werden. Die Technik verbessert nicht nur alte Tricks, sondern ermöglicht auch neue, originelle Betrügereien, die immer weniger technische Kenntnisse voraussetzen. Das eröffnet Cyberkriminellen ganz neue Möglichkeiten und führt zu einem Boom auf dem Markt für generative KI.
Cyberkriminelle erweitern ihr Portfolio um Large Language Models (LLMs) und Deepfake-Technologien, erhöhen ihre Produktionskapazitäten und erweitern ihre Reichweite. Auf kriminellen Telegram-Marktplätzen werden neue Chatbots beworben, die ähnlich wie ChatGPT ungefilterte Antworten auf alle Arten von bösartigen Fragen geben. Denn kommerzielle LLMs wie Gemini oder ChatGPT sind so programmiert, dass sie die Beantwortung von böswilligen oder unethischen Anfragen verweigern. Zum anderen meiden Kriminelle bekannte Dienste wie ChatGPT, da sie durch regulierte Tools befürchten, aufgespürt zu werden. Mit Jailbreak-as-a-Service-Frontends können Nutzer böswillige Fragen in spezielle Eingabeaufforderungen verpacken, wodurch der ethische Codex der KI-Tools umgangen wird. Denn sie zielen darauf ab, ein kommerzielles LLM dazu zu bringen, eine ungefilterte Antwort zu geben.
Alte kriminelle LLMs neu aufgelegt
Darüber hinaus verfügen kriminelle LLM-Angebote über unbegrenzte Fähigkeiten. Diese Chatbots garantieren Vertraulichkeit und Anonymität und werden speziell mit bösartigen Daten trainiert - vom Quellcode über Methoden und Techniken bis hin zu kriminellen Strategien. Auch alte LLMs, die eigentlich eingestellt wurden, tauchen wieder auf:
- WormGPT wurde im August 2023 öffentlich eingestellt. Trotzdem verkaufen Cyberkriminelle derzeit drei Varianten. Dabei sind die Unterschiede zwischen diesen unklar, wie auch die Gewissheit, ob es sich um neue Versionen des alten Projekts handelt oder um eine völlig neue, die den Namen nur aus Gründen der Bekanntheit beibehielt.
- DarkBERT ist ein Chatbot, der Teil eines umfangreichen Angebots eines Bedrohungsakteurs mit dem Benutzernamen CanadianKingpin12 ist. Er galt als Scam, da der Chatbot zusammen mit vier anderen kriminellen LLMs mit sehr ähnlichen Fähigkeiten verkauft wurde. Alle vier Dienste wurden einmalig in einem einzigen Posting für eine Woche beworben. Dies sollte jedoch nicht verwechselt werden mit dem legalen Projekt DarkBERT. Dabei handelt es sich um ein LLM, das von einem Cybersicherheitsunternehmen auf Dark-Web-Posts trainiert wurde. Denn während andere, ähnlich aufgebaute Sprachmodelle mit der Vielfalt der Sprache des Dark Web zu kämpfen haben, wurde DarkBERT speziell dafür trainiert, eben diese illegalen Inhalte des Dark Web zu verstehen. Damit unterstützt das LLM die Überwachung oder Interpretation von Dark Web-Inhalten.
Interessanterweise werden die aktuellen Versionen von DarkBERT und WormGPT beide als App mit einer Option für ein „Siri Kit“ angeboten. Damit wird suggeriert, dass es sich um eine sprachgesteuerte Variante handelt, die für die Interaktion mit KI-Bots entwickelt wurde. Sollte sich dies tatsächlich bewahrheiten, würden Kriminelle zum ersten Mal die Innovation von Unternehmen überholen. Denn die Fähigkeiten dieser Varianten decken sich dann mit den Ankündigungen eines iPhone-Updates auf der Apple Worldwide Developers Conference (WWDC) 2024. Andere kriminelle LLMs wie DarkGemini und TorGPT verwenden Namen, die mit bestehenden Technologien in Verbindung gebracht werden. Ihre Funktionalität unterscheidet sich jedoch nicht allzu sehr von der anderer krimineller Angebote, mit Ausnahme ihrer Fähigkeit, Bilder zu verarbeiten. TorGPT wirbt beispielsweise neben dem regulären LLM-Dienst auch mit einem Bildgenerierungsdienst.
Nicht nur Prominente Ziel von Deepfakes
Die Suche nach einer effizienteren Automatisierung zur Erstellung glaubwürdiger Deepfakes und Videos nimmt rasch zu. Derartige Technologien sind zwar nicht neu, werden aber für Kriminelle auch ohne tiefere technische Kenntnisse immer leichter zugänglich. Während früher vor allem Prominente in kompromittierenden Bildern oder Videos mittels Deepfakes dargestellt wurden, kann heute jede Person zur Zielscheibe werden - auch Minderjährige. Das FBI hat eine Warnung vor den Risiken von Deepfakes für Sextortion und Erpressung veröffentlicht. Deepfake 3D Pro und seine Avatargenerierungsfunktion können verwendet werden, um die Verifizierungssysteme von Finanzinstituten zu umgehen und Kriminellen mit gestohlenen Ausweisen Zugang zu Konten zu verschaffen. In Kombination mit einem Stimmenklon-Dienst kann die Anwendung zur Erstellung von skriptbasierten Video-Phishing-Kampagnen verwendet werden. Sowohl SwapFace als auch Avatar AI VideoCallSpoofer bieten die Möglichkeit, Videoanrufe in Echtzeit zu fälschen. So wurde im Februar 2024 ein Finanzangestellter durch eine mit KI-Deepfake-Technologie vorgetäuschte Onlinekonferenz dazu gebracht, 25 Millionen Dollar an die Betrüger zu überweisen.
Zusammenfassung
Während Chatbots und LLMs zur Verfeinerung von Scams beitragen, scheinen Video-Deepfakes verheerende Auswirkungen auf neue und kreative Social-Engineering-Tricks zu haben. Diese Technologien verbessern nicht nur alte Tricks, sondern ermöglichen auch neue, originelle Betrugsmethoden, die in den kommenden Monaten zweifellos von mehr Cyberkriminellen genutzt werden. Da Cyberkriminelle generative KI missbrauchen, um eine falsche Realität vorzutäuschen und so Vertrauen zu erschleichen, sollten Nutzerinnen und Nutzer Informationen, insbesondere in einer Online-Umgebung, sorgfältig bewerten und überprüfen. Mit speziellen Tools, die gezielt nach Anzeichen für Deepfakes suchen, können sich Nutzer vor Betrügern schützen.