Phishing

Phishing & Co.: Der Schwarzmarkt für illegale KI-Tools wächst

Der Markt für illegale KI-Tools hat deutlich an Dynamik gewonnen. Phishing und andere Angriffe werden dadurch für technisch wenig versierte Akteure immer einfacher, wie aus einer aktuellen Studie hervorgeht.

Im Rahmen der Studie «AI Threat Tracker» der Google Threat Intelligence Group (GTIG) hat sich gezeigt, dass sich ein professioneller und hochgradig organisierter Schwarzmarkt entwickelt hat, worin spezialisierte KI-Dienste auf englisch- und russischsprachigen Cybercrime-Foren angeboten werden. Diese Tools senken die Einstiegshürden erheblich und ermöglichen es selbst unerfahrenen Angreifern, komplexe Operationen − wie beispielsweise ausgefeilte Phishing-Kampagnen − durchzuführen, so die Forscher.

Auffällig ist zudem, dass Anbieter illegaler KI-Systeme zunehmend Geschäftsmodelle etablierter Unternehmen übernehmen, etwa Freemium-Modelle oder Abonnements, was laut der Studie auf eine fortschreitende Industrialisierung des Cybercrime-Ökosystems hindeutet.

Für den „AI Threat Tracker“ wurden Prompts untersucht, die darauf abzielen, Googles KI-Dienst Gemini für böswillige Zwecke zu missbrauchen. Insbesondere staatlich geförderte Akteure aus Ländern wie Nordkorea, Iran und China nutzen Gemini inzwischen offenbar umfassend für alle Schritte ihrer Operationen.

Modifizierte LLM’s, „Just-in-Time“-KI und Social Engineering

Besonders weit verbreitet sind modifizierte Large Language Models (LLMs) wie FraudGPT und WormGPT. Diese Anwendungen zeichnen sich dadurch aus, dass ihnen die Sicherheitsmechanismen fehlen, die kommerzielle LLMs schützen sollen. WormGPT gilt als besonders leistungsfähig und wird für Phishing, das Erstellen schädlicher Software, Deepfakes und die Ausnutzung von Sicherheitslücken eingesetzt.

Immer wichtiger ist auch das Aufkommen sogenannter „Just-in-Time“-KI in Malware. Mit Promptflux und Promptsteal wurden erstmals derartige Schadprogramme identifiziert. Sie greifen während der Ausführung dynamisch auf grosse Sprachmodelle zu, um schädliche Skripte zu generieren oder ihren eigenen Code zu verschleiern. Dieser flexible und adaptive Einsatz von KI deute auf eine neue Generation autonomer Malware hin, die sich erst im Moment des Angriffs vollständig formt, so die Google-Experten.

Parallel dazu beobachten die Sicherheitsforscher einen zunehmenden Missbrauch von Social Engineering, um Schutzmechanismen von KI-Diensten zu umgehen. Angreifer geben sich etwa als Sicherheitsforschende oder Wettbewerbsteilnehmende aus, um normalerweise blockierte Antworten zu erhalten.

KI-Angriffe mit End-to-End-Security abwehren

Angesichts neuer KI-unterstützter Angriffsmethoden scheint sich die Bedrohungslage deutlich verschärft zu haben, wie die GTIG-Untersuchung zeigt. Wichtig ist deshalb ein solider Basisschutz, der Angreifer und Unregelmässigkeiten unabhängig von der verwendeten Angriffsmethode erkennt.

Eine bewährte End-to-End-Security-Lösung, wie etwa Bitdefender, schützt KMU und private Nutzende zuverlässig vor allen Formen Cyberkriminalität, indem sie verdächtige Aktivitäten erkennt und unschädlich macht – ohne die Notwendigkeit spezifischer Fachkenntnis in Bezug auf Cybersicherheit.