Deepfakes: künstliche Intelligenz begünstigt Cyberbetrug | igeeks AG
Deepfakes: künstliche Intelligenz begünstigt Cyberbetrug

Deepfakes: künstliche Intelligenz begünstigt Cyberbetrug

Cyberbetrug mithilfe von Deepfakes dürfte Security-Abteilungen von Unternehmen künftig vor Herausforderungen stellen. Das Missbrauchspotenzial der Technologie ist enorm, wobei künstliche Intelligenz Treiber der aktuellen Entwicklungen ist.

Wenn sich der Chef per E-Mail bei der Finanzabteilung meldet und die sofortige Überweisung grösserer Summen verlangt, ist in der Regel Vorsicht geboten. Denn nur allzu oft ist es Betrügern schon gelungen, Unternehmen mit dieser, unter dem Namen «CEO-Betrug» bekannten Masche, um erhebliche Summen zu erleichtern. Dies, obwohl ein kurzer Anruf beim angeblichen Absender der E-Mail genügen würde, um den Betrug aufzudecken.

Deutlich schwieriger zu entlarven sind betrügerische Anrufe oder Videos des angeblichen «CEO», in denen künstliche Intelligenz den Chef lebensecht imitiert. Entsprechend sind auch Beispiele für erfolgreichen CEO-Betrug mittels Audio-Deepfakes bereits Realität. Und nicht von ungefähr halten Experten laut einer aktuellen Studie des University College London derartige, mithilfe von künstlicher Intelligenz (KI) manipulierte Audio- und Video-Inhalte für die besorgniserregendste Nutzungsweise von KI-Technologie.

Deepfake on Demand

Nebst «einfachen» Betrugsmaschen, wie CEO-Betrug, sind durchaus auch Szenarien denkbar, in denen der Einsatz von KI-Deepfakes viel tiefgreifendere Konsequenzen hat. Ein Beispiel wäre die Bekanntgabe falscher Geschäftszahlen oder Prognosen durch ein Deepfake-Video eines CEO, mit dem Ziel, Börsenkurse zu beeinflussen oder gar einen Börsencrash herbeizuführen. Bereits eine Tatsache ist zudem der Einsatz von Deepfakes zu politischen Zwecken, z.B. zur Beeinflussung von Wahlen.

Ein Problem ist, dass die Werkzeuge, die es braucht, um Deepfakes zu generieren – ähnlich wie im Falle von Ransomware – immer einfacher verfügbar sind, sei es in der Form von Toolkits mit offenem Quellcode, Cloud-Diensten oder Desktop-Anwendungen. Auch einige Software-Unternehmen, wie Adobe oder Descript, haben leistungsstarke und bereits häufig genutzte Produkte im Angebot, mit denen sich Sprachmaterial einfach bearbeiten lässt. Zugleich investiert Adobe in Technologien, mit denen Nutzer gefälschte Audio-Aufnahmen erkennen können, da die Firma das hohe Schadenspotenzial offenbar erkannt hat.

Antiviren-Software schützt vor CEO-Betrug per Mail

KI-basierte Deepfakes stellen zweifellos ein hohes Risiko dar und es gilt, die entsprechenden Entwicklungen genau zu beobachten. Am meisten zu schaffen machen Sicherheitsverantwortlichen von Unternehmen jedoch weiterhin vor allem «traditionelle» Betrugsmaschen – wie der eingangs erwähnte CEO-Betrug per E-Mail. Ein effizientes Mittel im Kampf gegen derartigen Cyberbetrug sind Virenschutzprogramme, wie Bitdefender, die verdächtige E-Mails in den meisten Fällen erkennen und abfangen, bevor sie Schaden anrichten können.

Support