Künstliche Intelligenz Was ist echt, und was ist fake? Eine Frage, die sich immer öfter in der Metropolregion Rhein-Neckar stellt. Ob Konzern oder KMU – kein Unternehmen ist sicher vor KI-Manipulationen. Doch unser Autor zeigt erste Lösungswege auf.

Hallo Papa, das ist meine neue Handy-Nummer, bitte ruf mich mal zurück, es ist etwas passiert!“ Solche Nachrichten haben in den letzten Monaten viele von uns bekommen. Entweder verbunden mit einem Link, auf den Papa klicken soll, oder er wird tatsächlich angerufen, mit einer nahezu perfekt geklonten Stimme der angeblichen Kinder. Das Resultat ist jedoch immer dasselbe: Es geht um Geld, von ein paar Hundert bis zu Hunderttausend Euro, die bezahlt werden sollen, um irgendeinen Unfall oder Strafe zu regeln. Nichts davon ist echt und die Schwämme solcher betrügerischen Nachrichten hat einen Grund: KI. Chatbots wie ChatGPT generieren die Textnachrichten, Voice Cloning-Modelle wie Eleven Labs die Stimmen und fertig ist der „Deepfake“, wie solche KI-generierten falschen Abbilder im Fachjargon heißen.
Ganze Call-Center, in denen Billigarbeiter auch mit KI-Tools Betrugsnachrichten in die Welt schicken, gibt es mittlerweile. Jüngst hoben europäische Sicherheitsbehörden auf dem Balkan ein solches aus, und auch in Indien haben sie zum Beispiel Hochkonjunktur. „Kaum eine Familie in Indien – und wir reden hier von mehreren Hundert Millionen – hat noch keine solche Nachricht bekommen. Vor allem Trickbetrug mit KI-Stimmen ist an der Tagesordnung“, erklärt Sagar Vishnoi, KI-Experte aus Neu-Delhi.
KI-gepowerte „nigerianische Prinzen“
Und was am Telefon geht, geht im Video-Call sowieso. Das zeigt eine Gruppe professioneller Krimineller, die sich damit rühmen, die Betrugsmasche mit dem „nigerianischen Prinzen“, der ein angebliches Millionengeschäft anbietet, erfunden zu haben. Die Gruppe, die sich selbst „Yahoo-Boys“ nennt, hat nun auch KI für sich entdeckt. Wie, das zeigen sie ganz offen in ihrem Telegram-Kanal: Sie bahnen den Kontakt zu Opfern per Dating-Website an, zumeist in Nordamerika oder Europa. Dann laden sie zu einer Video-Konferenz ein, in der sie Deepfake-Software über ihr Gesicht und Stimme legen, und bitten um die Überweisung kleiner Summen für Flugtickets oder Konzertkarten.
Was bei Alltagsbetrügereien die Stimme und das Gesicht der Lieben, ist im Unternehmensumfeld der „CEO-Fraud“. Hier kopieren hochprofessionelle Angreifer die Stimme und das Bild des Geschäftsführers, um Buchhaltung und Finanzabteilungen zu außerplanmäßigen Zahlungen zu veranlassen. So geschehen im Januar 2024 in Hongkong. Die Beute: satte 25 Millionen Dollar, die der Buchhalter des Ingenieur- und Designunternehmens Arup nach täuschend echt klingenden Emails und Video-Calls mit seinem angeblichen CEO überwies. „Solche Angriffe beobachten wir zuhauf“, sagt ein hochrangiger Mitarbeiter der Informationssicherheit eines DAX-Konzerns aus der Rhein-Neckar-Region, der lieber anonym bleiben möchte. KI-generierte Phishing-Mails und Deepfake-Anrufe haben in den letzten Monaten extrem zugenommen, um Zahlungen freizugeben oder Mitarbeiter auf infizierte Links klicken zu lassen.

Mit Deepfakes gegen den guten Ruf
Doch mit KI geht noch viel mehr: Nie war es leichter als heute, gezielte und echt wirkende Image- und Reputationsangriffe gegen Unternehmen zu fahren. „Mithilfe von KI-Programmen werden zum Beispiel Bilder und Dokumente generiert, die den Ruf unseres Unternehmens angreifen sollen. Zum Beispiel wurden angebliche ‚Beweise‘ über Soziale Medien verbreitet, dass wir gegen die Russland-Sanktionen verstoßen hätten,“ sagt derselbe Mitarbeiter aus der Rhein-Neckar-Region. Solche Image- und Reputationsangriffe können Marken, Unternehmen, aber vor allem auch Einzelpersonen treffen. In den USA sahen sich zum Beispiel Schulrektoren vermehrt Deepfake-Angriffen ausgesetzt, in denen sie angeblich rassistische Aussagen getätigt hätten. Dahinter steckten jedoch unzufriedene Schüler oder Lehrer. Auch solchem „Cybermobbing“ verleihen Deepfakes eine ganz neue Qualität. Ist das Opfer weiblich, geht es zumeist um sogenannte „Deep Porn“ oder „Revenge Porn“, bei dem die Gesichter der Opfer in pornographische Videos geschnitten wird. Das Gros aller Video-Deepfakes weltweit sind solche Rache-Videos und gezielte Diskreditierungen.

Vorgetäuschte Cyber-Angriffe dank KI
Und das ist noch lange nicht das Ende der Fahnenstange. So gut sind KI-generierte Fakes schon heute, dass Angriffe täuschend echt vorgetäuscht werden können. Die Masche dabei ist: Ein Angreifer schickt eine Nachricht, er sei in das IT-System der Firma eingedrungen und habe wertvolle Daten erbeutet oder verschlüsselt. Dann folgt die Lösegeldforderung, der mithilfe von KI-Generatoren erstellte „Beweise“ beigefügt sind. „Auch solche Fälle hatten wir schon. Das Ärgerliche dabei: Es folgen stunden- und tagelange Überprüfungen, ob tatsächlich ein Angriff stattgefunden hat. Aufwand und Schaden hat man also so oder so“, erklärt der Informationssicherheitsmitarbeiter aus der Rhein-Neckar-Region.
Was also sind die konkreten Bedrohungen von Deepfakes und KI für Unternehmen? Es gibt Betrugsangriffe, Cyberspionage, Phishing, Social Engineering, (fake) Ransom-Attacken, Identitätsschwindel bis hin zu Cybermobbing und Reputationsangriffen. KI macht Cyberangriffe, Betrug- und Imageangriffe leichter, billiger, schneller, überzeugender, personalisierter und automatisierter. „Das, was früher noch Werkshallen voller Angreifer gemacht haben, macht mittlerweile ein Server“, erklärte Jonas Andrulis, CEO des Heidelberger KI-Riesen Aleph Alpha dem SWR. Das Gespräch fand im April bei der Cyber Security Conference der Heilbronner Schwarz-Gruppe statt.

Fehlendes Gefahrenbewusstsein
Trotzdem ist das Bewusstsein für solche Gefahren immer noch unterentwickelt: Einmal herrscht der Irrglaube vor, dass solche KI-Risiken erst dann relevant werden, wenn Organisationen selbst KI-Anwendungen aktiv benutzen. Für Deepfake-Betrug, KI-gepowertes Phishing und Social Engineering, Cybermobbing oder Imageangriffe ist das jedoch vollkommen irrelevant, sie können jeden treffen, jederzeit. Ein anderer Irrglaube ist, dass solche Angriffe nur die großen, multinationalen Konzerne beträfen. „Tatsächlich beobachten wir im letzten Jahr eine enorme Angriffswelle gegen KMUs“, sagt Joshua Roach, CEO von G&R Cybersecurity. „Und die Angriffe werden immer elaborierter, die Angreifer kundschaften zum Beispiel genau aus, wann ein CEO abwesend ist, und attackieren dann ausgesuchte Mitarbeiter mit Phishing-Attacken und Deepfake-Anrufen“, so Roach.
Statistiken bestätigen dieses Lagebild: Laut Cyber Security Report der Heilbronner Schwarz Gruppe entstanden 2023 in Deutschland Schäden durch Cyberattacken in Höhe von 206 Milliarden Euro. Tendenz steigend. Alleine die BASF sieht sich weltweit rund 1,9 Milliarden Attacken und monatlich vier Millionen schadhafter Emails ausgesetzt, so teilte es Martin Schöpper mit, und zwar im Zuge des AI Mondays im Mannheimer MAFINEX Anfang Juni. Gerade bei den Schad-Mails war das eine Steigerung um fast 100 Prozent innerhalb eines Jahres.
Kann man Deepfakes und KI-Fälschungen überhaupt erkennen?
KI-Generatoren werden immer realistischer. KI-Bilder, -Text oder -Videos von menschengemachten Inhalten zu unterscheiden, wird immer schwerer. Ob das tatsächlich eines Tages gar unmöglich wird, ist noch keine ausgemachte Sache; wohl aber stimmt, dass Erkennungsprogramme bislang viel zu fehlerhaft sind. Wer also nicht genau hinschaut, kann leicht getäuscht werden. Doch das kann man üben. Ein von diesem Autor erstellter Leitfaden bietet dazu ein solides Gerüst aus vier Säulen: Als erstes die optische Überprüfung, bei der es über 10 Anhaltspunkte gibt (zum Beispiel Arme, Beine und Finger, Halspartie, Schrift, Schatten und Spiegelungen oder Fluchtpunkte). Als zweites sollte eine technische Überprüfung auf Metadaten und eine Bildrückwärtssuche stattfinden. Außerdem sind mindestens zwei verschiedene Erkennungssoftwares simultan zu nutzen. Anschließend sollte ein inhaltlicher Check erfolgen (Konsistenz der Aussagen, Veränderungen in Stil und Duktus), bevor eine Kontext-Analyse die Überprüfung abrundet (Wo tauchte die Datei als erstes auf? Wer verbreitet sie? Absichten, Ziele und Schadenspotential?).

Was tun gegen Deepfakes und KI-Angriffe?
KI verleiht Flügel, das gilt für die schmutzige Welt von Deepfakes, Phishing, Rufmordattacken und Cyberangriffen leider genauso wie für ihre positiven Anwendungen. Dafür gibt es zwar kein einfaches Allheilmittel, aber trotzdem sind wir nicht wehrlos. Um sich vor KI-Bedrohungen zu schützen, braucht es ein klares Konzept und ganzheitliche Abwehrstrategien, wie Marvin Steves, Cybersecurity-Experte von KPMG im Interview erklärt. Der erste und wichtigste Schritt zur Abwehr beginnt beim Gefahrenbewusstsein: Von der C-Suite bis hin zu Mitarbeitern muss erst einmal auf die Risiken, Mechanismen und neuen Bedrohungen aufmerksam gemacht werden. Cybersecurity-Software wie KI-unterstützte Spam-Filter, Deepfake-Erkennungssoftware oder Bild-Scrambler sind ein anderer wichtiger Bestandteil; sie sind jedoch wirkungslos, wenn kein Sicherheitsbewusstsein vorhanden ist, keine Sicherheits- und Krisenprotokolle etabliert sind und Strategien nicht an das KI-Zeitalter angepasst werden.
Dazu müssen Mensch und Technik zusammen gedacht werden, und Aufklärung, Sensibilisierung und Schulungen haben oberste Priorität. Regelmäßige Risikotests (die gleichfalls KI-unterstützt werden können) und Krisenübungen gehören ebenso zum Repertoire einer Abwehrstrategie wie proaktive Cybersicherheit, Social Listening und strategische Kommunikation. Gegenmaßnahmen lassen sich also, wie der Autor in seinem Deepfake Detection and Response Framework herausgearbeitet hat, in proaktive, ad-hoc und reaktive Maßnahmen unterteilen. Trainings und Sensibilisierung sind dabei die Basis, auf der klare Aktions- und Verhaltensprotokolle (Incident Management und Incident Response) aufbauen, um anschließend von Nachsorge und Aufarbeitung abgeschlossen zu werden. Das Zusammenwachsen von KI und Cybersecurity und eine ganzheitliche Sicherheitsstrategie bieten also den besten Schutz vor KI-Enkeltricks, nigerianischen Prinzen, Deepfake-CEOs und KI-gepowertem Phishing.


Der Autor

Dr. Christopher Nehring lebt in Mannheim, Analyst, Autor, Speaker & Consultant für KI und Cybersecurity, Experte für KI- und Desinformation der Konrad-Adenauer-Stiftung; Entwickler des
Deepfake Detection and Response Framework. Für Vorträge, Schulungen, Workshops und Beratung erreichbar unter consulting-cn@proton.me und über LinkedIn.