Mit der zunehmenden Raffinesse von KI-Technologien entstehen auch neue, komplexe Herausforderungen beim Schutz vor Social-Engineering-Angriffen. Dieser Blog untersucht die Probleme, die KI für die Cybersicherheit mit sich bringt, und insbesondere, wie sie die Art und Weise verändert, in der Kriminelle Social-Engineering-Angriffe durchführen.
Freund oder feind?
Die Fähigkeiten von KI zur Unterstützung von Cybersicherheitsmaßnahmen können kaum überschätzt werden. Von der Automatisierung der Bedrohungserkennung bis hin zur Analyse riesiger Datensätze auf verdächtige Aktivitäten – KI-Tools erweisen sich als unverzichtbare Verbündete. Gleichzeitig stattet sie jedoch auch Gegner mit Werkzeugen aus, um noch überzeugendere und gezieltere Social-Engineering-Kampagnen zu erstellen.
Der aufstieg der deepfakes
Die Deepfake-Technologie, angetrieben durch KI, ist ein Paradebeispiel für diese doppelte Natur. Deepfakes können extrem überzeugende Fake-Audios und -Videos erstellen und so Personen mit hoher Genauigkeit imitieren. Diese Technologie wird in Betrugsfällen, Desinformationskampagnen und zum Umgehen biometrischer Sicherheitsmaßnahmen eingesetzt und stellt eine erhebliche Bedrohung für Einzelpersonen und Organisationen dar.
Praxisbeispiel
Im Februar 2024 wurde bei einem KI-gestützten Betrug erstmals ein Finanzmitarbeiter eines multinationalen Unternehmens dazu gebracht, 25 Millionen Dollar an Betrüger zu überweisen. Die Angreifer nutzten Deepfake-Technologie, um sich in einer Videokonferenz als Finanzchef des Unternehmens auszugeben, und täuschten den Mitarbeiter, indem sie ihn zu einem virtuellen Meeting mit angeblichen Kolleg:innen einluden, die in Wirklichkeit Deepfake-Rekonstruktionen waren.
Der Mitarbeiter war zunächst misstrauisch, nachdem er eine Nachricht erhalten hatte, die angeblich vom britischen Finanzchef des Unternehmens stammte. Er vermutete ein Phishing-Mail, da es um eine geheime Transaktion ging. Doch nach der Videokonferenz legte er seine Zweifel beiseite, weil die anderen Teilnehmenden genau wie seine Kolleg:innen aussahen und klangen.
Auch in anderen Kontexten werden Deepfakes eingesetzt, um über soziale Medien Desinformation zu verbreiten. Im Krieg zwischen Russland und der Ukraine haben beide Seiten diese Technik für Propagandazwecke genutzt. Im März 2022 etwa verbreitete sich ein Video, in dem der ukrainische Präsident Wolodymyr Selenskyj angeblich zur Kapitulation aufrief; kurz darauf tauchte ein Video von Wladimir Putin auf, in dem er eine friedliche Übergabe ansprach. Trotz ihrer schlechten Auflösung verbreiteten sich diese Videos rasch und stifteten Verwirrung.
KI-gestützte Phishing-Angriffe
Phishing-Attacken, die traditionell auf menschliche Kreativität und Recherche angewiesen waren, werden heute durch KI verstärkt. Generative KI-Tools wie ChatGPT können personalisierte, überzeugende Nachrichten erstellen, die legitimen Mitteilungen vertrauenswürdiger Stellen ähneln. Diese KI-gestützten Phishing-Versuche erhöhen die Wahrscheinlichkeit, Empfänger zu täuschen, erheblich und unterlaufen die Wirksamkeit klassischer Sicherheitsschulungen.
deepfake-phishing
Deepfake-Phishing nutzt grundlegende Social-Engineering-Taktiken, um Benutzer zu täuschen, und umgeht konventionelle Sicherheitsmaßnahmen, indem es Vertrauen ausnutzt. Angreifer setzen Deepfakes in verschiedenen Phishing-Szenarien ein, zum Beispiel:
-
E-Mails oder Nachrichten: Das Risiko von Business-Email-Compromise-(BEC-)Attacken, die Unternehmen jährlich Milliarden kosten, steigt mit Deepfakes. Angreifer können glaubhaftere Identitäten erschaffen, etwa gefälschte Managerprofile auf LinkedIn, um Mitarbeitende in die Falle zu locken.
-
Videokonferenzen: Mithilfe von Deepfake-Technologie können Betrüger in Videokonferenzen überzeugend andere Personen imitieren, um Opfer zur Preisgabe sensibler Informationen oder zu unbefugten Finanztransaktionen zu bewegen. Ein bekannter Betrug betraf einen chinesischen Täter, der mithilfe von Face-Swapping-Technologie 622.000 Dollar ergaunerte.
-
Sprachnachrichten: Mit Technologie, die eine Stimme aus nur drei Sekunden Probe klonen kann, lassen sich täuschend echte Voicemails oder Echtzeitgespräche führen, wodurch es schwerfällt, echt und falsch zu unterscheiden.
warum deepfake-phishing beunruhigend ist
-
rasantes wachstum: Deepfake-Phishing stieg 2023 um 3.000 % an, angetrieben durch den Fortschritt und die Verfügbarkeit generativer KI.
-
hochgradig personalisierte angriffe: Deepfakes ermöglichen es Angreifern, ihre Maschen individuell zuzuschneiden und spezifische Schwachstellen von Personen oder Organisationen auszunutzen.
-
schwierige erkennung: KI kann Schreibstile nachahmen, Stimmen klonen und realistische Gesichter erzeugen – das erschwert die Erkennung solcher Angriffe erheblich.
Die herausforderungen
Die rapide zunehmende Raffinesse KI-gestützter Social-Engineering-Angriffe macht deren Erkennung immer schwieriger. Klassische Sicherheitsmaßnahmen und Schulungen sind darauf ausgelegt, Muster und Unstimmigkeiten menschlich gestalteter Betrugsversuche zu erkennen. KI jedoch lernt und passt sich an, verfeinert kontinuierlich ihr Vorgehen, reduziert erkennbare Anomalien und ahmt menschliches Verhalten immer besser nach.
Sich entwickelnde KI-algorithmen
KI-Algorithmen, insbesondere solche des maschinellen Lernens, entwickeln sich durch die Interaktion mit Daten weiter. Dieser kontinuierliche Lernprozess bedeutet, dass KI-gestützte Angriffe im Laufe der Zeit immer ausgefeilter und schwerer erkennbar werden. Sicherheitssysteme, die auf statischen Erkennungsmethoden beruhen, veralten schnell und müssen ständig aktualisiert und angepasst werden, um mit der Entwicklung der KI Schritt zu halten.
Der menschliche faktor
Im Kern von Social-Engineering-Angriffen steht die Ausnutzung menschlicher Psychologie. KI verstärkt diese Verwundbarkeit, indem sie es Angreifern ermöglicht, menschliches Verhalten in großem Maßstab zu analysieren und zu verstehen. So lassen sich hochgradig gezielte Angriffe gestalten, die spezifische Schwächen wie Autoritätsgläubigkeit, Dringlichkeit oder Angst ausnutzen und klassische Sicherheitsschulungen weniger wirksam machen.
Schulungs- und sensibilisierungsprobleme
Das Bewusstsein zu schärfen und Menschen zu schulen, damit sie KI-gestützten Social-Engineering-Angriffen widerstehen, ist schwieriger denn je. Die realistische Natur von Deepfakes und die Personalisierung von Phishing-E-Mails können den kritisch-skeptischen Blick aushebeln, den klassische Schulungen vermitteln. Das erfordert einen neuen Ansatz für Sicherheitsaufklärung, der der Raffinesse KI-gestützter Bedrohungen Rechnung trägt.
Ethische und regulatorische auswirkungen
Der Einsatz von KI in Social-Engineering-Angriffen wirft zudem komplexe ethische und regulatorische Fragen auf. Die Fähigkeit von KI, Personen zu imitieren und überzeugende Fake-Inhalte zu erzeugen, stellt bestehende Rechtsrahmen zu Einwilligung, Datenschutz und Meinungsfreiheit infrage. Es stellt sich auch die Frage, wie vorzugehen ist, wenn ein Mitarbeitender entweder per Deepfake kompromittiert wird oder auf einen solchen Angriff hereinfällt.
Die zukunft absichern
Die Abwehr KI-gestützter Social-Engineering-Angriffe erfordert einen vielschichtigen Ansatz, der technologische Lösungen mit menschlichem Urteilsvermögen verbindet. Der Einsatz fortschrittlicher KI- und Machine-Learning-Tools zur Erkennung und Reaktion auf Bedrohungen in Echtzeit ist entscheidend. Ebenso wichtig ist es, eine Kultur des Sicherheitsbewusstseins zu fördern, die Mitarbeitende befähigt, auch bei sehr überzeugenden Fälschungen zu hinterfragen und zu überprüfen.
Indem Organisationen diese Herausforderungen verstehen und einen proaktiven, KI-informierten Ansatz für Cybersicherheit verfolgen, können sie sich im Labyrinth digitaler Bedrohungen besser zurechtfinden. Wenn du dir wegen der in diesem Blog beschriebenen Cyberbedrohungen Sorgen machst, wende dich an die Expert:innen von Integrity360.