Masterprüfung mit Defensio, David Reichert

18.06.2025 10:00 - 11:30

Universität Wien

Besprechungsraum 4.34

Währinger Str. 29

1090 Wien

18.06.2025, 10:00 Uhr

Universität Wien
Besprechungsraum 4.34
Währinger Str. 29
1090 Wien

Titel: Leveraging Large Language Models for Automated Spear
Phishing Attacks

Kurzfassung:
Generative KI und insbesondere Large Language Models (LLMs) haben in kürzester Zeit Einzug in eine
Vielzahl von Lebensbereichen und Anwendungsgebieten gehalten. Eine unbestreitbare Stärke der
Modelle ist die Imitation menschlicher Kommunikation. Diese Fähigkeit macht die Modelle auch für
Angreifer attraktiv, da sie mithilfe der Modelle die Kommunikation mit potenziellen Opfern
automatisieren könnten. Die vorliegende Arbeit untersucht, wie LLMs zur vollständigen
Automatisierung von gezielten Spear-Phishing-Angriffen eingesetzt werden können, wodurch der
zeitliche und finanzielle Aufwand solcher Angriffe erheblich reduziert werden könnte. Zentrales Ziel ist
es, die Integrationsmöglichkeiten von LLMs in automatisierte Phishing-Systeme zu untersuchen, die
Qualität der generierten Phishing-E-Mails zu bewerten und die Kosten solcher Angriffe zu analysieren.
Um den aktuellen Stand der Forschung zu ermitteln, wurde zunächst eine systematische
Literaturrecherche durchgeführt. Basierend auf der Design Science Forschungsmethodik erfolgte
anschließend die Modellierung und Implementierung eines automatisierten Phishing-Angriffssystems.
Dessen Evaluierung erfolgte sowohl experimentell als auch mittels Expertenevaluierung. Die
Ergebnisse zeigten, dass sowohl cloudbasierte als auch lokal betriebene LLMs problemlos in Phishing-
Angriffssysteme integriert werden können, ohne dass spezielle Jailbreaking-Techniken notwendig sind.
Der Phishing Attack Lifecycle kann mit Hilfe von LLMs nahezu vollständig automatisiert werden. Die
sprachliche Qualität der generierten E-Mails wurde als nahezu perfekt bewertet, während die inhaltliche
Qualität und Überzeugungskraft lediglich als durchschnittlich eingestuft wurden. Auffällig ist, dass das
von Menschen verfasste Referenzmaterial nahezu identische Bewertungen erhielt wie die vom LLM
generierten E-Mails. Die Ergebnisse verdeutlichen das zunehmende Gefahrenpotenzial, das sich aus den
dualen Einsatzmöglichkeiten von generativer KI ergibt. Vor diesem Hintergrund erscheint es sinnvoll,
dass sich Sicherheitsforscher und Experten mit der Erforschung und Entwicklung von
Gegenmaßnahmen auseinandersetzen, um einen effektiven Schutz gegen LLM-basierte
Angriffssysteme entwickeln zu können. Darüber hinaus wäre es empfehlenswert, wenn Anbieter von
LLMs bessere Sicherheitsmechanismen implementieren, um die Verwendung der Modelle für
schädliche Zwecke effektiver verhindern zu können.

Organiser:

SPL 5

Location:

Besprechungsraum 4.34

Währinger Straße 29
1090 Wien