Studentische Hilfskraft im Bereich LLM Security
Fraunhofer-Gesellschaft – Darmstadt
Kurzbeschreibung der Position
Entwicklung von Verfahren, um die Sicherheit von LLMs zu steigern, mit Fokus auf die Abwehr von Angriffen wie Backdoorattacks und Jailbreaks.
Hauptaufgaben
- Systematische Evaluation der Robustheit von LLMs gegenüber Angriffsszenarien wie Backdoorattacks, Divergence Attacks oder Membership Inference Attacks.
- Untersuchung, Anwendung und Bewertung von Post-hoc-Explainability-Verfahren zur Analyse des Modellverhaltens, um ein tiefergehendes Verständnis der Angriffsmechanismen und der Wirksamkeit von Verteidigungsstrategien zu erlangen.
Qualifikationen und Fähigkeiten
- Sehr gute Python-Kenntnisse (werden im Interview geprüft).
- Grundlegendes Verständnis von KI/ML, hauptsächlich im Bezug auf Transformer.
- Erfahrung mit Pytorch und Transformerarchitekturen ist wünschenswert.
- Gute Englischkenntnisse.
- Eingeschriebene/r Student/in (Informatik, Data Science, Mathematik o. ä.).
- Strukturierte, eigenständige Arbeitsweise und Teamfähigkeit.
- Ausgeprägtes analytisches Denken.
Arbeitsort / Rahmenbedingungen
- Flexible Arbeitszeiten, die sich gut mit dem Studium vereinbaren lassen.
- Inspirierende Arbeitsumgebung mit modernster Infrastruktur.
- Möglichkeit, praktische Erfahrung zu sammeln und Kontakte in der Forschung zu knüpfen.
- Möglichkeit an wissenschaftlichen Papern mitzuarbeiten und eine Bachelor- oder Masterarbeit anzufertigen.
- Remote oder Hybrid möglich.
- Monatliche Arbeitszeit: ca. 40 Stunden, je nach Absprache.