Student Assistant in the Field of LLM Security
Fraunhofer-Gesellschaft – Darmstadt
Kurzbeschreibung der Position
Entwicklung von Methoden zur Verbesserung der Sicherheit von LLMs. Ein Schwerpunkt liegt auf der Verteidigung gegen gängige Angriffe wie Backdoor-Angriffe und zugehörige Jailbreaks.
Hauptaufgaben
- Systematische Bewertung der Robustheit von LLMs gegen etablierte und neuartige Angriffsszenarien, in Bezug auf gängige und neuartige Angriffe wie Backdoor-Angriffe, Divergenzangriffe oder Membership-Inference-Angriffe usw.
- Untersuchung, Anwendung und Bewertung von Post-hoc-Erklärbarkeitsmethoden zur Analyse des Modellverhaltens, mit dem Ziel, ein tieferes Verständnis der zugrunde liegenden Angriffsmechanismen sowie der Wirksamkeit und Grenzen entsprechender Verteidigungsstrategien zu erlangen.
Qualifikationen und Fähigkeiten
- Sehr gute Python-Kenntnisse, die im Vorstellungsgespräch getestet werden.
- Grundlegendes Verständnis von KI/ML hauptsächlich in Bezug auf Transformer.
- Erfahrung mit Pytorch und Transformer-Architekturen ist wünschenswert.
- Gute Englischkenntnisse.
- Immatrikulierter Student (Informatik, Data Science, Mathematik oder ähnliches).
- Strukturierte, selbstständige Arbeitsweise und Teamfähigkeit.
- Starkes analytisches Denkvermögen.
Arbeitsort / Rahmenbedingungen
- Flexible Arbeitszeiten, die sich leicht mit dem Studium vereinbaren lassen.
- Inspirierende Arbeitsumgebung mit modernster Infrastruktur.
- Die Möglichkeit, praktische Erfahrungen zu sammeln und wertvolle Kontakte in der Forschung zu knüpfen.
- Möglichkeit zur Mitarbeit an wissenschaftlichen Arbeiten und Anfertigung einer späteren Bachelor- oder Masterarbeit.
- Position kann remote oder hybrid sein.
- Die monatliche Arbeitszeit beträgt etwa 40 Stunden, je nach Vereinbarung.