Student Assistant in the Field of LLM Security

Fraunhofer-Gesellschaft – Darmstadt

Kurzbeschreibung der Position

Entwicklung von Methoden zur Verbesserung der Sicherheit von LLMs. Ein Schwerpunkt liegt auf der Verteidigung gegen gängige Angriffe wie Backdoor-Angriffe und zugehörige Jailbreaks.

Hauptaufgaben

  • Systematische Bewertung der Robustheit von LLMs gegen etablierte und neuartige Angriffsszenarien, in Bezug auf gängige und neuartige Angriffe wie Backdoor-Angriffe, Divergenzangriffe oder Membership-Inference-Angriffe usw.
  • Untersuchung, Anwendung und Bewertung von Post-hoc-Erklärbarkeitsmethoden zur Analyse des Modellverhaltens, mit dem Ziel, ein tieferes Verständnis der zugrunde liegenden Angriffsmechanismen sowie der Wirksamkeit und Grenzen entsprechender Verteidigungsstrategien zu erlangen.

Qualifikationen und Fähigkeiten

  • Sehr gute Python-Kenntnisse, die im Vorstellungsgespräch getestet werden.
  • Grundlegendes Verständnis von KI/ML hauptsächlich in Bezug auf Transformer.
  • Erfahrung mit Pytorch und Transformer-Architekturen ist wünschenswert.
  • Gute Englischkenntnisse.
  • Immatrikulierter Student (Informatik, Data Science, Mathematik oder ähnliches).
  • Strukturierte, selbstständige Arbeitsweise und Teamfähigkeit.
  • Starkes analytisches Denkvermögen.

Arbeitsort / Rahmenbedingungen

  • Flexible Arbeitszeiten, die sich leicht mit dem Studium vereinbaren lassen.
  • Inspirierende Arbeitsumgebung mit modernster Infrastruktur.
  • Die Möglichkeit, praktische Erfahrungen zu sammeln und wertvolle Kontakte in der Forschung zu knüpfen.
  • Möglichkeit zur Mitarbeit an wissenschaftlichen Arbeiten und Anfertigung einer späteren Bachelor- oder Masterarbeit.
  • Position kann remote oder hybrid sein.
  • Die monatliche Arbeitszeit beträgt etwa 40 Stunden, je nach Vereinbarung.