Studentische Hilfskraft im Bereich LLM Security

Fraunhofer-Gesellschaft – Darmstadt

Kurzbeschreibung der Position

Entwicklung von Verfahren, um die Sicherheit von LLMs zu steigern, mit Fokus auf die Abwehr von Angriffen wie Backdoorattacks und Jailbreaks.

Hauptaufgaben

  • Systematische Evaluation der Robustheit von LLMs gegenüber Angriffsszenarien wie Backdoorattacks, Divergence Attacks oder Membership Inference Attacks.
  • Untersuchung, Anwendung und Bewertung von Post-hoc-Explainability-Verfahren zur Analyse des Modellverhaltens, um ein tiefergehendes Verständnis der Angriffsmechanismen und der Wirksamkeit von Verteidigungsstrategien zu erlangen.

Qualifikationen und Fähigkeiten

  • Sehr gute Python-Kenntnisse (werden im Interview geprüft).
  • Grundlegendes Verständnis von KI/ML, hauptsächlich im Bezug auf Transformer.
  • Erfahrung mit Pytorch und Transformerarchitekturen ist wünschenswert.
  • Gute Englischkenntnisse.
  • Eingeschriebene/r Student/in (Informatik, Data Science, Mathematik o. ä.).
  • Strukturierte, eigenständige Arbeitsweise und Teamfähigkeit.
  • Ausgeprägtes analytisches Denken.

Arbeitsort / Rahmenbedingungen

  • Flexible Arbeitszeiten, die sich gut mit dem Studium vereinbaren lassen.
  • Inspirierende Arbeitsumgebung mit modernster Infrastruktur.
  • Möglichkeit, praktische Erfahrung zu sammeln und Kontakte in der Forschung zu knüpfen.
  • Möglichkeit an wissenschaftlichen Papern mitzuarbeiten und eine Bachelor- oder Masterarbeit anzufertigen.
  • Remote oder Hybrid möglich.
  • Monatliche Arbeitszeit: ca. 40 Stunden, je nach Absprache.