Angriffe auf LLMs
Kaum eine Technologie hat in den letzten Jahren so tiefgreifende Veränderungen ausgelöst wie künstliche Intelligenz (KI). Ein Hauptgrund dafür ist der rasante Fortschritt im Bereich der großen Sprachmodelle (LLMs).
Dabei handelt es sich um KI-Systeme, die darauf trainiert sind, menschliche Sprache zu „verstehen“, zu verarbeiten und selbst zu erzeugen. Grundlage dafür ist die sogenannte Transformer-Architektur, ein neuronales Netzwerk, das enorme Mengen an Textdaten analysiert, um Muster, Bedeutungszusammenhänge und Sprachstrukturen zu erkennen. So können LLMs auf Basis statistischer Wahrscheinlichkeiten vorhersagen, welches Wort oder welcher Satz mit hoher Wahrscheinlichkeit als Nächstes folgt. Dies ermöglicht es ihnen, erstaunlich flüssige, kontextbezogene Texte erzeugen.
Ihre außergewöhnliche Leistungsfähigkeit ergibt sich aus einer Kombination von umfangreichen Trainingsdaten, hoher Rechenleistung und kontinuierlicher Optimierung durch maschinelles Lernen. Dadurch sind sie in der Lage, auf vielfältige Weise mit Sprache umzugehen – von der Beantwortung komplexer Fragen über die Erstellung von Inhalten bis hin zur Unterstützung bei Programmieraufgaben.
Allerdings bergen gerade diese Fähigkeiten neue Sicherheitsrisiken. Diese treten in zwei Facetten auf:
- Zum einen missbrauchen Kriminelle LLMs zunehmend selbst als Werkzeug: Sie nutzen die Technologie, um Angriffe zu professionalisieren, Social Engineering (Übertölpelungstaktiken) zu skalieren oder Schadsoftware einfacher zu erstellen.
- Zum anderen bilden die Modelle …