Sie verwenden einen veralteten Browser. Um im Internet auch weiterhin sicher unterwegs zu sein, empfehlen wir ein Update.

Nutzen Sie z.B. eine aktuelle Version von Edge, Chrome oder Firefox

12. Dezember 2025

Angriffe auf LLMs

DP+
Cyberkriminelle können generative KI nutzen, um ihre Angriffe zu skalieren und zu professionalisieren. Aber auch die großen Sprachmodelle (LLMs), auf denen generative KI beruht, können wiederum selbst Ziel unterschiedlichster Angriffsarten sein.
Bild: iStock.com/peshkov
0,00 (0)
Bedrohungen und Schutz moderner KI-Systeme (Teil 1)
Große Sprachmodelle (Large Language Models, LLMs) bilden das Rückgrat moderner KI-gestützter Anwendungen. Dank ihrer Fähigkeit, Sprache zu „verstehen“ und kontextbezogen zu reagieren, heben sie Automatisierung und ­Effizienz auf ein neues Niveau. Doch dieselben Mechanismen öffnen auch neue Türen für Angriffe.

Kaum eine Technologie hat in den letzten Jahren so tiefgreifende Veränderungen ausgelöst wie künstliche Intelligenz (KI). Ein Hauptgrund dafür ist der rasante Fortschritt im Bereich der großen Sprachmodelle (LLMs).

Dabei handelt es sich um KI-Systeme, die darauf trainiert sind, menschliche Sprache zu „verstehen“, zu verarbeiten und selbst zu erzeugen. Grundlage dafür ist die sogenannte Transformer-Architektur, ein neuronales Netzwerk, das enorme Mengen an Textdaten analysiert, um Muster, Bedeutungszusammenhänge und Sprachstrukturen zu erkennen. So können LLMs auf Basis statistischer Wahrscheinlichkeiten vorhersagen, welches Wort oder welcher Satz mit hoher Wahrscheinlichkeit als Nächstes folgt. Dies ermöglicht es ihnen, erstaunlich flüssige, kontextbezogene Texte erzeugen.

Ihre außergewöhnliche Leistungsfähigkeit ergibt sich aus einer Kombination von umfangreichen Trainingsdaten, hoher Rechenleistung und kontinuierlicher Optimierung durch maschinelles Lernen. Dadurch sind sie in der Lage, auf vielfältige Weise mit Sprache umzugehen – von der Beantwortung komplexer Fragen über die Erstellung von Inhalten bis hin zur Unterstützung bei Programmieraufgaben.

Allerdings bergen gerade diese Fähigkeiten neue Sicherheitsrisiken. Diese treten in zwei Facetten auf:

  • Zum einen missbrauchen Kriminelle LLMs zunehmend selbst als Werkzeug: Sie nutzen die Technologie, um Angriffe zu professionalisieren, Social Engineering (Übertölpelungstaktiken) zu skalieren oder Schadsoftware einfacher zu erstellen.
  • Zum anderen bilden die Modelle …
Noureddine Jerbi
+

Weiterlesen mit DP+

Sie haben noch kein Datenschutz-PRAXIS-Abo und möchten weiterlesen?

Weiterlesen mit DP+
Konzentrieren Sie sich aufs Wesentliche
Profitieren Sie von kurzen, kompakten und verständlichen Beiträgen.
Kein Stress mit Juristen- und Admin-Deutsch
Lesen Sie praxisorientierte Texte ohne Fußnotenapparat und Techniker-Sprech.
Sparen Sie sich langes Suchen
Alle Arbeitshilfen und das komplette Heftarchiv finden Sie online.
Verfasst von
Noureddine Jerbi
Noureddine Jerbi
Noureddine Jerbi ist als Penetration Tester und IT-Security-Consultant bei der MORGENSTERN consecom GmbH tätig.
Vielen Dank! Ihr Kommentar muss noch redaktionell geprüft werden, bevor wir ihn veröffentlichen können.