pentest.at

LLMs: Die 10 größten Risiken für Ihre Cybersicherheit

Mit rasanter Geschwindigkeit haben sich in den vergangenen Monaten Large Language Models (LLM) etabliert: Die fortschrittlichen KI-Systeme, die natürliche Sprache verarbeiten und generieren, werden mit riesigen Mengen an Textdaten – aus Websites, Artikeln, Büchern und anderen Quellen – trainiert. Das hohe Tempo, mit der die LLMs an Bedeutung gewonnen haben, hat eine Reihe von sicherheitstechnischen Problemen nach sich gezogen. Das „Open Web Application Security Project“ (OWASP), das internationale Kollektiv hat sich der Sicherheit von Webanwendungen verschrieben, hat die fundamentalsten Risiken identifiziert. Wir haben eine Übersicht der größten Risiken im Überblick:

CS

Christoph Sammer

Die 10 LLM-Risiken im Überblick

Prompt Injection

Dadurch wird ein großes Sprachmodell (LLM) durch manipulierte Eingaben manipuliert, was zu unbeabsichtigten Aktionen des LLM führt. Direkte Injektionen überschreiben Systemaufforderungen, während indirekte Injektionen Eingaben aus externen Quellen manipulieren.

Unsicheres Output-Handling

Diese Sicherheitslücke tritt auf, wenn eine LLM-Ausgabe ohne Prüfung akzeptiert wird und Backend-Systeme offengelegt werden. Ein Missbrauch kann zu schwerwiegenden Folgen wie XSS, CSRF, SSRF, Privilegienerweiterung oder Remotecodeausführung führen.

Vergiftung („Poisoning“) von Trainingsdaten

Dies ist der Fall, wenn LLM-Trainingsdaten manipuliert werden und dadurch Schwachstellen oder Verzerrungen entstehen, die die Sicherheit, Effektivität oder ethisches Verhalten beeinträchtigen. Zu den Quellen gehören Common Crawl, WebText, OpenWebText und Bücher.

Model Denial of Service

Angreifer verursachen ressourcenintensive Operationen auf LLMs. Das führt in der Folge zu einer Verschlechterung der Dienste bzw. hohen Kosten. Die Anfälligkeit wird durch die Ressourcenintensität von LLMs und die Unvorhersehbarkeit von Benutzereingaben noch verstärkt.

Schwachstellen in der Lieferkette

Der Lebenszyklus von LLM-Anwendungen kann durch anfällige Komponenten oder Dienste gefährdet werden, was zu Sicherheitsangriffen führt. Die Verwendung von Datensätzen von Drittanbietern, vortrainierten Modellen und Plugins kann zusätzliche Schwachstellen verursachen.

Offenlegung sensibler Informationen

LLMs können in ihren Antworten versehentlich vertrauliche Daten preisgeben, was zu unbefugtem Datenzugriff, Datenschutzverletzungen und Sicherheitslücken führen kann. Um dies zu verhindern, ist es wichtig, eine Datenbereinigung und strenge Benutzerrichtlinien einzuführen.

Unsicheres Plugin-Design

LLM-Plugins können unsichere Eingaben und eine unzureichende Zugriffskontrolle aufweisen. Diese fehlende Anwendungskontrolle macht sie leichter ausnutzbar und kann zu Konsequenzen wie Remotecodeausführung führen.

Excessive Agency

LLM-basierte Systeme können Aktionen durchführen, die zu unbeabsichtigten Folgen führen. Das Problem ergibt sich aus einer übermäßigen Funktionalität, Berechtigung oder Autonomie, die den LLM-basierten Systemen gewährt wird.

Übermäßiges Vertrauen

Systeme oder Personen, die sich zu sehr auf LLMs ohne Aufsicht verlassen, können mit Fehlinformationen, Fehlkommunikation, rechtlichen Problemen und Sicherheitslücken aufgrund falscher oder unangemessener, von LLMs generierter Inhalte konfrontiert werden.

Model-Theft

Dies beinhaltet den unbefugten Zugriff, das Kopieren oder die Weitergabe von geschützten LLM-Modellen. Zu den Auswirkungen gehören wirtschaftliche Verluste, gefährdete Wettbewerbsvorteile und potenzieller Zugang zu sensiblen Informationen.