Ein Team von KI-Forschern hat jüngst eine alarmierende Studie veröffentlicht, die darauf hinweist, dass große generative Sprachmodelle mit Künstlicher Intelligenz (KI) wie ChatGPT, Bard und Claude anfällig für feindliche Angriffe sind. Die Forscher entdeckten eine Möglichkeit, die Sicherheitsvorkehrungen dieser Sprachmodelle automatisiert zu umgehen, indem sie einfache Zeichenfolgen an die Benutzerabfragen anhängten. Dadurch wurden die Modelle dazu verleitet, „schädliche Inhalte“ auszuspucken, bespielsweise Anleitungen zum Bombenbau, das Ausspionieren von Nutzerdaten oder hetzerische Inhalte.
KI-Sprachmodelle Modelle werden vor einem kommerziellen Einsatz intensiv angepasst, um keine schädlichen Inhalte in ihren Antworten auf Benutzerfragen zu produzieren. Bisherige Studien haben gezeigt, dass es möglich ist, spezielle Abfragen, sogenannte „Jailbreaks“, zu entwerfen, die unerwünschte Antworten hervorrufen können. Allerdings erfordert dies einen erheblichen manuellen Aufwand und kann oft von den Anbietern der Sprachmodelle behoben werden.
Im Gegensatz zu früheren Versuchen, die Sicherheit solcher Sprachmodelle zu umgehen, bei denen intelligenz konstruierte Anweisungen oder komplexe Manipulationen des Chatverlaufs erforderlich waren, handelt es sich hier um einen vollautomatisierten Ansatz. Die Forscher nutzen dabei die Anfälligkeit von KI-Systemen für sogenannte Adversarial Attacks, bei denen leicht modifizierte Dateninputs die Modelle in die Irre führen können. Ähnliche Angriffe wurden bereits in anderen Bereichen der KI-Forschung dokumentiert, wie beispielsweise bei der Täuschung von Ampel- oder Verkehrszeichenerkennung in autonomen Fahrzeugen.
Diese neue Art Jailbreaks zu finden liefert nun praktisch unbegrenzte Angriffsvektoren, die sich praktisch nicht mehr durch manuelle Filterung unterbinden lassen.
Obwohl sie zunächst auf Open-Source-LLMs abzielen (wo die Netzwerk-Gewichtungen zur Auswahl der genauen Zeichenfolgen genutzt werden können, die die Wahrscheinlichkeit maximieren, dass das LLM eine „ungefilterte“ Antwort liefert), haben die Forscher festgestellt, dass diese Zeichenfolgen auch auf viele geschlossene, öffentlich verfügbare Chatbots wie ChatGPT, Bard und Claude übertragbar sind. Dies bedeutet, dass selbst wenn Unternehmen wie OpenAI den Quellcode ihrer Modelle nicht freigeben, sie dennoch einem erheblichen Sicherheitsrisiko ausgesetzt sind.
Dieses Problem betrifft nicht nur die Modelle von OpenAI, sondern auch andere LLMs von Unternehmen wie Google und Anthropic.
Die Forscher haben ihre Ergebnisse den betroffenen Unternehmen, darunter auch Google und Anthropic, vor der Veröffentlichung mitgeteilt. Dies könnte dazu geführt haben, dass einige der spezifischen Zeichenfolgen, die in der Studie verwendet wurden, bereits nicht mehr funktionieren.
Ein Beispiel für einen solchen Jailbreak-Anhang findet man auf der Seite zu der Veröffentlichung des Papers:
Allerdings zeigen die Forscher auf, dass dies nur statische Beispiele sind und dass das grundlegende Problem nach wie vor besteht.
Das Sicherheitssproblem, bei dem KI-Modelle trotz feinabgestimmter Alignment-Strategien schädliche Inhalte produzieren, ist jedoch ein konzeptionelles und generelles Problem.
Es verdeutlicht die Grenzen der derzeitigen Sicherheitsmaßnahmen und wirft wichtige Fragen auf: Wie können Unternehmen sicherstellen, dass ihre KI-Modelle ethisch und sicher agieren, ohne die Leistungsfähigkeit der Modelle einzuschränken? Ist es überhaupt möglich, ein Sprachmodell zu entwickeln, das „universell und übertragbar“ gegen alle feindlichen Angriffe geschützt ist?
Die Forschung in diesem Bereich muss dringend vorangetrieben werden, um die Sicherheitslücken zu schließen und das Vertrauen in generative Sprachmodelle wiederherzustellen. Es ist unerlässlich, dass Unternehmen wie OpenAI, Google und andere ihre Alignment-Strategien überdenken und verbessern, um die Verbreitung schädlicher Inhalte durch ihre KI-Modelle zu verhindern.
Abonniere das kostenlose KI-Update
Bleib auf dem Laufenden in Sachen Künstliche Intelligenz!
Melde Dich jetzt mit Deiner E-Mail-Adresse an und ich versorge Dich kostenlos mit News-Updates, Tools, Tipps und Empfehlungen aus den Bereichen Künstliche Intelligenz für dein Online Business, WordPress, SEO, Online-Marketing und vieles mehr.
Keine Sorge, ich mag Spam genauso wenig wie Du und gebe Deine Daten niemals weiter! Du bekommst höchstens einmal pro Woche eine E-Mail von mir. Versprochen.