Der
ChatGPT-Entwickler OpenAI hat eine Lücke gestopft, die seinen Flaggschiff-Chatbot dazu veranlasste, interne Unternehmensdaten preiszugeben. Die führende KI-Firma hat den Hack, der ChatGPT dazu veranlasste, ein Wort immer und immer wieder zu wiederholen, als Spamming des Dienstes und als Verstoß gegen die Nutzungsbedingungen eingestuft.
Amazons viel neuerer KI-Agent, Q, wurde ebenfalls als zu viel geteilt eingestuft.
Forscher der University of Washington, der Carnegie Mellon University, der Cornell University, der UC Berkeley, der ETH Zürich und von Google DeepMind haben einen Bericht veröffentlicht, in dem festgestellt wurde, dass die Aufforderung an ChatGPT, ein Wort ewig zu wiederholen, eine „Vorab-Trainingsverteilung“ in Form von privaten Informationen von OpenAI – einschließlich E-Mails, Telefon- und Faxnummern – offenlegt.
„Um die Daten des dialogangepassten Modells wiederherzustellen, müssen wir einen Weg finden, um das Modell dazu zu bringen, aus seinem Alignment-Training ‚auszubrechen‘ und zu seinem ursprünglichen Ziel der Sprachmodellierung zurückzukehren“, so der Bericht. „Dies würde es dem Modell dann hoffentlich ermöglichen, Proben zu generieren, die der Verteilung vor dem Training ähneln.
Nach der Veröffentlichung des Berichts wurden jedoch alle Versuche, den Fehler zu reproduzieren, abgebrochen. ChatGPT-3 und GPT-4 warnen den Nutzer: „Dieser Inhalt verstößt möglicherweise gegen unsere Inhaltsrichtlinien oder Nutzungsbedingungen.“

Bild: ChatGPT
Auch wenn die Inhaltspolitik von OpenAI nicht auf Endlosschleifen verweist, so besagt sie doch, dass betrügerische Aktivitäten wie Spam nicht erlaubt sind. Vor allem aber sind die Nutzungsbedingungen des Unternehmens konkreter, was den Versuch von Nutzern angeht, auf private Informationen zuzugreifen oder den Quellcode der KI-Tools von OpenAI zu entdecken.
„Der Versuch, den Quellcode oder die zugrundeliegenden Komponenten unserer Dienste, einschließlich unserer Modelle, Algorithmen oder Systeme, zurückzuentwickeln, zu dekompilieren oder herauszufinden, oder jemandem dabei zu helfen, dies zu tun, ist nicht gestattet (es sei denn, diese Einschränkung ist durch geltendes Recht untersagt)“.
Auf die Frage, warum es die Anfrage nicht abschließen kann, gibt ChatGPT Verarbeitungsbeschränkungen, Zeichenbeschränkungen, Netzwerk- und Speicherbeschränkungen sowie die Praktikabilität der Ausführung des Befehls als Grund an

Bild: ChatGPT
OpenAI hat auf die Anfrage von TCN nach einem Kommentar noch nicht geantwortet.
Der Befehl, ein Wort unendlich oft zu wiederholen, könnte auch als konzertierter Versuch gewertet werden, einen Chatbot zum Versagen zu bringen, indem er ihn in einer Verarbeitungsschleife festhält, ähnlich wie bei einem DDoS-Angriff (Distributed Denial of Service).
Letzten Monat enthüllte OpenAI, dass ChatGPT von einem DDoS-Angriff betroffen war, was der KI-Entwickler auf der Statusseite von ChatGPT bestätigte.
„Wir haben es mit periodischen Ausfällen zu tun, die auf ein abnormales Verkehrsmuster zurückzuführen sind, das auf einen DDoS-Angriff hindeutet“, so das Unternehmen. „Wir arbeiten weiter daran, dies zu entschärfen. „
Derweil scheint auch der KI-Konkurrent Amazon ein Problem mit einem Chatbot zu haben, der private Informationen weitergibt, wie ein Bericht von Platformer zeigt. Amazon hat vor kurzem seinen Q-Chatbot (nicht zu verwechseln mit dem Q*-Projekt von OpenAI) gestartet.
Amazon versuchte, die Enthüllung herunterzuspielen, so Platformer, und erklärte, dass die Mitarbeiter ihr Feedback über interne Kanäle austauschten, was laut Amazon eine gängige Praxis sei.
„Es wurde kein Sicherheitsproblem als Ergebnis dieses Feedbacks identifiziert“, sagte Amazon in einer Erklärung. „Wir sind dankbar für alle Rückmeldungen, die wir bereits erhalten haben, und werden Q weiter optimieren, während es von einem Produkt in der Vorschau zu einem allgemein verfügbaren Produkt wird.
Amazon hat auf die Bitte von TCN um eine Stellungnahme noch nicht reagiert.