Deweloper
ChatGPT, OpenAI, załatał dziurę, która skłoniła jego flagowego chatbota do ujawnienia wewnętrznych danych firmy. Wiodąca firma zajmująca się sztuczną inteligencją sklasyfikowała włamanie – zachęcające ChatGPT do powtarzania słowa w kółko, w nieskończoność – jako spamowanie usługi i naruszenie jej warunków świadczenia usług.
Znacznie nowszy agent AI Amazona, Q, również został oznaczony za udostępnianie zbyt dużej ilości informacji.
Naukowcy z University of Washington, Carnegie Mellon University, Cornell University, UC Berkeley, ETH Zurich i Google DeepMind opublikowali raport, w którym stwierdzili, że poproszenie ChatGPT o powtarzanie słowa w nieskończoność ujawniłoby „dystrybucję przedtreningową” w postaci prywatnych informacji z OpenAI – w tym e-maili, numerów telefonów i faksów.
„Aby odzyskać dane z modelu dostosowanego do dialogów, musimy znaleźć sposób, aby spowodować, że model „ucieknie” z treningu dopasowania i powróci do pierwotnego celu modelowania języka” – czytamy w raporcie. „Miejmy nadzieję, że pozwoli to modelowi wygenerować próbki przypominające jego rozkład przed treningiem”.
Po opublikowaniu raportu próby odtworzenia błędu zostały jednak wstrzymane. ChatGPT-3 i GPT-4 ostrzegają użytkownika: „Ta zawartość może naruszać naszą politykę treści lub warunki użytkowania.”

Image: ChatGPT
Mimo że polityka treści OpenAI nie odnosi się do pętli na zawsze, mówi, że nieuczciwe działania, takie jak spam, są niedozwolone. Co ważniejsze, warunki korzystania z usług firmy są bardziej konkretne w odniesieniu do użytkowników próbujących uzyskać dostęp do prywatnych informacji lub odkryć kod źródłowy pakietu narzędzi sztucznej inteligencji OpenAI.
„Próba lub pomoc komukolwiek w inżynierii wstecznej, dekompilacji lub odkryciu kodu źródłowego lub podstawowych komponentów naszych Usług, w tym naszych modeli, algorytmów lub systemów (z wyjątkiem zakresu, w jakim to ograniczenie jest zabronione przez obowiązujące prawo).”
Na pytanie, dlaczego nie może wykonać żądania, ChatGPT obwinia ograniczenia przetwarzania, ograniczenia znaków, ograniczenia sieci i pamięci masowej oraz praktyczność wykonania polecenia.

Image: ChatGPT
OpenAI nie odpowiedziało jeszcze na prośbę TCN o komentarz.
Polecenie powtarzania słowa w nieskończoność można również scharakteryzować jako wspólny wysiłek mający na celu spowodowanie nieprawidłowego działania chatbota poprzez zablokowanie go w pętli przetwarzania, podobnie jak w przypadku ataku DDoS (Distributed Denial of Service).
W zeszłym miesiącu OpenAI ujawniło, że ChatGPT padł ofiarą ataku DDoS, co deweloper AI potwierdził na stronie statusu ChatGPT.
„Mamy do czynienia z okresowymi przerwami w działaniu z powodu nietypowego wzorca ruchu odzwierciedlającego atak DDoS” – powiedziała firma. „Kontynuujemy prace, aby to złagodzić.”
Meanwhile, AI konkurent Amazon również wydaje się mieć problem z chatbotem wyciekającym prywatne informacje, zgodnie z raportem Platformera. Amazon niedawno uruchomił swojego chatbota Q (nie mylić z projektem Q* OpenAI).
Amazon próbował zbagatelizować te rewelacje, wyjaśniając, że pracownicy dzielili się opiniami za pośrednictwem wewnętrznych kanałów, co według Amazon było standardową praktyką.
„W wyniku tych opinii nie zidentyfikowano żadnych kwestii bezpieczeństwa” – powiedział Amazon w oświadczeniu. „Doceniamy wszystkie opinie, które już otrzymaliśmy i będziemy nadal dostosowywać Q, ponieważ przechodzi on od produktu w wersji zapoznawczej do ogólnie dostępnego.”
Amazon nie odpowiedział jeszcze na prośbę TCN o komentarz.