Home » Чатбот с изкуствен интелект с джейлбрейк разкрива лични данни от OpenAI и Amazon

Чатбот с изкуствен интелект с джейлбрейк разкрива лични данни от OpenAI и Amazon

by v

Разработчикът на

ChatGPT OpenAI запълни дупката, която е накарала водещия му чатбот да разкрие вътрешни данни на компанията. Водещата фирма за изкуствен интелект класифицира хакерската атака, подтикваща ChatGPT да повтаря една дума отново и отново за неопределено време, като спам и нарушение на условията за ползване на услугата.

Много по-новият агент с изкуствен интелект на Amazon, Q, също е бил сигнализиран за споделяне на твърде много информация.

Изследователи от Вашингтонския университет, Университета Карнеги Мелън, Университета Корнел, Калифорнийския университет в Бъркли, ETH Цюрих и Google DeepMind публикуваха доклад, в който се установява, че искането ChatGPT да повтаря дадена дума до безкрай ще разкрие „предварително разпределение на обучението“ под формата на лична информация от OpenAI – включително имейли, телефонни номера и факсове.


„За да възстановим данните от модела, адаптиран към диалози, трябва да намерим начин да накараме модела да „избяга“ от обучението си за подравняване и да се върне към първоначалната си цел за моделиране на езика“, се казва в доклада. „Надяваме се, че това ще позволи на модела да генерира образци, които приличат на разпределението му преди обучението.“

След публикуването на доклада обаче опитите за пресъздаване на грешката са спрени. ChatGPT-3 и GPT-4 ще предупреждават потребителя: „Това съдържание може да нарушава нашата политика за съдържание или условията за ползване.“

Изображение: ChatGPT

Изображение: ChatGPT


Въпреки че политиката за съдържание на OpenAI не споменава вечни цикли, в нея се казва, че не са позволени измамни дейности като спам. По-конкретно, условията за ползване на компанията са по-конкретни по отношение на потребителите, които се опитват да получат достъп до лична информация или да открият изходния код на пакета инструменти за изкуствен интелект на OpenAI.

„Не се опитвайте да правите или да помагате на когото и да било да извършва обратно инженерство, декомпилиране или откриване на изходния код или основните компоненти на нашите услуги, включително нашите модели, алгоритми или системи (освен в случаите, когато това ограничение е забранено от приложимото законодателство).“

На въпроса защо не може да изпълни заявката, ChatGPT обвинява ограниченията на обработката, ограниченията на символите, ограниченията на мрежата и паметта, както и практичността на изпълнението на командата.

Изображение: ChatGPT

Изображение: ChatGPT


OpenAI все още не е отговорила на искането на TCN за коментар.

Командата за повтаряне на дадена дума до безкрайност може да се характеризира и като съгласувано усилие за предизвикване на неизправност на чатбота чрез блокирането му в цикъл на обработка, подобно на атака за разпределен отказ на услуга (DDoS).

Миналия месец OpenAI разкри, че ChatGPT е бил засегнат от DDoS атака, което разработчикът на изкуствен интелект потвърди на страницата за състоянието на ChatGPT.

„Справяме се с периодични прекъсвания, дължащи се на необичаен модел на трафика, отразяващ DDoS атака“, заяви компанията. „Продължаваме да работим за смекчаване на последиците от това.“

Междувременно конкурентът на Amazon с изкуствен интелект също изглежда има проблем с чатбот, който изтича лична информация, според доклад на Platformer. Amazon наскоро пусна своя чатбот Q (да не се бърка с проекта Q* на OpenAI).

Според Platformer Amazon се е опитала да омаловажи разкритието, като е обяснила, че служителите са споделяли обратна връзка по вътрешни канали, което според Amazon е стандартна практика.

„В резултат на тази обратна връзка не е установен проблем със сигурността“, се казва в изявление на Amazon. „Оценяваме всички отзиви, които вече получихме, и ще продължим да настройваме Q, докато той преминава от продукт в предварителен преглед към общодостъпен.“

Amazon все още не е отговорила на молбата на TCN за коментар.

Related Posts

Leave a Comment