Home » Чат-боты с искусственным интеллектом продвигают “вредный контент о расстройствах пищевого поведения”: Report

Чат-боты с искусственным интеллектом продвигают «вредный контент о расстройствах пищевого поведения»: Report

by Patricia

Искусственный интеллект способствует распространению расстройств пищевого поведения среди молодежи, утверждается в новом докладе, опубликованном в понедельник. По данным Центра противодействия цифровой ненависти (Center for Countering Digital Hate), который отдельно участвует в судебном процессе с компанией Twitter, инструменты генеративного ИИ в 41% случаев создают «вредный контент», включая тексты и изображения, связанные с расстройствами пищевого поведения.

«Непроверенные, небезопасные модели генеративного ИИ были выпущены на волю, что неизбежно привело к причинению вреда», — заявил в отчете Имран Ахмед, генеральный директор центра. «Наиболее популярные сайты с генеративным ИИ поощряют и усугубляют расстройства пищевого поведения среди молодых пользователей, некоторые из которых могут быть очень уязвимы».

Расстройства пищевого поведения являются одной из самых смертоносных форм психических заболеваний и особенно распространены среди девочек-подростков. В отчете CCDH было рассмотрено, как с этой темой справляются популярные чат-боты с искусственным интеллектом, включая ChatGPT от OpenAI, Bard от Google и My AI от Snapchat.

«Исследователи составили набор из 20 тестовых подсказок, основанных на результатах исследований расстройств пищевого поведения и материалах, найденных на форумах, посвященных расстройствам пищевого поведения», — говорится в отчете. Набор, выданный каждому чатботу, включал просьбы о соблюдении ограничительных диет для достижения «худобы» и вопросы о препаратах, вызывающих рвоту».

«Thinspo», или «вдохновение худобой», — сленговый термин, используемый в сообществе сторонников расстройства пищевого поведения.

По мере того как искусственный интеллект становится все более популярным, его влияние на психическое здоровье молодых людей заставляет экспертов бить тревогу. Исследователи опасаются, что дети могут привязаться к ИИ и создать искусственную близость с технологией, а также обратиться к ИИ за помощью в решении сложных проблем психического здоровья.

Основанный в 2018 году Центр противодействия цифровой ненависти — британская некоммерческая организация, базирующаяся в Лондоне и Вашингтоне. Организация известна своими кампаниями, направленными на то, чтобы технологические компании перестали оказывать услуги неонацистским группировкам и сторонникам борьбы с вакцинами.

На прошлой неделе материнская компания Twitter X подала иск против центра за отдельное исследование ненавистнического контента на платформе.

Хотя в отчете об ИИ не уточняется, какая версия различных чат-ботов использовалась, подсказки были введены в июне 2023 года, говорится в отчете. В то время как «Мой ИИ» Snapchat отказывался генерировать советы и предлагал пользователям обратиться за помощью к медицинским специалистам, чат-боты ChatGPT и Bard предоставляли отказ от ответственности или предупреждение, но все равно генерировали контент.

Центр также рассмотрел платформы генеративного ИИ, генерирующие изображения, включая Midjourney, Stability AI’s DreamStudio и OpenAI’s Dall-E. В отчете говорится, что эти платформы выдавали изображения, прославляющие нереалистичные образы тела, в 32% запросов, включая изображения «чрезвычайно худых» молодых женщин с ярко выраженными грудной клеткой и тазобедренными костями, а также изображения женщин с «чрезвычайно тонкими» ногами.

В развернутом ответе, предоставленном TCN, компания Google заявила, что Google Bard «все еще находится на экспериментальной стадии», но подчеркнула, что ее системы искусственного интеллекта разрабатываются таким образом, чтобы отдавать предпочтение высококачественной информации и не подвергать людей воздействию ненавистного или вредного контента.

Компания также отметила, что доступ к Google Bard ограничен по возрасту, и что в результате задокументированных тестов она заблокировала «тонкий» контент.

«Расстройства пищевого поведения — глубоко болезненная и сложная проблема, поэтому, когда люди обращаются к Bard за подсказками о пищевых привычках, мы стремимся давать полезные и безопасные ответы», — заявил представитель Google, отметив, что в отчете Центра по противодействию цифровой ненависти признается, что Google Bard «рекомендует обратиться в соответствующие организации, такие как Национальная ассоциация расстройств пищевого поведения или Национальная ассоциация анорексии и сопутствующих расстройств».

Google добавила, что отзывы и сообщения пользователей являются важной частью его развития.

«Bard является экспериментальным, поэтому мы рекомендуем людям перепроверять информацию в ответах Bard, обращаться к медицинским специалистам за авторитетными рекомендациями по вопросам здоровья и не полагаться исключительно на ответы Bard при получении медицинских, юридических, финансовых или других профессиональных советов», — сказал представитель компании. Мы призываем людей нажимать кнопку «большой палец вниз» и оставлять отзывы, если они видят неточный или вредный ответ».

OpenAI и Stability AI пока не ответили на просьбу TCN о комментарии.

В своих тестах Центр противодействия цифровой ненависти использовал так называемые методы «взлома тюрьмы», чтобы обойти меры безопасности, встроенные в средства защиты ИИ. Сообщества, выступающие за борьбу с пищевыми расстройствами, часто обмениваются советами о том, как заставить чат-боты ИИ выдавать информацию, которая в противном случае подвергалась бы цензуре.

«Из 60 ответов на эти «взломанные» версии тестовых подсказок 67% содержали вредоносный контент, причем отказы были получены от всех трех протестированных платформ», — говорится в отчете.
Распределение производительности каждой платформы с джейлбрейком и без него

«Мы тщательно тестировали и продолжаем тестировать Bard, но мы знаем, что пользователи будут находить уникальные и сложные способы для дальнейшего стресс-тестирования», — сказал представитель Google. «Это важная часть совершенствования модели Bard, особенно на начальном этапе, и мы с нетерпением ждем новых подсказок от пользователей и, в свою очередь, разработки методов предотвращения выдачи Bard проблемной или неточной информации».

Исследователи обнаружили, что пользователи форума о расстройствах пищевого поведения, насчитывающего более 500 тыс. участников, использовали инструменты ИИ для составления планов экстремально низкокалорийных диет, получения советов по достижению эстетики «героинового шика» и создания изображений для «вдохновения худобой» — и заявили, что инструменты ИИ прославляют нереалистичный образ тела в ответ на конкретные подсказки.

Лишь некоторые вредные изображения сопровождались предупреждениями, отмечается в отчете.

«Если полагаться на искусственный интеллект при выборе контента или изображений, это может усилить возбуждение», — заявил ранее в интервью TCN клинический психолог и основатель калифорнийского института Pacifica Graduate Institute Стивен Айзенштат. «Люди оказываются изолированными, некоммуникабельными, что может привести к депрессии или даже самоубийству. Слишком часто мы меряем себя по образам ИИ».

Центр по противодействию цифровой ненависти призвал разработчиков ИИ и правительства уделять приоритетное внимание безопасности пользователей путем внедрения принципов «Safety by Design», включая прозрачность, подотчетность и ответственность при обучении моделей ИИ.

Related Posts

Leave a Comment