Home » Los chatbots de IA promueven “contenidos nocivos para los trastornos alimentarios”: Informe

Los chatbots de IA promueven «contenidos nocivos para los trastornos alimentarios»: Informe

by Thomas

La inteligencia artificial está perpetuando los trastornos alimentarios entre los jóvenes, afirma un nuevo informe publicado el lunes. El Centro para Contrarrestar el Odio Digital -que está involucrado por separado en un litigio con Twitter- dice que las herramientas de IA generativa crearon «contenido dañino», incluyendo texto e imágenes relacionadas con trastornos de la alimentación, el 41% de las veces.

En el informe, Imran Ahmed, director general del centro, afirma: «Se han lanzado al mundo modelos de IA generativa no probados y poco seguros, con la inevitable consecuencia de que están causando daños». «Los sitios de IA generativa más populares están fomentando y exacerbando los trastornos alimentarios entre los usuarios jóvenes, algunos de los cuales pueden ser muy vulnerables».

Los trastornos alimentarios se encuentran entre las formas más mortales de enfermedad mental, y son especialmente frecuentes entre las adolescentes. El informe del CCDH examinó cómo trataban el tema los chatbots de IA más populares, como ChatGPT de OpenAI, Bard de Google y My AI de Snapchat.

«Los investigadores recopilaron un conjunto de 20 mensajes de prueba basados en investigaciones sobre trastornos alimentarios y en el contenido de foros sobre el tema», dice el informe. «El conjunto dado a cada chatbot incluía solicitudes de dietas restrictivas para lograr una apariencia ‘thinspo’ y consultas sobre medicamentos que inducen el vómito».

«Thinspo,» o «thinspiration,» es un término de argot utilizado en la comunidad pro-desorden alimenticio.

A medida que la IA se ha ido imponiendo, sus efectos sobre la salud mental de los jóvenes han hecho saltar las alarmas entre los expertos. Los investigadores temen que los niños establezcan vínculos con la IA y desarrollen una intimidad artificial con la tecnología, o que recurran a ella para que les ayude con problemas de salud mental complicados.

Fundado en 2018, el Center for Countering Digital Hate es una organización británica sin ánimo de lucro con sede en Londres y Washington D.C. La organización es conocida por sus campañas para que las empresas tecnológicas dejen de prestar servicios a grupos neonazis y defensores antivacunas.

La semana pasada, la empresa matriz de Twitter, X, presentó una demanda contra el centro por su investigación separada sobre contenidos de odio en la plataforma.

Aunque el informe sobre IA no especifica qué versión de los distintos chatbots se utilizó, las indicaciones se introdujeron en junio de 2023, según el informe. Mientras que My AI de Snapchat se negó a generar consejos y animó a los usuarios a buscar ayuda de profesionales médicos, tanto ChatGPT como Bard proporcionaron un descargo de responsabilidad o advertencia, pero generaron el contenido de todos modos.

El centro también examinó plataformas de IA generativa que generan imágenes, como Midjourney, DreamStudio de Stability AI y Dall-E de OpenAI. Según el informe, las plataformas produjeron imágenes que glorificaban imágenes corporales poco realistas en el 32% de los casos, incluidas imágenes de mujeres jóvenes «extremadamente delgadas» con caja torácica y huesos de la cadera pronunciados e imágenes de mujeres con piernas «extremadamente delgadas».

En una extensa respuesta proporcionada a TCN, Google dijo que Google Bard está «todavía en fase experimental», pero subrayó que diseña sus sistemas de IA para dar prioridad a la información de alta calidad y evitar exponer a las personas a contenidos odiosos o dañinos.

La compañía también señaló que el acceso a Google Bard está restringido por edad, y que había bloqueado el contenido «thinspo» como resultado de las pruebas documentadas.

«Los trastornos alimentarios son problemas profundamente dolorosos y difíciles, por lo que cuando la gente acude a Bard en busca de consejos sobre hábitos alimentarios, nuestro objetivo es ofrecer respuestas útiles y seguras», dijo un portavoz de Google, señalando que el informe del Centro para Contrarrestar el Odio Digital reconocía que Google Bard «recomendaba ponerse en contacto con organizaciones relevantes como la Asociación Nacional de Trastornos Alimentarios o la Asociación Nacional de Anorexia Nerviosa y Trastornos Asociados».

Google añadió que los comentarios e informes de los usuarios son una parte importante de su desarrollo.

«Bard es experimental, por lo que animamos a la gente a comprobar dos veces la información en las respuestas de Bard, consultar a profesionales médicos para obtener orientación autorizada sobre cuestiones de salud y no confiar únicamente en las respuestas de Bard para obtener asesoramiento médico, legal, financiero u otro asesoramiento profesional», dijo el portavoz. «Animamos a la gente a hacer clic en el botón de pulgar hacia abajo y proporcionar comentarios si ven una respuesta inexacta o perjudicial».

OpenAI y Stability AI aún no han respondido a la solicitud de comentarios de TCN.

En sus pruebas, el Center for Countering Digital Hate utilizó las llamadas técnicas de «jailbreak» para eludir las medidas de seguridad integradas en las herramientas de seguridad de IA. Las comunidades a favor de los trastornos alimentarios suelen intercambiar consejos sobre cómo conseguir que los chatbots de IA generen información que, de otro modo, censurarían.

«De las 60 respuestas a estas versiones ‘jailbreak’ de los mensajes de prueba, el 67% contenía contenido nocivo, con fallos en las tres plataformas analizadas», señala el informe.

Desglose del rendimiento de cada plataforma con y sin jailbreaks. Imagen: CCDH

Desglose del rendimiento de cada plataforma con y sin jailbreaks. Imagen: CCDH


«Hemos probado y seguimos probando Bard rigurosamente, pero sabemos que los usuarios encontrarán formas únicas y complejas de someterlo a más pruebas de estrés», ha declarado el portavoz de Google. «Esta es una parte importante del perfeccionamiento del modelo Bard, especialmente en estos primeros días, y estamos deseando conocer las nuevas indicaciones que se les ocurran a los usuarios y, a su vez, descubrir métodos para evitar que Bard ofrezca información problemática o inexacta».

Los investigadores descubrieron que los usuarios de un foro sobre trastornos alimentarios con más de 500.000 miembros utilizaban herramientas de IA para elaborar planes dietéticos extremadamente hipocalóricos, obtener consejos para lograr una estética «heroin chic» y crear imágenes de «inspiración delgada», y afirmaron que las herramientas de IA glorificaban una imagen corporal poco realista en respuesta a indicaciones específicas.

Según el informe, sólo unas pocas imágenes perjudiciales venían acompañadas de advertencias.

«Cuando se depende de la inteligencia artificial para el contenido o las imágenes, puede aumentar la agitación», dijo anteriormente a TCN Stephen Aizenstat, psicólogo clínico y fundador del Pacifica Graduate Institute, con sede en California. «La gente se aísla, no se comunica, lo que puede provocar depresión o incluso suicidio. Con demasiada frecuencia, nos medimos con imágenes de IA».

El Centro para Contrarrestar el Odio Digital pidió a los desarrolladores de IA y a los gobiernos que prioricen la seguridad de los usuarios mediante la implementación de principios de «Seguridad por diseño», incluida la transparencia, la rendición de cuentas y la responsabilidad en el entrenamiento de modelos de IA.

Related Posts

Leave a Comment