O gigante dos media sociais Twitter diz que um novo sistema para impedir a disseminação de material de abuso sexual de crianças (CSAM) na sua plataforma foi “implementado sem problemas”, testando a tecnologia desenvolvida pelo grupo sem fins lucrativos Thorn.
A conta Twitter Safety anunciou na terça-feira que participou num teste beta da solução Safer do grupo, baseada em IA, para detetar, eliminar e denunciar proactivamente material baseado em texto que contenha exploração sexual infantil.
Através da nossa parceria contínua com a @thorn, estamos a fazer mais para criar uma plataforma segura. A X esteve envolvida no teste da solução da Thorn durante a sua fase beta para detetar proactivamente a exploração sexual infantil baseada em texto. Este trabalho baseia-se nos nossos esforços incansáveis para combater a exploração sexual de crianças…
– Safety (@Safety) May 7, 2024
“Através da nossa parceria contínua com a Thorn, estamos a fazer mais para criar uma plataforma segura”, escreveu a conta de Segurança do Twitter. “Este trabalho baseia-se nos nossos esforços incansáveis para combater a exploração sexual infantil online, com o objetivo específico de expandir as nossas capacidades no combate a conteúdos altamente nocivos em que uma criança está em risco iminente.”
“Esta solução auto-hospedada foi implementada sem problemas nos nossos mecanismos de deteção, permitindo-nos identificar contas de alto risco”, continuou.
Lançada em 2012 pelos actores Demi Moore e Ashton Kutcher, a Thorn desenvolve ferramentas e recursos destinados a defender as crianças do abuso e exploração sexual. Em abril, a Google, a Meta e a OpenAI assinaram um compromisso emitido pela Thorn e pela organização sem fins lucrativos All Tech is Human, comprometendo-se a aplicar medidas de proteção aos seus modelos de IA.
“Aprendemos muito com nossos testes beta”, disse Rebecca Portnoff, vice-presidente de ciência de dados da Thorn, ao TCN. “Embora soubéssemos que o abuso sexual infantil se manifesta em todos os tipos de conteúdo, incluindo texto, vimos concretamente neste teste beta como o aprendizado de máquina / IA para texto pode ter impacto na vida real em escala.”
Como explicou Portnoff, o modelo Safer AI inclui um modelo de linguagem treinado em textos relacionados com a segurança infantil e um sistema de classificação que gera previsões com vários rótulos para sequências de texto. As pontuações das previsões variam de 0 a 1, indicando a confiança do modelo na relevância do texto para várias categorias de segurança infantil.
Devido à proliferação de ferramentas de IA generativas desde o lançamento do ChatGPT em 2022, grupos de vigilância da Internet, como a Internet Watch Foundation, com sede no Reino Unido, soaram o alarme sobre uma enxurrada de pornografia infantil gerada por IA circulando em fóruns da dark web, dizendo que o material ilícito poderia sobrecarregar a Internet.
O anúncio da equipa de segurança do Twitter foi feito horas antes de a União Europeia ter exigido que a empresa explicasse os relatórios sobre a “diminuição dos recursos de moderação de conteúdos”.
O último relatório de transparência que o Twitter apresentou aos reguladores da UE disse que as medidas de corte de custos de Elon Musk reduziram o tamanho da equipe de moderação de conteúdo da plataforma em quase 20% desde outubro de 2023 e cortaram o número de idiomas monitorados de 11 para 7.
“A comissão também está a procurar obter mais detalhes sobre as avaliações de risco e medidas de mitigação relacionadas com o impacto das ferramentas de IA generativa nos processos eleitorais, disseminação de conteúdo ilegal e proteção dos direitos fundamentais”, acrescenta o pedido.
A UE abriu um processo formal contra o Twitter em dezembro de 2023 devido a preocupações de que a empresa violou a Lei de Serviços Digitais em várias áreas, incluindo gerenciamento de risco, moderação de conteúdo, “padrões obscuros” e acesso a dados para pesquisadores.
A comissão disse que o Twitter deve fornecer as informações solicitadas até 17 de maio e responder a perguntas adicionais até 27 de maio.