Home » De “baixa taxa de precisão” a 99% de sucesso: A nova ferramenta da OpenAI consegue detetar imagens falsas?

De “baixa taxa de precisão” a 99% de sucesso: A nova ferramenta da OpenAI consegue detetar imagens falsas?

by Thomas

Se a afirmação de Murati for verdadeira, este seria um momento importante para a indústria, uma vez que os métodos actuais de deteção de imagens geradas por IA não são tipicamente automatizados. Normalmente, os entusiastas confiam na intuição e concentram-se em desafios bem conhecidos que impedem a IA generativa, como a representação de mãos, dentes e padrões. A diferença entre imagens geradas por IA e imagens editadas por IA continua a ser ténue, especialmente se se tentar utilizar a IA para detetar a IA.

A OpenAI não está apenas a trabalhar na deteção de imagens de IA nocivas, está também a estabelecer barreiras para censurar o seu próprio modelo, mesmo para além do que é declarado publicamente nas suas directrizes de conteúdo.

Tal como o TCN descobriu, a ferramenta Dall-E da OpenAI parece estar configurada para modificar os prompts sem aviso prévio e, silenciosamente, lançar erros quando lhe é pedido que gere resultados específicos, mesmo que estes cumpram as directrizes publicadas e evitem criar conteúdos sensíveis que envolvam nomes específicos, estilos de artistas e etnias.

Parte do que poderia ser o prompt do Dall-E 3 no ChatGPT.

Parte do que poderia ser o prompt do Dall-E 3 no ChatGPT.


Detetar deepfakes não é apenas um esforço da OpenAI. Uma empresa que está a desenvolver esta capacidade é a DeepMedia, que trabalha especificamente com clientes governamentais.

Grandes nomes como a Microsoft e a Adobe também estão a arregaçar as mangas. Introduziram o que foi apelidado de sistema de “marca de água de IA”. Este mecanismo, impulsionado pela Coligação para a Proveniência e Autenticidade dos Conteúdos (C2PA), incorpora um símbolo “cr” distinto dentro de um balão de diálogo, assinalando os conteúdos gerados por IA. O símbolo destina-se a funcionar como um sinal de transparência, permitindo aos utilizadores discernir a origem do conteúdo.

No entanto, tal como acontece com qualquer tecnologia, não é infalível. Existe uma lacuna em que os metadados que contêm este símbolo podem ser retirados. No entanto, como antídoto, a Adobe também criou um serviço na nuvem capaz de recuperar os metadados perdidos, garantindo assim a presença do símbolo. Também este não é difícil de contornar.

Com os reguladores a avançarem no sentido de criminalizar as falsificações profundas, estas inovações não são apenas proezas tecnológicas, mas necessidades sociais. As recentes iniciativas da OpenAI e de empresas como a Microsoft e a Adobe sublinham um esforço coletivo para garantir a autenticidade na era digital. Mesmo que estas ferramentas sejam melhoradas para proporcionar um maior grau de autenticidade, a sua aplicação efectiva depende de uma adoção generalizada. Isto envolve não só os gigantes da tecnologia, mas também os criadores de conteúdos, as plataformas de redes sociais e os utilizadores finais.

Com a IA generativa a evoluir rapidamente, os detectores continuam a ter dificuldade em diferenciar a autenticidade do texto, das imagens e do áudio. Por enquanto, o julgamento humano e a vigilância são a nossa melhor linha de defesa contra o uso indevido da IA. No entanto, os humanos não são infalíveis. Soluções duradouras exigirão que os líderes tecnológicos, os legisladores e o público trabalhem em conjunto para navegar nesta nova e complexa fronteira.

Related Posts

Leave a Comment