YouTube expande sistema para detectar deepfakes e apoia lei contra uso indevido de imagem por IA

O YouTube anunciou nesta quarta-feira a expansão de seu projeto-piloto de detecção de conteúdos sintéticos que replicam, via inteligência artificial, vozes e rostos de criadores, artistas e figuras públicas. Paralelamente, a plataforma declarou apoio público à legislação NO FAKES Act, proposta bipartidária que busca proteger o direito de imagem e voz na era da IA generativa. A iniciativa reforça o movimento da empresa para equilibrar liberdade criativa com responsabilidade tecnológica.

O YouTube anunciou nesta quarta-feira a expansão de seu projeto-piloto de detecção de conteúdos sintéticos que replicam, via inteligência artificial, vozes e rostos de criadores, artistas e figuras públicas. Paralelamente, a plataforma declarou apoio público à legislação NO FAKES Act, proposta bipartidária que busca proteger o direito de imagem e voz na era da IA generativa. A iniciativa reforça o movimento da empresa para equilibrar liberdade criativa com responsabilidade tecnológica.

Segundo o YouTube, o sistema utiliza tecnologia similar ao Content ID — já amplamente usado para identificar violações de direitos autorais —, mas focado agora em detectar likenesses gerados por IA, ou seja, simulações visuais ou sonoras de pessoas reais.

A tecnologia foi lançada inicialmente em parceria com a Creative Artists Agency (CAA) em dezembro de 2024, e agora entra em nova fase de testes com nomes de peso da plataforma, incluindo MrBeast, Marques Brownlee, Doctor Mike, Mark Rober, Estude Matemática e o Flow Podcast.

Durante o piloto, a empresa trabalhará diretamente com os criadores para refinar os controles, melhorar a acurácia do sistema e escalar a tecnologia ao longo de 2025. Ainda não há data definida para lançamento público.

Além da nova tecnologia, o YouTube atualizou seu processo de privacidade permitindo que usuários solicitem a remoção de conteúdos sintéticos ou alterados que simulem sua imagem sem consentimento. Também foram introduzidas ferramentas de gestão de identidade sintética, que permitem que indivíduos rastreiem e gerenciem como são representados por IA na plataforma.

Apoiado por senadores Chris Coons (D-DE) e Marsha Blackburn (R-TN), o NO FAKES Act visa criar um caminho regulatório para que indivíduos possam notificar plataformas quando sua imagem for usada de forma abusiva ou não autorizada. A proposta tem apoio da RIAA e da MPA, além de colaboração direta do YouTube em sua formulação.

“A legislação oferece uma abordagem inteligente, colocando o poder nas mãos dos indivíduos para que possam identificar e reportar deepfakes prejudiciais. Sem esse processo de notificação, as plataformas não conseguem tomar decisões informadas”,

em seu blog oficial.

Ao combinar tecnologia de detecção automatizada com uma estrutura legal emergente, o YouTube busca posicionar-se como agente ativo na regulação ética da IA generativa. No horizonte, está o desafio de proteger criadores e personalidades sem sufocar o potencial criativo da nova geração de conteúdos mediados por algoritmos.

ASSINE NOSSA NEWSLETTER

O futuro acontece aqui: esteja entre os primeiros a receber insights, tendências e oportunidades que moldam o mercado.