YouTube amplia combate a deepfakes com IA e apoia projeto de lei sobre uso de imagem

O YouTube anunciou nesta quarta-feira a expansão de seu projeto-piloto de detecção de conteúdos sintéticos que replicam, via inteligência artificial, vozes e rostos de criadores, artistas e figuras públicas. Paralelamente, a plataforma declarou apoio público à legislação NO FAKES Act, proposta bipartidária que busca proteger o direito de imagem e voz na era da IA generativa. A iniciativa reforça o movimento da empresa para equilibrar liberdade criativa com responsabilidade tecnológica.

YouTube expande testes para detectar deepfakes e apoia legislação sobre uso de imagem por inteligência artificial

O YouTube anunciou nesta quarta-feira a expansão de seu projeto-piloto voltado à detecção de conteúdos sintéticos gerados por inteligência artificial, com foco em simulações de vozes e rostos de figuras públicas. A empresa também declarou apoio ao projeto de lei bipartidário NO FAKES Act, que visa regulamentar o uso de imagem e voz na era da IA generativa.

O novo sistema é inspirado no Content ID, já utilizado para identificar infrações de direitos autorais, e agora adaptado para reconhecer likenesses criados por IA. A tecnologia foi inicialmente implementada em dezembro de 2024 em parceria com a Creative Artists Agency (CAA) e entra em nova fase de testes com criadores renomados como MrBeast, Marques Brownlee, Doctor Mike, Mark Rober, Estude Matemática e o Flow Podcast.

Durante a fase atual, o YouTube colaborará com os criadores para melhorar a acurácia do sistema e ampliar seu alcance até o final de 2025. Ainda não há previsão para o lançamento público da ferramenta.

A plataforma também atualizou suas diretrizes de privacidade, permitindo que usuários solicitem a remoção de vídeos que simulem sua imagem de forma não consentida. Novas ferramentas de gestão de identidade sintética também foram lançadas, permitindo maior controle sobre como as pessoas são representadas por IA.

O NO FAKES Act, apoiado por senadores como Chris Coons (D-DE) e Marsha Blackburn (R-TN), busca formalizar um processo de notificação para que indivíduos possam solicitar a remoção de conteúdos abusivos. A proposta conta com o respaldo da RIAA, da MPA e colaboração ativa do YouTube.

Segundo o blog oficial da plataforma, “a legislação oferece uma abordagem inteligente, colocando o poder nas mãos dos indivíduos para que possam identificar e reportar deepfakes prejudiciais. Sem esse processo de notificação, as plataformas não conseguem tomar decisões informadas”.

Ao unir tecnologia de detecção automatizada e base legal, o YouTube se posiciona como protagonista na regulação ética da inteligência artificial, buscando proteger criadores sem limitar o potencial criativo das novas mídias.

Continue a sua leitura:

ASSINE NOSSA NEWSLETTER

O futuro acontece aqui: esteja entre os primeiros a receber insights, tendências e oportunidades que moldam o mercado.