YouTube expande testes para detectar deepfakes e apoia legislação sobre uso de imagem por inteligência artificial
O YouTube anunciou nesta quarta-feira a expansão de seu projeto-piloto voltado à detecção de conteúdos sintéticos gerados por inteligência artificial, com foco em simulações de vozes e rostos de figuras públicas. A empresa também declarou apoio ao projeto de lei bipartidário NO FAKES Act, que visa regulamentar o uso de imagem e voz na era da IA generativa.
O novo sistema é inspirado no Content ID, já utilizado para identificar infrações de direitos autorais, e agora adaptado para reconhecer likenesses criados por IA. A tecnologia foi inicialmente implementada em dezembro de 2024 em parceria com a Creative Artists Agency (CAA) e entra em nova fase de testes com criadores renomados como MrBeast, Marques Brownlee, Doctor Mike, Mark Rober, Estude Matemática e o Flow Podcast.
Durante a fase atual, o YouTube colaborará com os criadores para melhorar a acurácia do sistema e ampliar seu alcance até o final de 2025. Ainda não há previsão para o lançamento público da ferramenta.
A plataforma também atualizou suas diretrizes de privacidade, permitindo que usuários solicitem a remoção de vídeos que simulem sua imagem de forma não consentida. Novas ferramentas de gestão de identidade sintética também foram lançadas, permitindo maior controle sobre como as pessoas são representadas por IA.
O NO FAKES Act, apoiado por senadores como Chris Coons (D-DE) e Marsha Blackburn (R-TN), busca formalizar um processo de notificação para que indivíduos possam solicitar a remoção de conteúdos abusivos. A proposta conta com o respaldo da RIAA, da MPA e colaboração ativa do YouTube.
Segundo o blog oficial da plataforma, “a legislação oferece uma abordagem inteligente, colocando o poder nas mãos dos indivíduos para que possam identificar e reportar deepfakes prejudiciais. Sem esse processo de notificação, as plataformas não conseguem tomar decisões informadas”.
Ao unir tecnologia de detecção automatizada e base legal, o YouTube se posiciona como protagonista na regulação ética da inteligência artificial, buscando proteger criadores sem limitar o potencial criativo das novas mídias.
Continue a sua leitura: