Destaque
Dinamarca dá passo decisivo para blindar cidadãos contra abusos da inteligência artificial, Brasíl começa a discutir o assunto
Foto: Pixels
A Dinamarca está na linha de frente de uma discussão cada vez mais urgente: o uso indevido da imagem e da voz das pessoas por meio de tecnologias de inteligência artificial. Com a ascensão de montagens digitais hiper-realistas, o governo propôs uma legislação que permite aos cidadãos solicitar a remoção de vídeos, áudios ou fotos gerados por IA sem consentimento.
A medida surge como resposta ao avanço dos chamados deepfakes — conteúdos manipulados digitalmente que podem induzir ao erro, ferir reputações ou gerar implicações legais. A proposta reforça o direito à identidade digital, colocando a ética e a privacidade no centro do debate sobre tecnologia.
O foco é simples, mas poderoso: garantir que ninguém seja transformado digitalmente sem sua permissão. A iniciativa também deve impulsionar a discussão internacional sobre limites e responsabilidades no desenvolvimento da IA generativa.
O mundo reage aos deepfakes: como diferentes países estão protegendo imagem e voz
Com o avanço da inteligência artificial e a popularização dos deepfakes, diversos países estão criando leis para proteger a identidade digital dos cidadãos. Veja como algumas nações estão lidando com esse desafio:
Dinamarca
– Propôs uma lei que garante aos cidadãos o direito de pedir a remoção de vídeos, áudios e imagens gerados por IA sem consentimento.
– A proposta inclui indenizações e responsabilização das plataformas digitais.
– Paródias e sátiras continuam permitidas.
– A Dinamarca quer levar essa pauta à União Europeia para criar um padrão legal europeu.
União Europeia
– O AI Act classifica conteúdos gerados por IA em categorias de risco e exige transparência para deepfakes, como marca d’água e aviso de origem.
– A diretiva sobre violência contra mulheres criminaliza a criação de conteúdo sexual falso com IA.
– Países têm até 2027 para implementar essas regras.
França
– Atualizou seu código penal para proibir o compartilhamento de deepfakes sem consentimento.
– Penalidades incluem até 3 anos de prisão e multas de até €75 mil para conteúdos pornográficos falsos.
– A Arcom, agência reguladora, pode obrigar plataformas a remover conteúdos ilícitos.
Reino Unido
– Leis recentes punem a criação de pornografia deepfake com até 2 anos de prisão.
– A Lei de Segurança Online obriga plataformas a remover proativamente imagens sexuais não consentidas.
– Multas podem chegar a 10% da receita global das empresas.
BRICS (incluindo Brasil)
– Defendem o pagamento de direitos autorais pelo uso de dados em IA.
– Reivindicam governança global da IA que atenda às necessidades dos países do Sul Global.
– O Brasil ainda não tem uma lei específica, mas há discussões em andamento sobre regulação.







