Agora é lei: manipular imagem para constranger virou crime grave

Agora é lei: manipular imagem para constranger virou crime grave

Nova lei aumenta a pena para quem usa deepfakes, áudios e imagens manipuladas para atacar a dignidade de mulheres.


Jordão Vilela
Por Jordão Vilela

Você já imaginou que uma montagem ou um áudio manipulado, usado como “brincadeira”, agora pode render cadeia? Pois é, o que antes parecia apenas uma piada de mau gosto ganhou um peso muito maior com a nova Lei nº 15.123 de 2025, que torna mais grave a pena para quem usa tecnologia para praticar violência psicológica contra mulheres.

Quando a tecnologia vira arma contra a dignidade

Deepfakes, vozes clonadas por inteligência artificial, fotos manipuladas e até vídeos editados para humilhar ou desacreditar alguém. Tudo isso, quando usado para atacar, expor ou desestabilizar emocionalmente uma mulher, agora passa a ter punições mais severas. A lei reconhece que a dor psicológica não é invisível e que a tecnologia, infelizmente, virou uma ferramenta poderosa nas mãos de quem deseja ferir.

Por que essa mudança importa tanto?

Antes, muitas vítimas ficavam sem respaldo suficiente quando eram alvo de ataques digitais. Agora, além de reconhecer a gravidade desse tipo de violência, a legislação aumenta a pena em até metade quando a manipulação tecnológica é usada. Isso mostra que o impacto emocional de uma “edição maldosa” é tão destrutivo quanto uma agressão direta.

Ataques invisíveis, danos profundos

A violência psicológica costuma ser silenciosa e difícil de provar. Um áudio alterado pode arruinar reputações, uma montagem pode destruir relacionamentos e um vídeo editado pode deixar marcas emocionais duradouras. A nova lei, que já está em vigor desde 24 de abril de 2025, busca frear justamente esses ataques invisíveis que corroem a autoestima e a dignidade de muitas mulheres.

Curiosidade que vale saber

Você sabia que os deepfakes surgiram inicialmente para fins artísticos e cinematográficos? Porém, rapidamente passaram a ser usados para manipular imagens de pessoas comuns, gerando humilhações públicas. Estima-se que mais de 90% dos deepfakes disponíveis na internet até hoje foram feitos com mulheres como alvo, principalmente em contextos abusivos.

Reportar um erro

Encontrou um erro neste conteúdo? Descreva o problema abaixo e nossa equipe verificará.

Reportar-erro

Compartilhar

Sobre o autor

Jordão Vilela

Jordão Vilela é publicitário, criador de conteúdo e curioso por natureza. Apaixonado por cultura, ciência, comportamento e tudo aquilo que faz a gente parar e pensar “já imaginou isso?”.

Saiba mais

Veja também