⚖️ STF muda regra do Marco Civil da Internet e responsabiliza redes sociais por discurso de ódio
Você já parou para pensar em quem realmente é responsável por um post de ódio na internet?
Até pouco tempo atrás, a resposta era simples: apenas o autor. Mas agora, o Supremo Tribunal Federal (STF) mudou as regras do jogo.
Em uma decisão histórica publicada nesta quarta-feira (5), o STF alterou a interpretação do artigo 19 do Marco Civil da Internet, fazendo com que plataformas como X (antigo Twitter), YouTube, TikTok e Instagram possam ser responsabilizadas pelo conteúdo publicado em suas redes.
A medida promete transformar o funcionamento das big techs no Brasil, e talvez marcar o início de uma nova era digital.
O que muda com a decisão do STF
Até então, as plataformas só poderiam ser punidas caso não removessem um conteúdo após uma ordem judicial. Agora, o Supremo entende que o dever de agir vem antes disso.
“As empresas devem prevenir e coibir publicações que configurem crimes de ódio e discriminação”, diz o texto da decisão.
Isso significa que as redes terão de manter mecanismos de monitoramento e respostas mais rápidas às denúncias de racismo, homofobia, transfobia e outros discursos discriminatórios.
A decisão não altera o Marco Civil da Internet, mas muda profundamente sua aplicação. Ela cria uma exceção ao artigo 19, abrindo espaço para responsabilização direta das plataformas em casos de discurso de ódio e discriminação.
Brasil se aproxima das regras da União Europeia
Com essa mudança, o Brasil se alinha a legislações internacionais como o Digital Services Act (DSA), em vigor na União Europeia.
Essa lei é considerada uma das mais rigorosas do mundo e obriga grandes plataformas a adotarem políticas ativas de proteção aos usuários, especialmente contra conteúdos que incitem ódio ou violência.
O STF entende que a internet brasileira precisa de mais transparência e responsabilidade — um passo importante para um ambiente digital mais seguro.
Big techs terão de se adaptar
A decisão do Supremo tem efeito vinculante, o que significa que ela vale para todo o país e deve orientar futuras decisões judiciais.
Na prática, isso obriga empresas como Meta, Google e X a revisarem suas políticas internas de moderação.
Cada denúncia ignorada, cada publicação discriminatória não removida a tempo, pode gerar responsabilidade legal.
Mas há um contraste curioso: enquanto o STF aperta as regras, muitas dessas mesmas empresas estão flexibilizando suas políticas internas.
A Meta, por exemplo, revisou sua política de conduta odiosa, suavizando restrições a falas desumanizantes contra minorias.
Já o X, sob o comando de Elon Musk, reduziu drasticamente as equipes de moderação e reintegrou contas que antes haviam sido banidas por discurso de ódio.
A contradição é clara: enquanto o STF quer mais controle, as redes parecem caminhar na direção oposta.
⚖️ Um novo capítulo na liberdade de expressão
A decisão do STF reacende um debate delicado: até onde vai a liberdade de expressão?
Os ministros afirmam que o objetivo não é censurar opiniões, mas responsabilizar comportamentos que incentivem a discriminação e a violência.
Para juristas e especialistas, a medida marca um novo paradigma jurídico no Brasil, onde a proteção aos direitos humanos passa a se sobrepor à neutralidade das plataformas.
“Liberdade de expressão não é liberdade para propagar ódio”, resumem especialistas em direito digital.
O que acontece agora
Com a decisão publicada, o texto dos acórdãos dos Recursos Extraordinários 1.037.396 e 1.057.258 passa a valer como referência legal.
Tribunais de todo o país deverão seguir o entendimento, e as plataformas terão que apresentar planos de moderação mais robustos.
Nos bastidores, o movimento é visto como um divisor de águas.
De um lado, defensores da democracia digital comemoram a responsabilização das empresas. Do outro, críticos alertam para o risco de censura e moderação excessiva.
O certo é que o Brasil acaba de entrar em uma nova fase da internet, onde postar pode ser mais seguro, mas também mais vigiado.