Saiba o que muda para usuários das redes sociais no Brasil
Sexta, 27 de Junho de 2025
Márcia Pinheiro

Imagem: Ilustrativa / Freepik
O Supremo Tribunal Federal decidiu, por 8 votos a 3, ampliar a responsabilidade das redes sociais por conteúdos publicados pelos usuários. A partir de agora, as plataformas podem ser responsabilizadas por crimes e contas falsas, mesmo sem a exigência de uma ordem judicial. Mas ficou estabelecida uma exceção para os crimes contra a honra. Para casos de calúnia, injúria e difamação, vale a regra atual, que diz que só haverá responsabilização após decisão da Justiça.
A decisão inédita altera profundamente a forma como as big techs atuam no Brasil, um dos maiores mercados globais para plataformas como Google (proprietário do YouTube), TikTok e Meta (controladora de Facebook, Instagram e WhatsApp).
Por 8 votos a 3, os ministros julgaram que o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é parcialmente constitucional, abrindo caminho para que plataformas digitais sejam responsabilizadas por conteúdos ilegais publicados por terceiros, mesmo sem ordem judicial prévia.
O que muda com a decisão
Criado em 2014, o Marco Civil da Internet previa que as plataformas só poderiam ser responsabilizadas por danos decorrentes de publicações de usuários se não retirassem o conteúdo ilegal após decisão judicial. Essa regra visava proteger a liberdade de expressão e evitar censura online.
No entanto, o STF entendeu que, diante do avanço de conteúdos de desinformação, discursos de ódio e postagens antidemocráticas, a exigência de ordem judicial prévia compromete a proteção de direitos fundamentais e a própria democracia.
A partir de agora, redes sociais e outras plataformas digitais poderão ser responsabilizadas civilmente se não removerem conteúdos ilegais após serem notificadas extrajudicialmente pelos envolvidos — sem necessidade de decisão judicial.
Publicações com remoção imediata
O STF também estabeleceu que conteúdos relacionados a crimes graves devem ser removidos imediatamente após notificação, sob pena de as plataformas responderem por danos morais e materiais causados a terceiros.
Entre os tipos de conteúdo que exigem retirada imediata estão:
-
Atos antidemocráticos;
-
Crimes de terrorismo;
-
Indução, instigação ou auxílio ao suicídio ou automutilação;
-
Incitação à discriminação por raça, cor, etnia, religião, origem nacional, sexualidade ou identidade de gênero (inclusive homofobia e transfobia);
-
Crimes contra a mulher por razão de gênero, incluindo conteúdos de ódio ou aversão ao sexo feminino;
-
Crimes sexuais contra pessoas vulneráveis, pornografia infantil e outras graves violações contra crianças e adolescentes.
Impacto para big techs no Brasil
Com a nova interpretação do STF, o Brasil passa a exigir uma atuação mais ativa das big techs no monitoramento e remoção de conteúdos ilegais, ampliando as responsabilidades das empresas sobre o que circula em suas plataformas.
A decisão sinaliza uma mudança de paradigma no equilíbrio entre liberdade de expressão e responsabilidade digital, com repercussões significativas para o futuro da regulação da internet no país.
Reação popular
Nas redes sociais, internautas se dividiram nas opiniões relacionadas ao tema. Enquanto uns veem na decisão do STF uma forma de combater as fake news Outros afirmam que controlar as redes sociais é uma decisão que não combina com um país que se diz democrático. Alguns chegam a temer que o Brasil fique cada vez mais parecido com a Venezuela.
Nesta semana, uma jovem, de 25 anos, foi condenada a dez anos de prisão por, segundo a Justiça, incitar o ódio ao publicar uma crítica nas redes sociais ao governo Maduro, e questionar o resultado das eleições que mantiveram o ditador no poder.