Sem impunidade online

STF forma maioria para responsabilizar redes sociais por postagens criminosas

STF forma maioria para permitir que plataformas digitais sejam responsabilizadas por não removerem conteúdos criminosos, mesmo sem decisão judicial.

Freepik. Ilustrativa.
Freepik. Ilustrativa.

Brasil — O Supremo Tribunal Federal (STF) formou maioria, nesta quarta-feira (11), para permitir que plataformas digitais como Google, Meta e X (antigo Twitter) sejam responsabilizadas civilmente por não removerem conteúdos criminosos — mesmo sem ordem judicial. A exceção vale para publicações relacionadas a crimes contra a honra, como calúnia, difamação e injúria.

O que muda?

Se o entendimento for consolidado, as big techs terão obrigação de agir quando forem notificadas sobre conteúdos ilícitos. Isso pode forçá-las a agir de forma mais rápida contra:

  • discursos de ódio,
  • apologia ao terrorismo,
  • incentivo à automutilação ou suicídio,
  • crimes contra crianças e adolescentes,
  • ataques ao Estado democrático de Direito.

Mesmo sem uma decisão judicial, a notificação extrajudicial de um usuário poderá ser suficiente para exigir a retirada do conteúdo. Caso não cumpram, as plataformas poderão ser responsabilizadas judicialmente.

Quem votou a favor da mudança?

Já se posicionaram a favor da ampliação da responsabilidade:

  • Flávio Dino
  • Cristiano Zanin
  • Gilmar Mendes
  • Dias Toffoli
  • Luiz Fux
  • Luís Roberto Barroso

Esses ministros argumentam que a regra atual do Marco Civil da Internet (artigo 19), que exige decisão judicial prévia para responsabilizar uma empresa, não é mais suficiente para o cenário digital atual.

O ministro André Mendonça foi o único, até agora, a defender a manutenção do modelo atual, com responsabilização só após decisão judicial.

Debates em torno da regulação

O STF também discute a possível criação de um órgão fiscalizador. Gilmar Mendes sugeriu uma entidade nos moldes da Autoridade Nacional de Proteção de Dados (ANPD). Já Barroso defende um órgão colegiado com participação da sociedade civil, para evitar riscos à liberdade de expressão.

Reação das plataformas

O Google demonstrou preocupação. O presidente de Assuntos Globais da empresa, Kent Walker, afirmou que a nova regra pode levar à remoção em massa de conteúdos legítimos, inclusive com valor político.

“O diabo está nos detalhes”, disse Walker, que está em Brasília acompanhando o julgamento.

O STF ainda precisa modular uma tese final, definindo com clareza os limites da responsabilidade das plataformas. A decisão impactará diretamente como conteúdo é moderado nas redes sociais no Brasil.