O Supremo Tribunal Federal (STF) formou maioria nesta semana para ampliar a responsabilidade das plataformas digitais por conteúdos publicados por seus usuários. A decisão representa um marco na interpretação do Marco Civil da Internet e pode alterar significativamente a forma como redes sociais, sites e aplicativos lidam com a moderação de conteúdo no Brasil.
Um dos votos mais emblemáticos foi o do ministro Gilmar Mendes, agora no final da tarde desta quarta-feira, que defendeu a invalidação parcial do artigo 19 do Marco Civil da Internet, sob o argumento de que o dispositivo, na forma como está redigido, é insuficiente para lidar com os desafios do ambiente digital contemporâneo. Segundo ele, o modelo atual, que restringe a responsabilização das plataformas apenas após ordem judicial para remoção do conteúdo, não responde de maneira eficaz à propagação de discursos de ódio, desinformação e ataques à democracia.

“A exigência de decisão judicial prévia como condição única para responsabilização ignora a velocidade e o impacto das redes sociais na sociedade contemporânea”, afirmou Gilmar Mendes em seu voto.
Apenas o ministro André Mendonça divergiu da tese majoritária até o momento. Os ministros Dias Toffoli, Luiz Fux, Flavio Dino, Cristiano Zanin, Gilmar Mendes e o presidente da casa, Luís Roberto Barroso, votaram pela responsabilização dos provedores de internet por publicações de terceiros.
O artigo 19, em vigor desde 2014, estabelece que provedores de aplicações de internet só podem ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial, não tomarem providências para sua retirada.
A maioria formada no STF, no entanto, entende que esse modelo não é suficiente para garantir a proteção de direitos fundamentais, como a honra, a dignidade, e até a integridade do processo democrático.
Possíveis impactos da decisão
A eventual mudança abre caminho para que plataformas sejam responsabilizadas mesmo sem ordem judicial prévia, especialmente em casos que envolvam violações evidentes ou reiteradas de direitos, como discursos de ódio, racismo, incitação à violência ou fake news.
Essa decisão também pode forçar as plataformas a investirem mais em mecanismos de moderação proativa e inteligência artificial para evitar conteúdos ilícitos, sob pena de responderem judicialmente pelos danos causados.

Apesar da maioria já formada, o julgamento ainda está em andamento e pode definir critérios objetivos sobre quando e como as plataformas devem agir, além de qual o limite entre liberdade de expressão e responsabilidade civil no ambiente digital.
A decisão do STF deve servir de parâmetro para os tribunais em todo o país e pode ser considerada uma das mais relevantes dos últimos anos no que diz respeito à regulação da internet no Brasil.











