O Supremo Tribunal Federal (STF) formou maioria para permitir a responsabilização civil de redes sociais e plataformas digitais por danos causados por conteúdos ilícitos publicados por seus usuários. A decisão representa uma mudança significativa na aplicação do artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que desde 2014 vinha exigindo ordem judicial para que plataformas fossem responsabilizadas.
O que está sendo decidido
Atualmente, o artigo 19 do Marco Civil determina que uma plataforma só pode ser responsabilizada caso descumpra uma ordem judicial de remoção de conteúdo. Ou seja, se alguém publica algo ilícito e a plataforma só é acionada judicialmente, ela só responderá caso ignore essa ordem.
O STF, no entanto, entendeu que esse modelo está defasado e não oferece respostas rápidas ou eficazes diante do volume e da gravidade de conteúdos que circulam nas redes — como discursos de ódio, incitação à violência, ataques contra a democracia e conteúdos que coloquem crianças e adolescentes em risco.
O novo entendimento
Com o placar parcial de 6 votos a 1, a Corte sinaliza que as redes sociais poderão ser responsabilizadas mesmo sem decisão judicial prévia, desde que o conteúdo seja considerado "manifestamente ilícito". Isso inclui postagens com clara violação de direitos fundamentais ou infrações penais evidentes.
Alguns ministros defenderam que a notificação extrajudicial — feita diretamente à plataforma — seja suficiente em determinados casos. Para o ministro Cristiano Zanin, por exemplo, não há razão para manter no ar conteúdos claramente criminosos, como incitação ao nazismo ou incentivo ao suicídio. Já o ministro Luís Roberto Barroso defendeu que, embora crimes contra a honra exijam ordem judicial, outros tipos de conteúdo podem ser removidos com base em notificação.
Voto divergente
O único voto contrário até agora foi do ministro André Mendonça. Ele defendeu a manutenção do modelo atual, argumentando que as plataformas não devem ser penalizadas por atos de terceiros antes de decisão judicial. Segundo ele, a responsabilização direta pode gerar riscos à liberdade de expressão e abrir espaço para abusos.
Impacto para as plataformas
Caso a tese jurídica seja consolidada nos termos discutidos até agora, empresas como Google, Meta, TikTok e X (antigo Twitter) precisarão adotar mecanismos mais ágeis e preventivos de moderação. Isso exigirá investimentos em monitoramento de conteúdo, revisão de políticas internas e ampliação das equipes de análise.
As empresas se manifestaram contrárias à mudança. O Google afirmou que a responsabilização sem ordem judicial cria insegurança jurídica e pode gerar excesso de remoções, prejudicando o debate público. Já a Meta e o TikTok destacaram riscos de censura prévia e alertaram que o modelo pode comprometer a liberdade de expressão online.
O que ainda falta decidir
Apesar da maioria formada, o julgamento foi suspenso. Os ministros ainda precisam consolidar a tese jurídica, ou seja, definir de forma clara em quais situações específicas as plataformas poderão ser responsabilizadas e quais os limites dessa responsabilização.
Essas definições são cruciais para orientar o Judiciário, as empresas e os usuários sobre o que será considerado responsabilidade civil das plataformas e o que continuará exigindo ação judicial prévia.
Um novo marco na regulação da internet
A decisão do STF marca o início de uma transformação relevante no ambiente digital brasileiro. Desde sua criação, o Marco Civil da Internet foi considerado um dos marcos legais mais avançados do mundo na defesa da liberdade de expressão online. No entanto, com o avanço de conteúdos violentos, campanhas de desinformação e ataques coordenados, a pressão para atualizar esse entendimento cresceu.
A expectativa é que a nova interpretação exija uma conduta mais ativa das plataformas e fortaleça o combate a conteúdos ilícitos, mas o desafio será encontrar o equilíbrio entre responsabilização e garantia das liberdades individuais.