Acontece

Últimos acontecimentos mundiais comentados e contextualizados.

Redefinida a responsabilidade das plataformas digitais

10/07/2025 · 09:24 · atualizado em 10/07/2025
Liberdade de expressão com dever de cuidado


No último 26 de junho, em sessão conclusiva, o Supremo Tribunal Federal, declarou, por 8 votos a 3, o artigo 19 do Marco Civil da Internet parcialmente inconstitucional, no que se refere à responsabilidade das plataformas digitais sobre os conteúdos publicados pelos usuários.

Quando foi sancionado, o Marco Civil da Internet (Lei nº 12.965/2014) definiu, no seu artigo 19,  que as plataformas  digitais de conteúdo só poderiam ser responsabilizadas por conteúdos ilícitos após desrespeitarem decisão judicial prévia. Essa era uma forma de proteger a liberdade de expressão e evitar censura arbitrária.

Entretanto, de lá para cá aumentou exponencialmente o volume de desinformação e os discursos de ódio proliferaram, além de práticas criminosas como a indução ao suicídio ou à automutilação, discriminação, com racismo, LGBTfobia, pornografia e tráfico de pessoas, dentre outros.

Desde 2024, o STF vinha analisando recursos extraordinários que questionavam a constitucionalidade da necessidade do rito judicial para responsabilização e com a recente decisão foram definidos três pilares:

- Responsabilização sem ordem judicial prévia
Plataformas devem remover conteúdos ilícitos mediante notificação extrajudicial enviada pela vítima. A simples notificação já aciona a responsabilidade civil se não houver retirada urgente. Crimes considerados graves não exigem ordem judicial nem notificação prévia.

- Relação de conteúdos considerados graves
O STF indicou categorias específicas cuja divulgação configura ilegalidade imediata. São elas:
•    Atos antidemocráticos e terrorismo
•    Indução ao suicídio
•    Discriminação (racismo, LGBTfobia)
•    Crimes contra mulheres, crianças e adolescentes
•    Pornografia infantil
•    Tráfico de pessoas 

-  Remodelação do sistema de autorregulação
As empresas precisam criar canais eficientes de notificação, atender a usuários e não usuários e apresentar relatórios anuais de moderação. Também devem manter pessoa jurídica local no Brasil, facilitando o atendimento das determinações judiciais.
 
A decisão também estabeleceu a diferenciação entre os crimes graves, acima listados e os crimes contra a honra, como calúnia, injúria e difamação. Para os primeiros a remoção deve ser imediata, após notificação extrajudicial, mas para os crimes contra a honra a plataforma só será responsabilizada se não cumprir ordem judicial.

Impacto prático imediato
Com essa decisão a resposta às vítimas ganha agilidade, pois não é necessário acionar o judiciário. Além disso, deverá ocorrer o fomento à autorregulação, pois  as plataformas terão que reforçar mecanismos internos, sistema de notificações e transparência.

Vale lembrar que a  decisão vale até que o Congresso edite uma nova legislação específica. 

Repercussão e críticas
Advogados e entidades, como a AGU – Advocacia Geral da União, defenderam uma postura ainda mais ativa das plataformas, vistas como parceiras na manutenção do Estado Democrático de Direito. Já as empresas alertam que responsabilização objetivada pode gerar um volume incontornável de litígios, prejudicando a operação no país.

No ambiente jurídico, o destaque foi a adoção do “dever de cuidado” (“duty of care”), o qual exige que as plataformas monitorem e atuem preventivamente. 

A decisão do Supremo Tribunal Federal representa uma virada significativa na regulação da internet no Brasil, buscando equilibrar proteção à liberdade de expressão com responsabilidade pelo conteúdo nocivo. Ao tornar as redes socialmente proativas — principalmente em casos graves —, a Corte tenta estancar a proliferação de conteúdo tóxico, discurso de ódio e desinformação.

Utilizamos cookies e outras tecnologias semelhantes para melhorar a sua experiência em nosso site. Ao continuar, você concorda com nossa política de privacidade.