STF avança no julgamento sobre responsabilidade das plataformas por conteúdos de usuários
Julgamento sobre responsabilidade das plataformas digitais sobre o conteúdo publicado começou nesta semana

Na última quinta-feira, 5, o Supremo Tribunal Federal (STF) deu continuidade ao julgamento de uma ação importante sobre a responsabilidade civil das plataformas digitais por conteúdos publicados por seus usuários. Até o momento, apenas o ministro relator, Dias Toffoli, proferiu o seu voto. Ele defendeu a redução da imunidade das empresas e considerou inconstitucional um dispositivo do Marco Civil da Internet, que está em vigor desde 2014.
O julgamento no STF analisa a constitucionalidade do artigo 19 do Marco Civil da Internet. Este artigo estabelece que a responsabilização das plataformas só se aplicaria aos conteúdos de terceiros quando desobedecerem uma ordem judicial de remoção específica.
Análise da Inconstitucionalidade do Artigo 19 do Marco Civil da Internet
O voto de Toffoli, que se estendeu por três sessões, encerrou-se na quinta-feira. O ministro considerou o artigo 19 inconstitucional. Segundo ele, as plataformas devem ser mais responsabilizadas por conteúdos nocivos e precisam analisar as notificações feitas pelos usuários sobre conteúdos irregulares. Essa mudança representa a possibilidade de punição sem a necessidade de uma ordem judicial ou notificação extrajudicial.
O presidente do STF, Luís Roberto Barroso, manifestou o desejo de concluir o julgamento antes do recesso judicial, que começa no dia 20 de dezembro e vai até fevereiro. No entanto, o julgamento pode continuar em 2025. Além deste caso, o STF também irá analisar uma ação relatada pelo ministro Luiz Fux, envolvendo uma indenização de R$ 21 mil contra o Google, movida por uma professora.
Marco Civil da Internet e a Imunidade das Plataformas
O artigo 19 do Marco Civil da Internet, sancionado pela ex-presidente Dilma Rousseff (PT), impede a responsabilização das plataformas por conteúdos postados por seus usuários, exceto quando houver descumprimento de ordens judiciais para remoção de publicações.
De acordo com a lei, as plataformas só são obrigadas a remover conteúdos em duas situações: quando há violação de direitos autorais ou quando ocorre a divulgação não autorizada de fotos íntimas. Toffoli considerou esse artigo inconstitucional por conferir uma “imunidade” às empresas de tecnologia, o que, segundo ele, deixa os usuários desprotegidos em um contexto de crescente violência digital, como cyberbullying, fraudes, discurso de ódio e fake news.
Mudança na Responsabilização das Plataformas com Base em Notificações de Usuários
No voto, Toffoli sugeriu que qualquer usuário possa solicitar a remoção de um conteúdo nas redes sociais, sem precisar de uma ordem judicial ou notificação extrajudicial. Caso as plataformas não cumpram essa solicitação, o usuário poderá ser indenizado.
Toffoli propôs um “sistema de notificação e análise”, no qual, ao receber a notificação de um usuário, a plataforma terá a responsabilidade de analisar o conteúdo questionado e decidir se deve removê-lo. As plataformas podem ser punidas por manter conteúdos criminosos ou por remover indevidamente conteúdos regulares.
Tipos de Conteúdos que Podem Provocar a Responsabilização das Plataformas
Durante o julgamento, Toffoli destacou 12 tipos de conteúdos que as plataformas devem remover, mesmo sem notificação extrajudicial. Esses conteúdos incluem práticas como:
- Crimes contra o Estado Democrático de Direito
- Terrorismo ou preparações para terrorismo
- Incitação ao suicídio ou à automutilação
- Racismo
- Violência contra crianças e pessoas vulneráveis
- Crimes contra a mulher
- Fraudes em situações de emergência sanitária
- Tráfico de pessoas
- Incitação à violência física ou sexual
- Divulgação de fake news que incitem violência ou prejudiquem processos eleitorais
- Perfis falsos
Responsabilidade das Plataformas sobre Anúncios Irregulares
Além de lidar com a remoção de conteúdos nocivos, Toffoli também abordou a regulamentação dos anúncios nas plataformas. Ele propôs também a responsabilização das plataformas de comércio eletrônico por permitirem anúncios de produtos ilegais ou sem a devida certificação. Esse é o caso, das TV Boxes, cuja comercialização a Anatel proíbe.
Prazos para o Congresso Nacional Regulamentar a Violência Digital
Toffoli também sugeriu um prazo de 18 meses para que o Congresso Nacional aprove uma legislação que enfrente a violência digital e a desinformação. Durante a sessão, o presidente Barroso lembrou que o Judiciário aguardou por um período razoável para que o Congresso agisse sobre o tema. Contudo, como isso não ocorreu, o Supremo decidiu avançar no julgamento.
Além disso, na Câmara dos Deputados, o Projeto de Lei 2630/2020, conhecido como “Lei das Fake News”, está parado desde abril do ano passado, sem avanços significativos.
As informações são Estadão Conteúdo.