STF pode definir nesta quinta como redes sociais serão responsabilizadas por postagens de usuários
26/06/2025
(Foto: Reprodução) Segundo o presidente do STF, ministro Luís Roberto Barroso, se houver consenso entre os ministros, a tese será lida ainda nesta quinta. Caso contrário, o texto final será ajustado nos próximos dias. " Fachin diverge e Cármen Lúcia vota para aumentar responsabilidade das plataformas digitais
O Supremo Tribunal Federal (STF) retoma nesta quinta-feira (27) o julgamento que vai definir se redes sociais e empresas de tecnologia podem ser responsabilizadas por conteúdos publicados por usuários, mesmo sem ordem judicial prévia.
A expectativa é de que o ministro Nunes Marques apresente o último voto e que a Corte estabeleça uma tese jurídica a ser aplicada por juízes de todo o país.
Segundo o presidente do STF, ministro Luís Roberto Barroso, se houver consenso entre os ministros, a tese será lida ainda nesta quinta. Caso contrário, o texto final será ajustado nos próximos dias. "Acho que avançamos bem nos debates, acho que estão maduros", afirmou Barroso nesta quarta.
A discussão gira em torno da constitucionalidade do artigo 19 do Marco Civil da Internet, que atualmente estabelece que as plataformas só podem ser responsabilizadas por conteúdo ofensivo caso descumpram uma ordem judicial específica para remoção.
O que está em jogo
Na prática, o Supremo julga se as redes sociais devem responder civilmente por danos morais causados por conteúdos ofensivos ou ilegais – como racismo, discurso de ódio, incitação à violência e fake news – mesmo que não tenham recebido ordem judicial para apagar a postagem.
O que deve mudar
A maioria formada até agora considera que as plataformas devem ser responsabilizadas se não removerem o conteúdo após notificação extrajudicial da vítima ou de seu advogado – e se posteriormente a Justiça confirmar que o conteúdo era de fato ofensivo ou ilegal.
Há também votos defendendo a responsabilização imediata, inclusive sem notificação, em casos graves como pornografia infantil, apologia a golpe de Estado, racismo e violência.
A Corte já realizou 11 sessões sobre o tema e julga dois recursos com repercussão geral, o que significa que a decisão deverá ser seguida por todos os tribunais do país. De acordo com o Conselho Nacional de Justiça (CNJ), 344 processos estão parados aguardando essa definição.
Como votaram os ministros
Veja abaixo os pontos principais dos votos de cada ministro até agora:
Dias Toffoli
Relator de um dos recursos, Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet.
O ministro defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial.
O ministro defendeu ainda que, em situações graves, as plataformas devem retirar o conteúdo mesmo sem a notificação extrajudicial. Toffoli entendeu que se as plataformas digitais deixarem de agir, devem ser responsabilizadas.
Embaixada dos EUA diz que vai monitorar redes sociais de quem pedir visto de estudante
Luiz Fux
Relator do outro processo sobre o tema, Fux também considerou que o artigo 19 do Marco Civil fere a Constituição. Da mesma maneira que Toffoli, Fux defendeu que a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, assim que a vítima notificar a plataforma.
Para Fux, serão considerados ilícitos os conteúdos que veiculem discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e a golpe de Estado. O ministro votou para que as plataformas sejam responsabilizadas caso não ajam após notificação extrajudicial e defendeu que as empresas criem canais para receber denúncias sob sigilo e monitorem ativamente os conteúdos publicados.
Luís Roberto Barroso
O presidente do STF propôs que a responsabilização deve ocorrer quando as empresas deixarem de tomar providências necessárias para remover postagens com teor criminoso.
Nos casos de crimes contra a honra, como de injúria, calúnia e difamação, o ministro considera que a remoção do conteúdo só deve ocorrer após ordem judicial. Barroso também propôs que as empresas têm dever de cuidado e precisam evitar conteúdos como: pornografia infantil; instigação ou auxílio a suicídio; tráfico de pessoas; atos de terrorismo; abolição violenta do Estado Democrático de Direito; golpe de Estado.
Edson Fachin e Cármen Lúcia, do STF, votam no julgamento sobre responsabilidade das plataformas digitais pelo que publicam
Jornal Nacional/ Reprodução
André Mendonça
No voto apresentado na semana passada, Mendonça divergiu em parte dos demais ministros. O ministro entendeu que o artigo 19 do Marco Civil da Internet é constitucional. Afirmou, no entanto, que é preciso interpretar o trecho de acordo com a Constituição para fixar alguns pontos.
Dentre eles, que é inválida a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos ou com atividade ilícita; que as plataformas em geral têm o dever de promover a identificação do usuário violador do direito de terceiros; e que não é possível responsabilizar diretamente a rede social sem prévia decisão judicial quando há possíveis irregularidades que envolvam opiniões.
Flávio Dino
Sugeriu uma tese em que prevê: que a responsabilização dos provedores de internet, em regra, ocorrerá pelas normas do artigo 21 do Marco Civil da Internet. Este trecho da lei prevê a possibilidade de responsabilidade quando a plataforma digital não toma providências de retirada de conteúdo após uma notificação extrajudicial feita pela vítima ou advogado.
Nos casos de crime contra a honra, será aplicado o sistema previsto no artigo 19 do Marco Civil da Internet, em que a responsabilidade só pode ocorrer se a rede social não retirou o conteúdo após ordem judicial específica.
Segundo ele, as plataformas têm o dever de evitar que se façam perfis falsos. Nesse ponto, aplica-se a responsabilidade do Código de Processo Civil, cabível independentemente de prévia notificação judicial ou extrajudicial. Isso também se aplica a perfis de robôs, anúncios pagos e impulsionados. Se o provedor retirar conteúdo por dever de cuidado, o autor pode pedir a liberação na Justiça. Se a Justiça liberar a publicação, não será devida indenização do provedor ao usuário.
Cristiano Zanin
Considerou que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional". Ele propôs três critérios: no caso de conteúdo criminoso, a plataforma seria responsável por remover o conteúdo, sem a necessidade de decisão judicial.
Já a aplicação do artigo 19 seria mantida para provedores neutros (sem impulsionamento). Quando houvesse uma dúvida razoável sobre licitude do conteúdo (assim, não haveria responsabilização imediata se houver a dúvida sobre a legalidade do material).
Gilmar Mendes
Ao consolidar a maioria favorável à responsabilidade, o ministro propôs diferentes regimes de tratamento, a depender da situação em discussão. Um deles, chamado de "geral", prevê a aplicação do artigo 21 do Marco Civil da Internet - ou seja, a retirada de conteúdos pelas plataformas quando notificadas de forma privada.
O regime residual seria o do artigo 19 da mesma lei, com a exigência de ordem judicial para bloqueio de conteúdos para crimes contra a honra e conteúdos jornalísticos. Haveria também um regime de presunção, em casos de anúncios e impulsionamento remunerado.
Nessas situações, o entendimento é de que as empresas têm conhecimento do conteúdo ilícito e não será necessária a notificação prévia para a responsabilização. E, ainda, um regime especial, em que provedores seriam responsáveis por não bloquearem conteúdos imediatamente, no caso de crimes graves e material com potencial de dano grave à democracia.
Alexandre de Moraes
Apresentou o sétimo voto a favor de que empresas de tecnologia e redes sociais sejam responsabilizadas pela publicação de conteúdos ilegais ou criminosos.
Durante o julgamento, Moraes afirmou que as plataformas digitais devem ter as mesmas obrigações legais dos veículos de comunicação tradicionais em relação ao que publicam e mantêm no ar. Ele citou a presença de conteúdos com crimes de racismo, apologia a golpe de Estado e antissemitismo em redes sociais.
Moraes destacou que o julgamento não discute a limitação da liberdade de expressão, mas sim os abusos cometidos sob esse pretexto. O ministro também criticou o papel das chamadas “big techs” na moderação de conteúdo, dizendo que são elas que controlam quais ideias ganham visibilidade.
Edson Fachin
Assim como Mendonça, divergiu e considerou o trecho da lei constitucional. Na prática, entendeu que as redes sociais só podem ser responsabilizadas por conteúdos ofensivos publicados por usuários após decisão expressa da Justiça.
"A necessidade de ordem judicial para se remover conteúdo gerado por terceiros parece-me ser a única forma constitucionalmente adequada de compatibilizar a liberdade de expressão com o regime de responsabilidade ulterior", justificou Fachin.
Cármen Lúcia
A ministra acompanhou a maioria pela responsabilidade das plataformas. Entendeu que o artigo 19 do Marco Civil da Internet deve ser interpretado de acordo com a Constituição e pode ser usado em situações como crimes contra a honra.
"Plataformas hoje não atuam como atuavam em 2014. Quando estava em tramitação o projeto de lei que se transformou na lei, constou no parecer que 'a medida do artigo 19 visa proteger os diversos intermediários responsáveis apenas pela transmissão e roteamento de conteúdos, reconhecendo que a responsabilidade por eventuais infrações por danos decorrentes de conteúdo gerado por terceiros cabe àqueles que as cometeram, e não àqueles que mantêm a infraestrutura necessária para o trânsito de informações na internet'. Ocorre que hoje, quando se tem anúncio, impulsionamento, monetização, não são neutras as plataformas, não são apenas prateleiras nas quais se depositam algo que elas não têm conhecimento do que seja, e por isso mesmo o regime é de responsabilidade", declarou.