STF amplia obrigações de big techs e determina remoção de conteúdo antidemocrático.
Laura Intrieri, São Paulo, Sp (folhapress) - 26/06/2025 22:44:20 | Foto: Ton Molina/STF
O STF (Supremo Tribunal Federal) decidiu nesta quinta (26) ampliar as obrigações das plataformas digitais no Brasil ao declarar a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet.
O dispositivo, em vigor desde 2014, estabelecia que redes sociais só poderiam ser responsabilizadas por conteúdos postados por usuários se descumprissem ordem judicial de remoção.
O julgamento discutiu se essa proteção era excessiva e deixava usuários desprotegidos contra conteúdos nocivos.
Por 8 votos a 3, os ministros decidiram que a regra atual não protege adequadamente direitos fundamentais e a democracia, criando novas obrigações que entram em vigor imediatamente, mas só se aplicam a casos futuros.
A seguir, os principais pontos que mudam no funcionamento das plataformas no país.
*
LISTA DE CONTEÚDOS GRAVES COM REMOÇÃO OBRIGATÓRIA
O STF criou uma lista de conteúdos que devem ser removidos proativamente pelas plataformas, antes de haver determinação judicial:
Ataques à democracia e crimes contra o Estado democrático de Direito
Terrorismo
Induzimento ao suicídio
Discriminação racial, religiosa ou por orientação sexual
Violência contra mulheres
Crimes sexuais contra crianças e pornografia infantil
Tráfico de pessoas
As empresas não serão punidas por posts isolados que escapem, mas por "falha sistêmica" - quando deixarem de adotar medidas adequadas de prevenção e remoção desses conteúdos.
Segundo a decisão, configura falha sistêmica não atuar "de forma responsável, transparente e cautelosa" na moderação. As plataformas devem usar "os níveis mais elevados de segurança" disponíveis tecnicamente para sua atividade.
A decisão não especifica qual órgão será responsável por avaliar se houve falha sistêmica.
RESPONSABILIZAÇÃO POR NOTIFICAÇÃO EXTRAJUDICIAL
As plataformas passam a ser responsabilizadas após notificação extrajudicial (sem necessidade de ordem judicial) por conteúdos que configurem crimes ou atos ilícitos, com exceção dos crimes contra a honra.
Para crimes contra a honra, como calúnia, difamação e injúria, mantém-se a exigência de ordem judicial para responsabilização, embora a plataforma possa remover o conteúdo voluntariamente após notificação extrajudicial.
A nova regra também se aplica a contas denunciadas como falsas ou inautênticas, que devem ser analisadas após notificação.
Quando uma decisão judicial já reconheceu um conteúdo como ofensivo, suas replicações devem ser removidas por todas as plataformas após simples notificação, sem necessidade de nova ordem judicial.
CONTEÚDOS PATROCINADOS
Posts impulsionados ou anúncios pagos terão responsabilização automática das plataformas, independentemente de notificação.
Como as empresas lucram diretamente com esses conteúdos, o STF entendeu que elas devem verificar previamente sua legalidade. Se o conteúdo for ilícito, a plataforma responde mesmo sem ter sido avisada.
Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo.
Representante legal obrigatório
Todas as plataformas que atuam no Brasil deverão ter sede e representante legal no país, com poderes para responder à Justiça, cumprir determinações judiciais e pagar multas.
A medida visa facilitar a responsabilização de empresas estrangeiras que hoje operam sem estrutura jurídica no Brasil.
AUTORREGULAÇÃO
As plataformas deverão criar sistemas próprios de canais de denúncia acessíveis a usuários e não usuários, processo de análise de notificações e relatórios anuais de transparência sobre remoções.
APLICAÇÃO
Serviços de email, videoconferência e mensagens privadas (como WhatsApp) continuam seguindo a regra atual -só podem ser responsabilizados após ordem judicial, por estarem protegidos pelo sigilo de comunicações.
Marketplaces seguem respondendo pelo Código de Defesa do Consumidor.
As novas regras valem imediatamente, mas só se aplicam a casos futuros. Processos em andamento e decisões já transitadas em julgado não serão afetados.
O STF também fez apelo ao Congresso para criar legislação mais detalhada sobre o tema.
STF amplia obrigações de big techs e determina remoção de conteúdo antidemocrático
ANA POMPEU, BRASÍLIA, DF (FOLHAPRESS) - O STF (Supremo Tribunal Federal) decidiu ampliar as obrigações das plataformas de redes sociais para atuação no Brasil. A partir de agora, elas serão responsáveis civilmente caso não removam de forma pró-ativa, antes de determinação judicial, uma nova lista de conteúdos, incluindo antidemocráticos, discriminatórios ou de incitação a crimes.
O colegiado apresentou nesta quinta-feira (26) a tese final do julgamento sobre o Marco Civil da Internet, após decidir, por 8 votos a 3, aumentar a responsabilização das big techs por conteúdos publicados por usuários.
A corrente majoritária entendeu que o texto em vigor hoje é insuficiente para proteger direitos fundamentais na internet.
Embora já houvesse maioria, foi preciso fazer um acordo em torno do texto, já que havia divergências entre os magistrados sobre sua amplitude, o momento e os casos em que as empresas devem ser responsabilizadas.
O colegiado se reuniu em um almoço que teve início antes das 13h e seguiu até as 16h30, quando a sessão do STF foi iniciada.
O debate se deu em torno do artigo 19 do Marco Civil da Internet, em vigor desde 2014 e que diz que as plataformas só deverão indenizar usuários ofendidos por postagens de terceiros se descumprirem ordem judicial para remoção de conteúdo.
Foram 8 votos para a ampliação das obrigações, dos relatores Dias Toffoli e Luiz Fux, além de Luís Roberto Barroso, Cristiano Zanin, Flávio Dino, Gilmar Mendes, Alexandre de Moraes e Cármen Lúcia.
Já André Mendonça, Edson Fachin e Kassio Nunes Marques votaram contra a mudança do artigo 19.
A corte definiu que as plataformas são responsáveis por remover conteúdos que configurem as práticas de crimes graves como condutas e atos antidemocráticos, crimes de terrorismo ou preparatórios de terrorismo, crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, incitação à discriminação, crimes praticados contra a mulher, crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes.
A decisão também inclui a responsabilização dos provedores em caso de conteúdos ilícitos quando houver anúncios e impulsionamentos pagos ou com uso de robôs. Mas as plataformas ficarão isentas se comprovarem que atuaram em tempo razoável para tornar indisponível o conteúdo.
Em outro ponto da conclusão, os ministros dedicaram um trecho da decisão para tratar da presença de representante legal no Brasil de empresas que atuem no território nacional.
O ministro Alexandre de Moraes esteve envolvido em embates com o X (ex-Twitter) e o Rumble justamente pela ausência de representantes legais dessas empresas no país e o descumprimento de ordens dadas por ele.
Segundo a decisão, a representação legal das big techs deverá ser capaz de responder perante as esferas administrativa e judicial; prestar informações sobre seu funcionamento, regras e procedimentos para moderação de conteúdo e gestão das reclamações pelos sistemas internos, o perfilamento de usuários, a veiculação de publicidade e o impulsionamento remunerado de conteúdos, além de cumprir determinações judiciais.
A exceção ficou aos crimes contra a honra, porque nesses casos a retirada da exigência poderia comprometer a proteção à liberdade de expressão. Essas situações continuarão a exigir decisão judicial para que a não remoção implique em responsabilização das redes sociais.
Essa regra também segue válida para aplicações de reuniões fechadas por vídeo ou voz, de mensagens instantâneas e de emails. Os marketplaces deverão observar as regras do Código de Defesa do Consumidor.
As plataformas também deverão editar uma autorregulação que abranja, necessariamente, sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
Neste ponto, os ministros vinham debatendo a ideia de falha sistêmica das plataformas. Agora, o conceito ficou definido como deixar de adotar medidas de prevenção ou remoção dos conteúdos ilícitos listados.
Mesmo nos casos para os quais segue valendo a regra do artigo 19, os ministros entendem que os provedores de redes sociais deverão remover as publicações com conteúdos idênticos aos que já foram objeto de decisões judiciais anteriores.
Os magistrados afirmaram ser preciso um mecanismo para que conteúdos que já tiveram decisão judicial atestando para o teor criminoso também não possam ser publicados.
A tese elaborada pelo STF tem um trecho ainda com um "apelo ao legislador". "Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais."
A Câmara dos Deputados travou em 2023 a tramitação do PL das Fake News, que abordaria a regulação dos temas.
Na abertura formal da sessão desta quinta, após o almoço em que os magistrados debateram o texto final, Kassio Nunes Marques disse fazer uma defesa da liberdade de expressão e afirmou que a solução para as questões postas não seria a prévia restrição a esse direito.
"Quando há dissenso de ideias que a garantia da liberdade de expressão se faz mais necessária. É justamente por meio desse livre debate de ideias que a sociedade tende a se desenvolver", disse.
Ele defendeu a manutenção da responsabilização das big techs apenas após ordem judicial. Ele aderiu, assim, à divergência da corte que é mais favorável às plataformas. A posição ficou vencida, juntamente com Mendonça e Fachin.
O voto de Kassio foi o último do caso, que já havia formado maioria pela ampliação das obrigações das big techs por conteúdos publicados por terceiros.
O ministro disse entender conveniente que o Congresso se debruce sobre a matéria. Desde o início da discussão, o presidente da corte, Luís Roberto Barroso, enfatizou que o Supremo estava discutindo os recursos porque o Parlamento não legislou.
"O tribunal aguardou por um período bastante razoável a sobrevinda de legislação por parte do Legislativo e, não ocorrendo, chegou a hora de decidirmos esta matéria", disse, na primeira sessão sobre o caso.
O presidente voltou a mencionar o tema na sessão desta quinta. Este era um dos casos que Barroso tinha desejo de pautar e concluir durante a sua presidência, que se encerra em setembro.
Nesta quinta, o plenário fez a última de 11 sessões dedicadas ao tema. A primeira delas foi em novembro passado, quando os ministros ouviram as sustentações do caso. As duas primeiras sessões foram destinadas ao voto de um dos relatores Dias Toffoli.
À Folha o presidente do Google no Brasil, Fábio Coelho, afirmou apoiar a proposta de incluir crimes graves, exploração infantil e terrorismo nas exceções do artigo 19 do Marco Civil da Internet. A ideia se alinha às propostas mais moderadas de mudanças.
Coelho alerta, porém, para as "consequências indesejadas" caso haja uma mudança muito ampla na legislação. "Dependendo de como for essa atualização do artigo 19, isso pode nos tornar um pouco menos partícipes de todas as discussões que ocorrem no Brasil e nos levar a remover mais conteúdo no país."
Veja o que cada ministro do STF defendeu no julgamento sobre responsabilização das redes
SÃO PAULO, SP (FOLHAPRESS) - O STF (Supremo Tribunal Federal) formou ampla maioria a favor de ampliar a responsabilização das plataformas digitais por conteúdos de usuários.
Oito ministros já se posicionaram nesse sentido, e apenas três defenderam a manutenção das regras atuais.
A legislação em debate no momento é o Marco Civil da Internet, de 2014. Ele estabelece, em seu artigo 19, que as empresas só podem ser punidas por eventuais danos decorrentes de conteúdo caso ele não seja removido após ordem judicial.
Há apenas duas exceções -nudez não consentida, que está no artigo 21 do Marco Civil, e violação de propriedade intelectual. Nesses casos, basta uma notificação extrajudicial, como uma denúncia de usuário.
Os oito ministros que já se posicionaram pela mudança das regras defendem que o artigo 19 é parcial ou totalmente inconstitucional. Já os dois da posição minoritária argumentam que o dispositivo é constitucional.
Conheça o voto dos ministros sobre o tema.
FAVORÁVEIS A MUDANÇAS NA INTERPRETAÇÃO ATUAL
ALEXANDRE DE MORAES
Propôs uma categoria de conteúdos que geraria responsabilidade imediata das plataformas, mesmo que elas não tenham sido notificadas. Com isso, elas teriam que monitorar ativamente conteúdos como discurso de ódio, atentado contra a democracia, racismo, nazismo e fascismo, além de fatos sabidamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral.
CÁRMEN LÚCIA
Defendeu a declaração de inconstitucionalidade parcial do artigo 19. Ela disse entender que os ministros precisam definir os casos em que a responsabilidade das empresas deve ser maior e negou que sua posição esteja ligada a restrições à liberdade de expressão.
DIAS TOFFOLI
Relator de um dos casos em julgamento, defendeu um regime de responsabilidade objetiva para empresas de internet, incluindo desde redes sociais até Mercado Livre, Wikipedia e Amazon. Seguindo a tese de Toffoli, qualquer um pode processar essas empresas caso encontre, em suas redes, um conteúdo da lista de vedados, entre eles crimes contra o Estado democrático de Direito, atos de terrorismo ou preparatórios, induzimento a suicídio ou à automutilação, racismo, violência contra a criança e mulher, oposição a medidas sanitárias, divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física.
CRISTIANO ZANIN
Defendeu que empresas possam ser responsabilizadas independentemente de decisão judicial no caso de conteúdos manifestamente criminosos. Abriu exceção para possíveis crimes e situações de "zona cinzenta", em que não esteja clara a ilicitude do material.
FLÁVIO DINO
Defendeu que uma notificação extrajudicial seja suficiente para tornar as empresas potencialmente responsáveis por conteúdo de terceiros, com exceção de crimes contra honra. Para esses casos, ainda seria preciso ter ordem judicial. Defendeu ainda que as plataformas não sejam punidas por uma única postagem, mas pela análise da conduta geral em relação a conteúdos considerados ilícitos.
GILMAR MENDES
Propôs que seja mantida a necessidade de decisão judicial para responsabilizar as empresas no caso de crimes contra a honra e conteúdos jornalísticos, mas estabeleceu como regime geral a responsabilidade após notificação. Afirmou que a Autoridade Nacional de Proteção de Dados (ANPD) poderia atuar como órgão regulador.
LUÍS ROBERTO BARROSO
Defendeu que, em casos de ofensas e crimes contra a honra, a necessidade de decisão judicial prévia deve continuar valendo. Mas, para os demais conteúdos considerados ilícitos, a plataforma já estaria sujeita a responsabilização a partir de uma notificação extrajudicial. Já no caso de anúncios ou postagens impulsionadas mediante pagamento, a responsabilização ocorreria independentemente de notificação.
LUIZ FUX
Defendeu que as redes devem ter obrigação de monitoramento ativo sobre conteúdos evidentemente ilícitos e possam ser responsabilizadas nos casos em que tenham "ciência inequívoca" do material ou em que o mesmo tenha sido impulsionado. Disse considerar "evidentemente ilícito" "discurso de ódio, crime, racismo, mais explicitamente pedofilia, incitação à violência, apologia da abolição violenta do Estado democrático de Direito, e apologia a golpe de Estado".
CONTRA MUDANÇAS NA INTERPRETAÇÃO ATUAL
ANDRÉ MENDONÇA
Defende a constitucionalidade do artigo 19 e foi além, sugerindo tornar inconstitucional remover ou bloquear perfis de usuários em redes sociais, a não ser quando forem comprovadamente falsos -ou seja, quando se tratar de uma pessoa se passando por outra ou um perfil robô ou inautêntico.
EDSON FACHIN
Defendeu a constitucionalidade do artigo 19 do Marco Civil. Afirmou ser necessário dar maior proteção aos direitos fundamentais envolvidos no debate, mas disse que isso não deveria ser feito via Judiciário. "É péssima a experiência que este país teve na regulação dos meios de comunicação. Corremos o risco de ver temerárias ações contra jornalistas e professoras."
KASSIO NUNES MARQUES
Manifestou-se pela manutenção da atual regra para a responsabilização por conteúdos de terceiros, sob o argumento de defender a liberdade de expressão, e defendeu que o Congresso se debruce sobre o tema.
Kassio adere à linha pró-big techs, e placar fica em 8 a 3 para responsabilização de plataformas
ANA POMPEU, BRASÍLIA, DF (FOLHAPRESS) - O ministro Kassio Nunes Marques, do STF (Supremo Tribunal Federal), defendeu a manutenção da responsabilização das big techs apenas após ordem judicial. Ele aderiu, assim, à divergência da corte que é mais favorável às plataformas.
O voto, na tarde desta quinta-feira (26), foi o último do caso e já havia maioria pela ampliação das obrigações das big techs por conteúdos publicados por terceiros. A corte conclui o julgamento, assim, com 8 votos contra 3.
Até o momento, havia 10 votos dados, faltando apenas o de Kassio.
Embora já houvesse maioria para ampliar a responsabilização das plataformas, era preciso um acordo em torno do texto final do julgamento, já que havia divergências entre os magistrados sobre sua amplitude, o momento e os casos em que as empresas devem ser responsabilizadas.
Para tal, o colegiado se reuniu em um almoço que teve início por volta das 13h e seguiu até às 16h30, quando a sessão foi iniciada.
O debate se dá em torno do artigo 19 do Marco Civil da Internet, que define que as empresas só deverão indenizar usuários ofendidos por postagens de terceiros se descumprirem ordem judicial para remoção de conteúdo.
Na abertura formal da sessão, Kassio começou o voto com uma defesa da liberdade de expressão. De acordo com ele, a solução para as questões postas não é a prévia restrição a esse direito.
"Quando há dissenso de ideias que a garantia da liberdade de expressão se faz mais necessária. É justamente por meio desse livre debate de ideias que a sociedade tende a se desenvolver", disse.
O ministro disse entender conveniente que o Congresso se debruce sobre a matéria. Desde o início da discussão, o presidente da corte, Luís Roberto Barroso, enfatizou que o Supremo estava discutindo os recursos porque o Parlamento não legislou.
"O tribunal aguardou por um período bastante razoável a sobrevinda de legislação por parte do Legislativo e, não ocorrendo, chegou a hora de decidirmos esta matéria", disse, na primeira sessão sobre o caso.
Nesta quinta-feira, o plenário retomou o julgamento do caso que já toma 11 sessões. A primeira delas foi em novembro passado, quando os ministros ouviram as sustentações do caso. As duas primeiras sessões foram destinadas ao voto de um dos relatores Dias Toffoli.
À Folha de S.Paulo o presidente do Google no Brasil, Fábio Coelho, afirmou apoiar a proposta de incluir crimes graves, exploração infantil e terrorismo nas exceções do artigo 19 do Marco Civil da Internet. A ideia se alinha às propostas mais moderadas de mudanças.
Coelho alerta, porém, para as "consequências indesejadas" caso haja uma mudança muito ampla na legislação. "Dependendo de como for essa atualização do artigo 19, isso pode nos tornar um pouco menos partícipes de todas as discussões que ocorrem no Brasil e nos levar a remover mais conteúdo no país."
Comentários para "Entenda o que muda após decisão do STF sobre Marco Civil da Internet":