UOL - O melhor conteúdo
COLUNA

Francisco Brito Cruz

O day after do Marco Civil

O que aconteceria se as empresas de internet tivessem que responder pelo que usuários publicam de maneira imediata, mesmo sem que haja uma denúncia?

21 de Março de 2025

Imaginar como será o dia seguinte de decisões políticas e jurídicas pode ajudar muito a pensarmos se vale a pena tomá-las. É um jeito de pensar junto, construtivamente. Proponho aqui um exercício de ficção sobre um caso muito importante que o Supremo Tribunal Federal está julgando, o do Marco Civil da Internet. O que aconteceria com a internet brasileira se uma tese (importante) que está em discussão fosse adotada? A tese de que empresas de internet devem responder pelo que usuários publicam em serviços de maneira imediata, mesmo sem que haja uma denúncia.

***

Meio do ano de 2025, o Supremo caminha para terminar o julgamento sobre a “responsabilidade das redes sociais”. Dois casos. Um iniciado 11 anos antes, quando uma senhora de Capivari/SP decidiu processar o Facebook por conta de um perfil falso criado em seu nome. O outro, mais antigo, tratava de uma professora que processou o Google em razão de uma comunidade que fazia troça dela na rede social pré-histórica Orkut. Anos depois, os dois casos chegaram até a mais alta corte do país, questionando um artigo importante do Marco Civil.

O artigo em questão é o 19. A senhora de Capivari questionava essa norma porque via ali um obstáculo para conseguir uma indenização do Facebook pelo que ocorreu. Segundo o artigo, a empresa somente estava obrigada a remover o tal perfil se o Judiciário tivesse se manifestado para isso. Conforme esclareceram seus advogados, a conta até teria sido removida de bom grado mediante denúncia legítima, mas não o foi porque a denúncia teria sido feita por um terceiro, sem saber se tinha a ciência da dona da identidade verdadeira. Se não havia obrigação de remover, a empresa nada desobedeceu e não devia indenização alguma à senhora.

Imaginemos. Terminado o julgamento, prevalece a tese de que essa regra do Marco Civil não é compatível com a Constituição brasileira, devendo ser extinta do sistema. A justificativa central é que o artigo 19 estabelece uma hierarquia de direitos, conferindo à liberdade de expressão um peso que precisa ser reconsiderado. A responsabilidade das empresas deve existir mesmo diante de uma mera denúncia, argumenta-se. E mais do que isso: qualquer provedor de internet que permite que usuários postem conteúdo deve ser responsabilizado “objetivamente” (ou seja, independentemente de denúncia ou de culpa pelo dano ter sido causado) a indenizar qualquer prejuízo, em uma série de hipóteses.

Imaginar como será o dia seguinte de decisões políticas e jurídicas pode ajudar muito a pensarmos se vale a pena tomá-las

A tese que predomina diz que quando o conteúdo é “recomendado” pelo provedor, como uma lista de resultados de busca, responde mesmo sem culpa. Violou direito de autor, responde independentemente de denúncia. Quando o conteúdo é desinformativo e causa danos, responsabilidade mesmo sem culpa. Outros posicionamentos que não convenceram defendiam um meio-termo, com maior responsabilização após denúncias (sem necessidade de acionar o Judiciário), mas ressalvando que em casos de defesa da honra a ordem judicial era importante para decidir se a publicação era de fato ofensiva.

A decisão do Supremo desencadeia conversas difíceis entre matrizes e filiais dos grandes provedores de internet. “Worst case scenario” diziam. O entendimento da Corte, ao derrubar o artigo 19, impôs às plataformas de qualquer porte a obrigação de analisar e filtrar previamente tudo que fosse publicado pelos usuários e que pudesse ser considerado “recomendado” ou “moderado”. Da lista de resultados na busca ao post de um canal que em algum momento foi “recomendado” para ser seguido, a regra valia para quase tudo. Preferem reduzir custos, automatizar filtros de moderação e priorizar conteúdo estrangeiro, menos arriscado juridicamente. Uma nova era começa, marcada por ferramentas imperfeitas de inteligência artificial para a detecção de conteúdo “problemático” e uma onda de bloqueios preventivos para evitar o novo “risco Brasil digital”.

O impacto é sentido de imediato. Na semana seguinte à decisão, o Instagram remove milhares de posts que mencionavam a palavra “Palestina”. Usuários que compartilham conteúdos sobre a ocupação e os ataques contra civis palestinos viram suas contas suspensas sem explicação. Um popular jornalista independente, conhecido por sua cobertura crítica ao governo israelense, tem seu canal do YouTube desmonetizado e posteriormente apagado. A justificativa? “Risco jurídico elevado”. Diante da insegurança, as plataformas preferem filtrar amplamente do que correr o risco de processos milionários.

Paralelamente, figuras poderosas podem começar a usar o novo quadro para limpar sua reputação. Um dos primeiros é um deputado federal, incomodado com a repercussão de um caso “pessoal” que envolvia violência doméstica. Após dezenas de notificações extrajudiciais, consegue o que queria. Qualquer publicação que insinuasse seu envolvimento é apagada rapidamente, sem que houvesse necessidade de uma decisão judicial. Ele não está sozinho: empresários investigados por fraudes, políticos desgastados e até celebridades envolvidas em polêmicas passaram a acionar advogados para fazer o mesmo. As redes, sob a ameaça de pesadas indenizações, cumprem prontamente. A desigualdade de acesso a justiça acaba por reforçar que a “honra” no Brasil tem classe e raça.

O próprio poder Judiciário se vê numa encruzilhada. Centenas de milhares de ações indenizatórias são ajuizadas contra plataformas – emerge uma nova indústria de litigância predatória. A busca pela compensação financeira pela mera existência de um conteúdo nas redes, tenha ele sido removido ou não após uma denúncia, vira praxe. Cartórios de São Paulo, domicílio jurídico das big techs no Brasil, operam além da capacidade. Advogados de todos os cantos do país notam uma oportunidade: qualquer post mais polêmico poderia render uma indenização paga pelas plataformas, sem nem precisar provar culpa.

Do seu lado, as plataformas acabam aguentando o tranco contratando bons escritórios e implementando filtros automáticos, mas o impacto não é sentido apenas pelas grandes empresas. Pequenos fóruns, blogs e provedores como o registro de domínios enfrentam um pesadelo. Sem a estrutura de gigantes como Google e Meta, os pequenos tiveram que recorrer a sistemas de filtragem rudimentares ou até mesmo encerrar suas atividades. Um portal de notícias locais no interior de Minas Gerais é processado por hospedar um comentário anônimo crítico ao prefeito da cidade. Uma loja virtual de livros usados tem que revisar manualmente milhares de anúncios para evitar qualquer possível violação de direitos autorais. Pequenas redes sociais brasileiras voltadas a nichos, que tentavam crescer em um mercado dominado por estrangeiros, fecham as portas antes mesmo de decolar.

Uma nova era começa, marcada por ferramentas imperfeitas de IA para a detecção de conteúdo “problemático”

Em Brasília, defensores da decisão enfrentam um dilema narrativo. Como justificar a decisão diante do impacto? A crise se acirra, pois criadores de conteúdo, desde coachs de finanças a influenciadores fitness, vêem seus negócios em xeque quando os algoritmos começaram a classificar seus vídeos como “potencialmente problemáticos”. Relatos de vídeos educativos sobre empreendedorismo sendo bloqueados por “risco de desinformação” viralizaram rapidamente no WhatsApp.

Não foi por um mal motivo que a decisão ocorreu: ela buscava proteger os cidadãos das fake news e de problemas concretos. As plataformas de fato deveriam ser chamadas à responsabilidade, mas nesse formato a solução não funcionou. Parlamentares tentam desesperadamente formular uma nova legislação para dar conta, mas a tarefa é ainda mais difícil depois do ocorrido.

A internet brasileira não é mais a mesma. O julgamento do artigo 19, pensado para corrigir um problema importante, desencadeou uma reação em cadeia minimizada meses antes.

***

A ficção nos ilustra possíveis futuros. Temos que avançar na responsabilização das plataformas de internet, mas existem soluções melhores do que a “responsabilidade objetiva”: precisamos construí-las.

Francisco Brito Cruz é advogado e professor de direito do IDP (Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa), com foco em regulação e políticas digitais. Fez seu mestrado e doutorado em direito na Universidade de São Paulo (Usp). Fundou e dirigiu o InternetLab, centro de pesquisa no tema.

Os artigos publicados pelos colunistas são de responsabilidade exclusiva de seus autores e não representam as ideias ou opiniões da Gama.

Quer mais dicas como essas no seu email?

Inscreva-se nas nossas newsletters

  • Todas as newsletters
  • Semana
  • A mais lida
  • Nossas escolhas
  • Achamos que vale
  • Life hacks
  • Obrigada pelo interesse!

    Encaminhamos um e-mail de confirmação