COLUNA

Francisco Brito Cruz

As novas regras para a internet brasileira

A decisão do STF encerra um capítulo e abre outro, ainda por escrever

19 de Novembro de 2025

No início do ano fiz aqui um exercício de ficção sobre o julgamento que o Supremo estava fazendo sobre responsabilidade de plataformas digitais. Desenhei o que poderia acontecer se algumas teses prevalecessem, o que não se concretizou. Agora, com o acórdão finalmente publicado, é possível afirmar que o STF entregou um resultado importante e abriu uma série de novas frentes de trabalho para todo o resto da República. Conhecer os pontos centrais da decisão é um primeiro passo para navegar numa nova fase da internet brasileira.

Para explicar o decidido, é importante reconhecer o raciocínio do tribunal para chegar nas suas teses. O Supremo decidiu que o artigo 19 do Marco Civil da Internet (que estabelecia a responsabilidade de provedores por danos gerados por conteúdo de usuários apenas após o desobedecimento de ordem da Justiça) não era inconstitucional quando ele foi introduzido, mas que o desenvolvimento da internet foi gerando um quadro de proteção insuficiente a valores da Constituição. Com efeito, incentivar a remoção de conteúdo apenas depois de uma ordem judicial gerou injustiças a vítimas de crimes e uma inércia destes intermediários em cenários de iminente golpe de Estado. O Marco Civil se tornou inconstitucional pela falta, não pelo excesso. Falta que poderia ter sido suprida por outras camadas de legislação que não vieram.

Num debate difícil entre onze opiniões, a Corte foi bem sucedida em driblar duas armadilhas importantes. Primeiro, afastou a responsabilidade objetiva, o que significaria a provável imposição de filtros prévios e falhos para pegar publicações ilícitas antes delas circularem – uma medida reconhecidamente problemática. Segundo, preservou o tratamento para casos de crimes contra a honra e para serviços de mensagens interpessoais e email, que continuam submetidos à lógica original do artigo 19. Com isso impediu a formação de uma indústria de limpeza de reputações a partir de notificações, o que seria um prato cheio para figuras que querem fugir do escrutínio público.

A decisão foi aumentar a responsabilização em três situações, além de criar algumas obrigações extras.

Em primeiro, o Supremo estabeleceu que a partir de agora a responsabilidade por conteúdos ilegais se dá a partir de uma notificação recebida pela plataforma, ou seja, uma denúncia da existência de um conteúdo ilícito. Essa era a regra que valia antes só para casos de disseminação de imagens íntimas sem autorização e que agora foi estendida. Isso deve agilizar a derrubada de uma série de postagens, mas algumas questões ainda ficam no ar. O que uma denúncia deve conter para gerar essa responsabilização? Quem pode denunciar, as vítimas e as autoridades? O que empresas de internet são obrigadas a fazer quando recebem uma notificação, mas o conteúdo não é aparentemente ilícito? É de se lembrar que não refletir sobre isso pode dar instrumentos eficazes para quem busca reduzir o debate sobre temas polêmicos (como drogas e aborto, por exemplo) ou prejudicar seus concorrentes (como quem diz que o serviço do vizinho é ilegal para favorecer o próprio).

Segundo, o acórdão trouxe uma responsabilidade maior (ou presumida) para os provedores quando há pagamento para que eles impulsionem a postagem. Segundo os debates dos ministros, a lógica foi de compreender que o pagamento por alcance desses “impulsionamentos” torna a plataforma mais responsabilizável se eles causarem dano – salvo se ela comprovar que atuou “diligentemente e em tempo razoável” para tirar aquilo do ar. As dúvidas aqui virão tanto de entender o que o Supremo estabeleceu como presumido pela plataforma (se é o conhecimento do conteúdo do post, por exemplo), como do que é “atuar diligentemente”, de maneira razoável. Qual a barra a ser atingida para a empresa comprovar isso?

A agenda de regulação digital no Brasil não está encerrada, ela está começando de novo

A terceira situação de aumento de responsabilidade é a instituição de um chamado “dever de cuidado”, que passa a ser introduzido de vez no Brasil. Nessa camada extra, as plataformas devem tomar cuidado especial para não deixar que circulem conteúdos que possam configurar determinados “crimes graves” (na decisão foi incluída uma lista de quais seriam eles). São os casos de crimes contra a democracia, racismo, entre outros. Para esses episódios está exigida uma ação proativa das redes para encontrar e derrubar tais posts. Nesses casos, as empresas poderão pagar por danos gerados por essas publicações mesmo que não tenham recebido denúncias prévias sobre sua circulação em caso de “falha sistêmica”, ou seja, se deixarem “adotar adequadas medidas de prevenção ou remoção (…) de forma responsável, transparente e cautelosa”. Nos futuros casos concretos o Judiciário terá de enfrentar tanto questões sobre o quanto determinados conteúdos são evidentemente criminosos ou não, como discussões sobre o que seriam as tais medidas adequadas. É determinante aqui sedimentar parâmetros técnicos e coordenados, o que dificilmente será bem-sucedido sem a ajuda de um bom órgão regulador independente.

O novo arranjo inclusive demandará alguns esclarecimentos do STF no julgamento de embargos de declaração e, especialmente, uma série de novas interpretações e esclarecimentos a partir de futuros casos concretos.

O STF ainda inclui uma série de outros pontos na sua decisão, difíceis de serem todos esmiuçados neste pequeno texto. No que chamou de “deveres anexos” requereu que as empresas se autorregulem para fornecer relatórios de transparência, canais de atendimento, e direitos de “devido processo” aos usuários (que são garantias para que postagens não sejam removidas sem aviso ou possibilidade de contestação). Ainda, determinou que as empresas devem manter representantes no país, afastando argumentos que a jurisdição brasileira não alcançaria empresas com operação global. O cumprimento desses deveres provoca questões de prazo e formato (da autorregulação), por exemplo.

A fase de embargos de declaração pode abordar estas e outras questões. Ainda resiste a necessidade do Supremo de se posicionar sobre a responsabilidade de atores que passam longe de serem “big techs”, que não visam o lucro e que não usam algoritmos para alavancar conteúdos de usuários. Durante o julgamento, ministros comentaram que provedores diferentes (como a Wikipedia) merecem tratamento diferente.

Com todos esses elementos, a decisão do Supremo sobre o Marco Civil é um marco importantíssimo para a internet brasileira, um divisor de águas. No entanto, após entender o que se decidiu, argumento que será necessário observar o efeito do julgamento em pelo menos quatro dimensões.

A sociedade deve estar vigilante se o novo regime de maiores responsabilidades das plataformas digitais se conecta com suas expectativas

A primeira é esperar o que virá do Congresso, pois um apelo foi feito ao Legislativo. A decisão serve tanto como um alerta sobre a inércia em produzir consensos como um convite para que parlamentares se debrucem sobre as questões digitais e possam construir arranjos menos ligados a casos concretos, típicos de decisões judiciais.

O Executivo também merece holofotes. A decisão cria um ambiente no qual a regulamentação do Marco Civil precisará ser revisada, ajustada e, em alguns pontos, reconstruída. Para além disso, os deveres que aparecem na tese (da responsabilização por anúncios até o tratamento de redes de bots, passando pela necessidade de autorregulação robusta) requerem a construção de bons padrões e de um ambiente de governança. Em suma, precisaremos construir reguladores técnicos e independentes. E, se há um candidato natural a ocupar esse espaço, é a Agência Nacional de Proteção de Dados (ANPD). A ANPD já foi indicada, no ECA Digital (Estatuto da Criança e do Adolescente no Digital), como regulador de plataformas quando o tema envolve crianças e adolescentes. Nada mais lógico do que pensar que sua função regulatória se expanda para esse novo universo de “deveres de cuidado” trazidos pelo Supremo.

A forma como as empresas se organizarão para cumprir a decisão também merecerá atenção. Como irão articular sua autorregulação? Como devem agir frente às notificações de conteúdo ilícito? Decisões práticas de implementação irão impactar o cotidiano dos seus usuários e anunciantes.

Por fim, a sociedade deve estar vigilante se este regime de maiores responsabilidades das plataformas se conecta com suas expectativas. O risco de que sistemas de remoção turbinados atinjam conteúdos possivelmente legítimos será sentido? Qual será a avaliação de grupos que pressionaram pela ação do Supremo? E qual será a visão daqueles que defendiam o estado de coisas anterior?

A decisão do Supremo encerra um capítulo e abre outro, ainda por escrever. Mais, abre de um jeito que coloca o Executivo, o Legislativo, as empresas de internet e a sociedade civil no centro da próxima etapa. Com efeito, a agenda de regulação digital no Brasil não está encerrada no acórdão publicado no meio de novembro, ela na verdade está começando de novo.

Francisco Brito Cruz é advogado e professor de direito do IDP (Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa), com foco em regulação e políticas digitais. Fez seu mestrado e doutorado em direito na Universidade de São Paulo (Usp). Fundou e dirigiu o InternetLab, centro de pesquisa no tema.

Os artigos publicados pelos colunistas são de responsabilidade exclusiva de seus autores e não representam as ideias ou opiniões da Gama.

Quer mais dicas como essas no seu email?

Inscreva-se nas nossas newsletters

  • Todas as newsletters
  • Semana
  • A mais lida
  • Nossas escolhas
  • Achamos que vale
  • Life hacks
  • Obrigada pelo interesse!

    Encaminhamos um e-mail de confirmação