COLUNA

Francisco Brito Cruz

Regular big techs: modos de fazer

Os caminhos para migrar de uma cultura de blindagem e reação para uma cultura de prevenção e responsabilidade

23 de Maio de 2025

Quando uma empresa decide abrir uma nova fábrica perto de um rio, ninguém mais considera aceitável que ela ignore os possíveis impactos ambientais da sua operação. O requerido, nesse campo, é realizar uma avaliação prévia de riscos: entender como resíduos podem afetar a água, que efeitos podem recair sobre a fauna e flora locais e quais medidas de mitigação devem ser implementadas. Não se trata de esperar que o desastre aconteça para, só então, agir ou ser processado. Cada vez mais a lógica é preventiva, orientada pela identificação e redução de riscos para ambientes e comunidades. Com efeito, essa prática é geralmente supervisionada por um regulador – em tese técnico e independente das pressões – um órgão capaz de avalizar os padrões a serem usados nessa análise de riscos e de intervir quando a situação muda, exigindo novas condutas.

Curiosamente, essa mesma racionalidade demorou para ser aplicada para plataformas digitais que recebem e circulam o conteúdo que nós, usuários, geramos. Aqui, o foco não é o meio ambiente, mas a maneira como os dados dos usuários são usados e distribuídos. Os primeiros passos disso se limitavam a criticar formas opacas que empresas colaboravam com governos para entregar dados de usuários e controlar discursos, um pensamento ainda muito centrado no Estado como violador de direitos.

Talvez porque no começo os “riscos” não estavam tão claros. Talvez porque escolher um regulador que pudesse interferir nesses sistemas é em si um risco, pois dá poderes a alguém para constranger e controlar a internet.

Para além desses motivos, o que parecia não estar tão claro na década de 1990 ou nos anos 2000 é a participação que os sistemas das próprias empresas de internet podem ter na facilitação de violações a direitos das pessoas. De fato, nem todos os sistemas evoluíram para ser tão relevantes assim — até hoje muitas empresas de internet passam despercebidas e não são centrais nas possíveis violações. Atuam como uma infraestrutura, como aqueles que registram os nomes dos sites e fazem as vezes de “listas telefônicas” da internet.

Essa falta de clareza ajudou a criar um jeito de olhar para o problema da circulação do conteúdo nocivo ou ilegal nas redes: um olhar excessivamente dedicado para postagens “individuais”. “A internet não é terra sem lei” é um mantra que geralmente acompanha uma penca de links de posts absurdos, aqueles que geram indignação porque individualmente não foram removidos.

É preciso entender como as redes estão imbricadas na vida das pessoas e comunidades — e no exercício de seus direitos

Para este problema, uma regulação. Nos anos 2010 consolidamos que o jeito de abordar esse problema era atribuir responsabilidades sobre os danos gerados por estas postagens individuais. Esse modelo se apoia, sobretudo, na ideia de que, na maioria dos casos, se empresas de internet não criaram o conteúdo, não devem ser responsabilizadas “de saída”. Daí especificamos formas de remoção mais ou menos expressas de conteúdo mais ou menos explicitamente ilícito.

Esse paradigma, que ainda domina as discussões sobre regulação de plataformas, tem como efeito prático não estimular que as empresas melhorem seus processos ou reduzam riscos de forma proativa, mas sim que se especializem em fugir do judiciário. Ir para o judiciário é custoso, demanda contratação de escritórios e um cálculo nem sempre simples para futuras indenizações. Aumentar essa responsabilidade por postagens “individuais” de qualquer tipo vai diminuir a tolerância das plataformas ao risco de serem processadas pelo que circula.

Com o tempo, vamos percebendo que os sistemas implementados pelas plataformas (especialmente as gigantes) são muito mais importantes para facilitação de problemas (que, aí, também são gigantes). Sistemas de recomendação de fotos e vídeos, sistemas de avaliação se publicações são nocivas a alguém, sistemas de detecção de posts de nudez indevida — a lista é enorme. Em relação a sua qualidade, o olhar exclusivo para postagens individuais (e a responsabilidade sobre elas atribuída no judiciário) pouco ajuda.

Aqui estamos falando do paralelo com a fábrica instalada do lado de um rio. Nesse caso nem pensamos que não haverá impacto nenhum, ou que devemos medir os impactos para cada indivíduo/ser vivo que está no entorno. Haverá impacto – e temos que medir os riscos para todo o ambiente.

As plataformas moldam profundamente a vida social e, portanto, devem detectar e mitigar os efeitos negativos que ajudam a produzir

A Lei dos Serviços Digitais (Digital Services Act, ou DSA), aprovada pela União Europeia, propõe um caminho diferente e mais nesse sentido. Inspirado na lógica da devida diligência empresarial — como aquela que orienta a responsabilidade ambiental —, o DSA obriga as plataformas muito grandes (sim, o conceito é de “very large online platforms”) a mapear sistematicamente os riscos que seus sistemas podem gerar (daí chamados “riscos sistêmicos”). E mais: não basta identificar riscos como a disseminação de conteúdo ilegal ou interferência em eleições. As empresas devem também apresentar quais medidas concretas para mitigar esses riscos estão adotando, se submetendo a auditorias independentes. Para completar, devem prestar contas publicamente sobre seus esforços.

Essa mudança de chave é inspirada em um modelo que já conhecemos bem: os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs), aprovados em 2011, que consolidaram a ideia de que empresas, mesmo quando não são diretamente autoras de violações, têm a responsabilidade de respeitar direitos e prevenir riscos que possam resultar de suas operações. De uma certa forma, o DSA aplica esse raciocínio ao ambiente digital, transformando a velha noção de neutralidade passiva em uma obrigação ativa de gestão de riscos.

Mais do que um ajuste regulatório, o DSA aponta para uma visão mais madura da governança digital, na qual plataformas são tratadas como atores que moldam profundamente a vida social e, portanto, devem detectar e mitigar os efeitos negativos que ajudam a produzir. Um contraste claro com o modelo jurídico que prevaleceu por tanto tempo, centrado na responsabilidade civil pós-fato, que mais estimula a gestão do risco jurídico do que a gestão do risco real.

Na Europa, os efeitos do DSA ainda estão sendo medidos. Existem dúvidas sobre se a Comissão Europeia vai conseguir supervisionar tais relatórios para prevenir violações a direitos e dar transparência efetiva a decisões empresariais relevantes. O risco é se deixar levar por uma visão ainda exclusivamente no “conteúdo individual”, medindo seu sucesso apenas com base em quantos links desse ou daquele tipo de conteúdo conseguem ser mapeados. É necessário medir muito mais do que isso para entender como os sistemas estão imbricados na vida das pessoas e comunidades — e no exercício de seus direitos.

No Brasil, ainda debatemos como construir esse novo ecossistema regulatório. O maior dilema, talvez, seja escolher quem vai regular (tema da minha coluna mais recente). Mas talvez o principal aprendizado da experiência europeia seja justamente esse: migrar de uma cultura de blindagem e reação para uma cultura de prevenção e responsabilidade.

Francisco Brito Cruz é advogado e professor de direito do IDP (Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa), com foco em regulação e políticas digitais. Fez seu mestrado e doutorado em direito na Universidade de São Paulo (Usp). Fundou e dirigiu o InternetLab, centro de pesquisa no tema.

Os artigos publicados pelos colunistas são de responsabilidade exclusiva de seus autores e não representam as ideias ou opiniões da Gama.

Quer mais dicas como essas no seu email?

Inscreva-se nas nossas newsletters

  • Todas as newsletters
  • Semana
  • A mais lida
  • Nossas escolhas
  • Achamos que vale
  • Life hacks
  • Obrigada pelo interesse!

    Encaminhamos um e-mail de confirmação