Artigo

União Europeia contra as big techs

Regulações digitais para equidade e segurança

Tulio Chiarini[1] e Diandra Rocha[2]

Introdução

Há alguns anos a União Europeia (UE) enfrenta desafios no cenário tecnológico, devido sobretudo à marginalização das empresas europeias frente à influência global das gigantes de tecnologia (big techs) dos Estados Unidos e da China. Essa situação fez com que o bloco buscasse condições mais justas para fomentar a competição no mercado digital. A UE também está empenhada em criar um ambiente digital mais seguro, capaz de preservar os direitos fundamentais dos usuários. Reconhecendo que as grandes empresas baseiam sua competitividade na manipulação de dados individuais, a UE busca garantir não apenas o aprimoramento dos serviços, mas também a proteção contra possíveis abusos, considerando a capacidade desses dados de prever e influenciar comportamentos. Segundo Luciano Floridi, pesquisador do Oxford Internet Institute, no Reino Unido, o desafio atual da UE não se restringe apenas à inovação digital, mas também à governança do mundo digital e, portanto, à nova morfologia do poder e à formação da soberania digital.

Nesse contexto, um conjunto de instrumentos que compõem um sistema abrangente de regulamentações aplicáveis em toda a UE está em desenvolvimento. O Regulamento Geral de Proteção de Dados (General Data Protection Regulation – GDPR), publicado em 2016 e implementado em 2018, foi o primeiro marco. Em 2022, foram aprovadas a Lei de Serviços Digitais (Digital Services Act – DSA) e a Lei do Mercado Digital (Digital Markets Act – DMA). O DMA tornou-se aplicável, em sua maior parte, em maio de 2023. Ele visa garantir a concorrência justa nos mercados digitais e impedir que grandes empresas de tecnologia abusem de sua posição dominante. Já o regulamento da DSA passou a ser aplicável em 17 de fevereiro de 2024. Ele se concentra na proteção dos usuários no mundo online e na transparência das plataformas digitais. 

Outros instrumentos, aprovados em 2023, também fazem parte desse sistema, como o Regulamento de Dados (Data Act) e o Regulamento da Inteligência Artificial (AI Act), os quais entrarão em vigor em 2025.

Neste breve texto, focamos no DSA e em suas implicações para o mercado digital brasileiro. Abordamos as obrigações que as grandes plataformas digitais que operam na UE assumiram a partir de fevereiro de 2024 e destacamos pontos relevantes para o debate sobre a regulação das plataformas no Brasil.

Digital Services Act

Em 2020, a UE apresentou a primeira versão da regulamentação de serviços digitais (Documento 52020PC0825). A proposta surgiu em resposta à evolução dos serviços digitais desde a Diretiva 2000/31/CE, que tratava de aspectos legais dos serviços da sociedade de informação, com foco no comércio eletrônico no mercado europeu. Reconhecendo as transformações socioeconômicas impulsionadas por esses serviços, a UE atualizou as regras, com ênfase nas responsabilidades e obrigações das plataformas digitais.

O Parlamento Europeu, reconhecendo a necessidade de reformas abrangentes no quadro legal de comércio eletrônico, emitiu resoluções defendendo a manutenção de princípios fundamentais. Tais resoluções destacaram a importância da proteção dos consumidores, da transparência e responsabilidade dos provedores de serviços digitais, e da imperatividade de combater conteúdos ilegais.

Em 2022, o Parlamento Europeu lançou a DSA com três objetivos: 

  • aprimorar a proteção dos consumidores e seus direitos fundamentais online de maneira mais eficaz; 
  • estabelecer uma estrutura robusta de transparência e responsabilidade para as plataformas digitais; 
  • fomentar a inovação, o crescimento e a competitividade na UE.

 

As regras especificadas no DSA dizem respeito às plataformas digitais, definidas como prestadoras de serviços que, por meio de um destinatário, armazenam e divulgam informações ao público, como marketplaces, redes sociais, plataformas de compartilhamento de conteúdo e app stores. O quadro regulatório estruturado pelo DSA vincula as plataformas digitais a diferentes requisitos buscando atenuar externalidades e protegendo o interesse público. Alguns desses requisitos visam garantir mecanismos de notificação para conteúdos ilegais (considerados com base nas leis nacionais de responsabilidade civil e criminal) e estabelecer um tratamento para reclamações com duas etapas: a primeira de revisão interna; a segunda, de resoluções extrajudiciais.

Um dos pontos apontados no DSA é que as plataformas digitais de grande escala podem apresentar riscos sociais distintos dos observados em plataformas de menor dimensão, demandando níveis mais elevados de obrigações de devida diligência. Quando o número de usuários ativos ultrapassa 45 milhões (equivalente a 10% da população da UE), considera-se um alcance significativo, podendo os riscos sistêmicos associados impactarem negativamente a UE. Essas grandes plataformas digitais têm potencial impacto na segurança online, opinião pública, no discurso e comércio, levando à necessidade de regulação para identificar e mitigar riscos socioeconômicos. Conforme proposto pela DSA, as empresas controladoras dessas plataformas devem avaliar tais riscos, adotando medidas de mitigação considerando os direitos fundamentais. A avaliação deve considerar a gravidade e a probabilidade dos potenciais efeitos negativos, incluindo o alcance do impacto, irreversibilidade e dificuldade de correção.

O DSA estabelece critérios de transparência, tais como:

  • obrigação de incluir informações sobre restrições de conteúdos determinadas pelos “Termos e Condições de Uso”; 
  • proibição de conceber, organizar ou explorar interfaces de modo a manipular destinatários; 
  • identificação de forma contundente, eficaz, inequívoca e em tempo real as informações relevantes de cada anúncio publicitário. 

 

Por fim, o DSA estabelece critérios de cumprimento (enforcerment) privado, por meio da responsabilização civil, e inaugura o enforcement público, por meio da designação por cada Estado-Membro de um Coordenador de Serviços Digitais que pode cessar as infrações e impor restrições, multas e sanções pecuniárias compulsórias e medidas cautelares. Além disso, a supervisão é reforçada por uma Comissão, que está autorizada a agir por iniciativa própria para desenvolver e implementar um sistema interno de avaliação e controle de riscos.

O que mudou a partir de fevereiro de 2024?

Todas as empresas controladoras de plataformas digitais com usuários na UE, com exceção das micro e pequenas empresas (até 50 pessoas ocupadas) e com faturamento anual inferior a € 10 milhões, devem implementar medidas como:

  • Combate a conteúdos ilegais: as plataformas digitais devem oferecer aos usuários meios para sinalizar conteúdo ilegal, incluindo bens e serviços;
  • Proteção de menores de idade: inclui a proibição de segmentar anúncios baseados em perfis ou dados pessoais de menores de idade;
  • Capacitação de usuários com informações sobre anúncios: as plataformas devem informar aos usuários sobre os anúncios que veem, explicando por que estão sendo mostrados e quem pagou por eles;
  • Proibição de anúncios direcionados com base em dados confidenciais: é vedada a veiculação de anúncios direcionados com base em dados sensíveis, como crenças políticas ou religiosas, preferências sexuais etc.;
  • Fornecimento de declarações de motivos: as plataformas devem oferecer declarações de motivos aos usuários afetados por decisões de moderação de conteúdo, como remoção de conteúdo ou suspensão de conta, e carregar essas declarações no banco de dados de transparência da DSA;
  • Mecanismo de reclamação: os usuários devem ter acesso a um mecanismo de reclamação para contestar decisões de moderação de conteúdo;
  • Relatório anual de moderação de conteúdo: as plataformas devem publicar anualmente um relatório detalhado sobre seus procedimentos de moderação de conteúdo;
  • Termos e condições transparentes: as plataformas devem fornecer termos e condições claros, incluindo os principais parâmetros que fundamentam o funcionamento de seus sistemas de recomendação de conteúdo;
  • Ponto de contato designado: deve ser designado um ponto de contato para as autoridades e usuários;

 

As empresas controladoras de plataformas com número médio mensal de usuários ativos superior a 45 milhões também estão sujeitas a auditorias independentes para avaliar o cumprimento das obrigações do DSA. Hoje, 19 plataformas são consideradas muito grandes pela EU (Quadro 1), das quais 15 são controladas por empresas estadunidenses, sendo 11 controladas pela GAFAM – Google (Alphabet), Apple, Facebook (Meta), Amazon e Microsoft.

Quadro 1 - Plataformas digitais muito grandes conforme definidas pela DSA

Quadro 1Fonte: European Commission. Elaborado pelos autores

O que importa para o Brasil?

O DSA não afeta hoje nenhuma empresa brasileira na UE, já que não há grandes plataformas digitais controladas por empresas brasileiras operando no exterior. Conforme estudo publicado pelo Ipea, apesar de haver plataformas digitais brasileiras notáveis, como o iFood, a maioria delas possui baixo faturamento, número reduzido de funcionários e se concentra no segmento de marketplaces, operando sobretudo no Brasil ou em poucos países na América Latina. 

As abordagens da UE têm se consolidado como referência global, sendo consideradas o “padrão ouro” na regulamentação de plataformas digitais. Elas destacam a crescente dependência tecnológica das big techs e chamam a atenção para o acúmulo de poder que essas corporações alcançaram. Seguindo essa tendência, diferentes jurisdições têm se inspirado na legislação europeia, inclusive o Brasil.

No cenário brasileiro, observam-se diversas medidas relacionadas ao ambiente digital. Dois movimentos podem ser identificados. Inicialmente, com o Marco Civil da Internet (Lei n. 12.965/2014) e a Lei Geral de Proteção de Dados Pessoais, LGPD (Lei n. 13.709/2018, alterada pela Lei n. 13.853/2019), foram estabelecidos princípios gerais, garantias, direitos e deveres para o uso da Internet e o tratamento de dados pessoais. A LGPD foi baseada no GDPR da UE. Além disso, a Emenda Constitucional n. 115 de 2022 inovou ao incluir a proteção de dados pessoais entre os direitos e garantias fundamentais, cabendo à União organizar e fiscalizar a proteção e o tratamento de dados pessoais.

Em um segundo movimento, observa-se a tramitação de dois projetos de lei (PL). O PL n. 2.768/2022, inspirado no DMA, busca estabelecer normas para a organização, funcionamento e operação de mercados intermediados por plataformas digitais. Já o PL n. 2.630/2020, conhecido por "Lei das Fake News", baseado no DSA, aborda regras relacionadas à transparência na Internet. Esse projeto propõe que plataformas de redes sociais e serviços de mensagens tornem públicos dados como o número de contas registradas, usuários ativos e informações sobre conteúdos patrocinados ligados a temas sociais e políticos. 

Embora saibamos que regulamentações dependem de contextos históricos, valores públicos e objetivos de desenvolvimento de cada nação, e embora seja cedo para aprender com os fracassos alheios, já que a DSA acabou de entrar em vigor, há ganhos relativos “principiológicos” e conceituais que o país pode ter por não ser o primeiro a lidar com o problema da regulação. Assim, o Brasil pode, em certo sentido, aprimorar a experiência digital nacional, uma vez que terá a oportunidade de observar êxitos e antecipar fracassos e desafios enfrentados pelo DSA.

A "Lei das Fake News", que, em certa medida, assemelha-se ao DSA, ao estabelecer normas, diretrizes e mecanismos de transparência das plataformas digitais para desestimular seu abuso ou manipulação com potencial de causar danos individuais ou coletivos, pode incorporar o aprendizado a partir do caso da EU. Por exemplo, no caso brasileiro, a referida lei, uma vez aprovada, será aplicada apenas às plataformas com mais de dois milhões de usuários registrados. Nesse sentido, é esperado que as empresas do Quadro 1 se enquadrem mais facilmente nesse critério do que outras empresas controladoras de plataformas digitais no Brasil que ainda não foram submetidas às regras do DSA. Espera-se que as empresas que já seguem a DSA não terão dificuldades para cumprir os deveres de transparência do PL brasileiro e fornecer os relatórios públicos que devem ser disponibilizados com padrões tecnológicos abertos que permitam a comunicação, acessibilidade e interoperabilidade entre aplicações e bases de dados. Talvez o Brasil possa, inclusive, elaborar um “Dashboard de transparência” como o do DSA.

Dessa forma, é essencial analisar os dispositivos do PL brasileiro, destacando quais pontos do DSA podem ser incorporados. É importante notar que o DSA reflete uma perspectiva eurocêntrica sobre a regulação, gerando o denominado "Efeito de Bruxelas" — um poder global exercido pela União Europeia por meio de suas instituições e padrões legais, com sucesso exportado para o restante do mundo. Adaptar esse modelo à realidade nacional é essencial.

A abordagem das medidas de fiscalização disponíveis e a imposição de sanções às grandes plataformas em caso de violação das diretrizes merecem uma análise mais aprofundada no contexto brasileiro. Os legisladores devem ter em mente que a regulamentação visa criar um ambiente propício para o desenvolvimento das plataformas digitais, garantindo tratamento equitativo aos usuários e implementando medidas eficazes para conter a propagação de conteúdo ilegal.

[1] Pesquisador no CTS-Ipea.

[2] Doutoranda em Economia da Indústria e da Tecnologia no Instituto de Economia da UFRJ e bolsista no Departamento de Estudos Econômicos do Conselho Administrativo de Defesa Econômica (CADE). E-mail: Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo.

* Os autores agradecem a leitura e comentários de Victo Silva, do Interdisciplinary Research Hub on Digitalization and Society da Radboud University, Graziela Zucotolo e Rodrigo Andrade, ambos do CTS/Ipea.