O Parlamento Europeu aprovou na última quinta-feira (dia 20/01), com pequenas modificações, o Digital Services Act (DSA), a proposta legislativa europeia para regular a responsabilidade dos provedores de conteúdo e serviços na Internet. Reunidos em sessão plenária, os eurodeputados deram aval ao novo regulamento, com 530 votos a favor, 78 contra e 80 abstenções.
O texto do DSA já havia sido apresentado pela Comissão Europeia (braço executivo da União Europeia) desde dezembro de 2020, juntamente com o Digital Market Act (DMA), outro pacote legislativo que objetiva equilibrar a concorrência nos mercados digitais e restringir vantagens concorrenciais das grandes plataformas.
O Digital Services Act (DSA) tem o objetivo de criar um quadro legal das obrigações de sites e prestadores de serviços on line, quanto ao conteúdo informacional que circula em suas estruturas e sistemas informatizados, bem como cria mecanismos para impedir a distribuição e comercialização de produtos nocivos e falsificados.
A União Europeia demorou demais para adotar medidas regulatórias, atualizando seu arcabouço legislativo. O problema da desinformação (fake news) e disseminação de conteúdos ilícitos e prejudiciais no âmbito de plataformas e aplicações na Internet reclamava providências legislativas há muito tempo. As plataformas on line são usadas para disseminação de discurso do ódio (hate speech), promover a discriminação racial e étnica, fazer apologia ao terrorismo e divulgar pornografia digital infantil, dentre outros conteúdos informacionais ilícitos.
A concepção e arquitetura técnica das “redes sociais” e plataformas on-line favorece a disseminação de discursos extremistas. Para aumentar o lucro com a venda de publicidade dirigida, os controladores das plataformas regulam seus algoritmos de maneira a impulsionar conteúdo apelativo, sensacionalista e extremista. Sistemas de “redes sociais” foram usados para fomentar a falsa ideia de fraude na eleição e deslegitimar a assunção de Joe Biden como Presidente dos EUA, bem como possibilitaram a organização dos eventos que culminaram com a invasão do prédio do Capitólio (onde funciona o Congresso dos EUA). Teorias negacionistas e informações errôneas sobre a pandemia da Covid-19 e campanhas antivacinas, responsáveis por minar a resposta governamental à crise sanitária, inundaram essas plataformas on line. Esse quadro de descontrole informacional serviu para apressar uma reposta legislativa coordenada na União Europeia.
Mas para quem esperava uma resposta mais efetiva e dirigida à origem do problema das fake news e descontrole informacional nas redes telemáticas, a iniciativa legislativa da Comissão Europeia foi um completo desapontamento. Ao invés de atribuir maior “responsabilidade editorial” aos intermediários da comunicação on line, mantém a mesma lógica que inspirou, há vinte anos atrás, a edição da Diretiva 2000/31/EC que atribuiu completa imunização aos provedores, fincada na concepção de que não deveriam ser obrigados a realizar um monitoramento prévio e geral dos conteúdos que transitam em seus sistemas. O regime jurídico ancião de responsabilidade e a proibição de impor obrigações gerais de vigilância aos provedores de serviços digitais continuam mantidos.
O Digital Services Act (DSA) atualiza e altera regras da Diretiva Europeia sobre comércio eletrônico (Diretiva 2000/31/EC), texto que vigora há duas décadas e regula o funcionamento das organizações que operam comercialmente nos ambientes digitais criados pelas redes telemáticas. O novo texto mantém o princípio basilar esculpido na e-commerce Directive, que exclui a responsabilidade dos provedores de serviços on line quanto aos conteúdos produzidos por seus usuários. Inspirada numa concepção de proteção de “direitos fundamentais” dos usuários dos serviços digitais – até mesmo o direito à anonimização é citado como digno de proteção nos ambientes digitais -, a nova regulamentação foca em regras e obrigações de transparência, além de estabelecer um regime de supervisão da atividade dos provedores de serviços digitais e aplicações no ciberespaço.
A proposta pretende garantir “que os cidadãos se expressem livremente, reforçando simultaneamente a participação do usuário” no ambiente digital. Não apenas procura atenuar os “riscos de bloqueio indevido ou injustificado do discurso”, como alarga as possibilidades de recurso contra decisões dos provedores no desempenho da atividade de moderação de conteúdos (automatizada ou realizada por moderadores humanos). Prevê a remoção pelos provedores apenas de conteúdos nitidamente ilegais, garantindo explicações ao usuário que tiver conteúdo removido e mecanismos de reclamação, bem como um mecanismo externo de resolução extrajudicial de litígios.
Toda a concepção do DAS está centrada no estabelecimento de uma “repartição adequada de responsabilidades” na luta contra a dissseminação de conteúdos ilegais entre os intermediários (provedores dos serviços digitais), seus destinatários e autoridades. Parte da equivocada concepção de que a criação de um regime de responsabilidade estrita para os provedores de serviços e plataformas conflita ou pode se contrapor a direitos fundamentais dos usuários, em especial o direito à liberdade de expressão. Foi por enxergar a existência de tensões entre a imposição de um regime mais rígido de responsabilidade para os provedores de conteúdo, de um lado, e a necessidade de salvaguardar garantias constitucionais dos usuários, de outro lado, que a Comissão apresentou um regime misto, mantendo a imunidade antes conferida pela e-commerce Directive porém criando certas obrigações de transparência e mecanismos de supervisão da atividade dos provedores de serviços on line, notadamente no que diz respeito à atividade de moderação de conteúdo e funcionamento dos algoritmos de direcionamento da informação e publicidade. A proposta legislativa da Comissão Europeia cria, na sua própria definição, um “balanced regulatory approach”. Mantém a cláusula de imunidade dos provedores de serviços na Internet, quanto aos conteúdos informacionais que circulam em seus sistemas informatizados, impondo-lhes apenas algumas novas obrigações que não alteram a pedra de toque do velho regime jurídico. Na justificativa da proposta de Regulamento, reconhece-se que a Diretiva sobre comércio eletrônico constituiu um importante incentivo para o crescimento do mercado de serviços digitais, mas o crescimento dinâmico da economia digital, com o aparecimento de novos tipos de prestadores (nomeadamente as grandes plataformas digitais), coloca novos riscos para os usuários.
O sistema de limitação da responsabilidade dos provedores concebido na Diretiva sobre comércio eletrônico (e-Commerce Directive) é considerado a abordagem ideal para lidar com conteúdos ilícitos gerados por usuários dos serviços e plataformas on line. O argumento é que a limitação da responsabilidade dos intermediários funciona como pilar para a liberdade de expressão (freedom of expression), e por isso não deve ser eliminada. Na opinião dos que pensam dessa maneira – e que influenciaram decisivamente a concepção do DAS -, o sistema vigente de responsabilidade limitada deve ser complementado com obrigações de transparência e mecanismos para auditagem do funcionamento do sistema de gerenciamento informacional, especialmente dos algoritmos de recomendação de conteúdo.
Para compensar a manutenção da imunidade, a opção legislativa adotada se baseia na criação de “obrigações assimétricas” (asymmetric obligations) de “devida diligência” (due diligence) para os provedores de serviços digitais, adaptadas ao tipo e à natureza do serviço intermediário e à capacidade do prestador. O regulamento cria obrigações gerais para todos os prestadores de serviços e obrigações específicas para alguns (a exemplo dos serviços de hospedagem e as “plataformas on line”). Nodatamente em relação às “plataformas online de grande dimensão” (very large online platforms), atribui o dever de gestão de risco supervisionada (supervised risk management) de seu sistema informatizado, incluindo realizar avaliações de risco sobre os riscos sistêmicos relacionados com o funcionamento dos seus serviços, submeter-se a auditorias externas e independentes e apresentar relatórios de transparência. Essas obrigações mais rígidas são impostas apenas a plataformas online muito grandes, que não só têm maior alcance, mas são também empresas de grande dimensão com um volume de negócios significativo. É no ecossistema digital das grandes plataformas online (very large online platforms) onde ocorrem frequentemente os riscos mais graves e elas têm a capacidade de absorver encargos adicionais. Consequentemente, embora as medidas sejam mais restritivas do que para outras empresas, elas são proporcionais à capacidade das empresas controladoras de grandes plataformas.
Para reforçar a garantia de aplicação do regulamento e observância das obrigações (de devida diligência) pelos provedores, é previsto ainda a criação dos coordenadores dos serviços digitais, que são as principais autoridades nacionais designadas pelos Estados-Membros para reforçar a aplicação do regulamento (artigo 38.º), bem como a criação do Comitê Europeu dos Serviços Digitais, um grupo consultivo independente de coordenadores dos serviços digitais (art. 47.º).
A ideia é que a gestão dos riscos de funcionamento das grandes plataformas seja supervionada por órgãos do Estado, que atuam na fiscalização da gestão do risco sistêmico. Autoridades e agentes estatais ficam encarregados da inspeção e auditoria de sistemas de moderação de conteúdos, sistemas de recomendação e publicidade das grandes plataformas.
Muito embora o regulamento preveja obrigações de “devida diligência” (due diligence) para os provedores de serviços digitais e crie uma estrutura de órgãos estatais de supervisão, para garantir a aplicação de suas normas, a pedra de toque do regime anterior não sofreu qualquer abalo. É frustrante verificar que a imunidade legal dos provedores de conteúdo sequer foi flexibilizada. É possível que fique até mais fortalecida, pois pelos termos da legislação proposta os usuários deverão ser informados sobre qualquer remoção de conteúdo, com direito a contestar e eventualmente ter a informação republicada, o que elimina ou ao menos diminui sensivelmente o poder editorial dos provedores e, consequentemente, a responsabilidade pelas consequências do conteúdo postado. Com efeito, os usuários passam a ter o direito de recorrer à Justiça para remover material hospedado pelo provedor ou recolocar conteúdo removido, mas não para responsabilizá-lo pela decisão tomada durante o processo de moderação de conteúdo. O usuário passa a ter o direito de contestar a decisão tomadada pelo provedor na atividade de moderação de conteúdo e recorrer a órgãos estatais administrativos para impugnar a decisão. Ao invés de excluir ou ao menos flexibilizar a imunidade legal dos provedores dos serviços de hospedagem de conteúdo, o regulamento terminou reforçando essa imunidade, ao “estatizar” a atividade de moderação de conteúdos.
É errada a visão de que a atividade de moderação de conteúdos desenvolvida pelos provedores pode limitar ou cercear a liberdade de expressão (freedom of expression) dos usuários. Não existe esse potencial conflito, pela simples razão de que os usuários (editores direto da informação) não têm direito de publicarem o que quiserem, já que as plataformas são sistemas informatizados privados, e a relação entre eles e o controlador (proprietário) é regulada pelas normas de um contrato (termos de uso) privado.
Redes sociais, sistemas de edição de conteúdo instantâneo, não são espaços públicos, à semelhança de uma rua ou praça pública, onde qualquer um pode ter acesso e se expressar livremente, sem qualquer tipo de limitação quanto ao conteúdo de suas manifestações. São sistemas informatizados privados, gerenciados por empresas privadas, que coletam, analisam e monetizam os dados das pessoas e outras informações que circulam no interior de seus domínios digitais. O Poder Público não tem nada que interferir na atividade de moderação de conteúdos desempenhada pelos controladores de plataformas de serviços online, que hospedam conteúdo editado por terceiros (usuários do sistema). Nem a sociedade e nem os governos de países devem tomar qualquer medida técnica ou realizar despesas para combater o problema da desinformação no âmbito das plataformas e sistemas informatizados na Internet. Muito menos devem criar ou estruturar um corpo de autoridades e agentes estatais para monitorar, analisar e eventualmente servir como instância revisora das decisões proferidas pelos controladores, quanto à exclusão de informações postadas diretamente por usuários. Redes sociais, serviços especializados na locação de espaços para armazenamento de dados e plataformas para edição instantânea de conteúdos por terceiros são sistemas privados, daí que toda e qualquer lesão a direitos e interesses que ocorre nesses domínios digitais privados, deveria ser de inteira responsabilidade da empresa que os explora e obtém lucro com sua exploração.
Fake News (desinformação) e conteúdos prejudiciais em geral (discurso do ódio, incitação ao terrorismo e pornografia digital infantil, apenas para citar alguns) é um problema exclusivo do controlador da plataforma, porque somente ele tem os meios para restringir sua disseminação. É verdade que algumas dessas estruturas de comunicação digital adquiriram domínio dos mercados onde atuam, mas isso não as transforma em “espaços públicos”. O problema do monopólio que grandes empresas de tecnologia exercem sobre determinados setores de serviços na rede mundial de comunicação pode ser combatido de outras formas.
Não cremos que a proposta europeia seja a mais conveniente para lidar com o problema da desinformação na Internet. Esse regime jurídico híbrido criado pelo regulamento talvez não funcione. Auditorias e mecanismos que possibilitem maior transparência quanto ao funcionamento das plataformas, especialmente em relação aos algoritmos, no que diz respeito à forma como a informação é priorizada e orientada, certamente é uma boa política, mas não vai resolver o problema.
O regime criado pelo DSA pretende ser amplo o suficiente de modo a garantir conhecimento completo do funcionamento das plataformas, incluindo métricas de audiência, publicidade e micro-targeting, mecanismos de busca, ranking e recomendação de conteúdos, moderação e política de remoção de conteúdos, fact-checking etc., mas essa abordagem da transparência de como funcionam os mecanismos e algoritmos de direcionamento de conteúdo não terá o resultado esperado. Os sistemas e plataformas online de intermediação são sistemas privados, de propriedade e sob o controle de empresas privadas. Alguma dose de transparência pode oferecer certa ideia de como os resultados personalizados são apresentados aos usuários, mas nunca uma real e completa visão do efetivo poder das plataformas em termos de controle informacional e os efeitos sociais. Leis que garantem segredos comerciais e industriais também servirão como barreira para penetração completa no funcionamento dos algoritmos de direção informacional. Por isso, quem imagina que poderá haver uma completa auditagem do funcionamento desses algoritmos talvez esteja enganado.
A intenção do bloco europeu é não apenas regulamentar a atividade dos intermediários prestadores de serviços digitais, mas de tornar a Europa um expoente dessa legislação. O objetivo é realmente alcançar uma posição de liderança como “global rulemaker” no processo de regulação de tecnologias da informação. Do mesmo modo como aconteceu com as políticas normativas de proteção de dados pessoais (com a edição do RGPD em 2018) e, mais recentemente, com a proposta de regulação da inteligência artificial (IA), a Europa pretende assumir uma posição de vanguarda e liderança, induzindo a que outros países adotem legislação similar.
Pode-se dizer que, sob esse prisma, a UE pode não alcançar o protagonismo desejado, pois, embora a proposta de regulamento apresentada seja certamente um dos mais abrangentes conjuntos de normas sobre o papel dos provedores de serviços digitais, é um caminho legislativo diverso do encontrado por outros países. Não somente os EUA, mas países europeus trabalharam em soluções legislativas voltadas a quebrar ou ao menos enfraquecer a imunidade dos provedores quanto aos conteúdos postados por seus usuários. Leis editadas na Alemanha, França e Áustria estabeleceram regimes jurídicos diferentes, para combater o problema da disseminação de conteúdos ilícitos, diminuindo o grau da imunidade dos provedores.
A proposta de Regulamento ainda necessita de aprovação conjunta. O Parlamento Europeu e o Conselho da UE vão agora iniciar os diálogos para se buscar um consenso em torno da proposta legislativa, que se espera seja definitivamente aprovada ainda neste semestre, mas se aprovada suas regras vão passar por um difícil teste. O novo regulamento é uma aposta ousada, de eficácia discutível e que pode tirar da UE a posição de farol legislativo para o resto do mundo.