Atribuir Responsabilidade às Plataformas Digitais não Significa Censura aos Meios de Comunicação

Data:

Fake News
Créditos: juststock / iStock

Ao ler a íntegra do discurso de posse do Presidente Luiz Inácio Lula da Silva, proferido na data de ontem (01.01.23), encontrei trecho que acena claramente para uma política de regulação das atividades dos provedores de aplicações na Internet. Sobre a questão do fenômeno das fake news, o Presidente empossado disse o seguinte:

“Defendemos a plena liberdade de expressão, cientes de que é urgente criarmos instâncias democráticas de acesso à informação confiável e de responsabilização dos meios pelos quais o veneno do ódio e da mentira são inoculados. Este é um desafio civilizatório, da mesma forma que a superação das guerras, da crise climática, da fome e da desigualdade no planeta”[1] (grifei)

A ênfase dada ao assunto, nesse trecho do discurso, indica que a política do novo Governo certamente será a de atribuir maior responsabilidade aos provedores de aplicações na Internet, quanto a conteúdos produzidos por terceiros. A atenção ao tema não causou surpresa, pois Paulo Bernardo, ex-Ministro das Comunicações e integrante do grupo técnico da equipe de transição para a área de tecnologia, já tinha afirmado que o assunto da regulamentação das plataformas digitais seria prioridade. Em entrevista que concedeu ao site Jota, em 29.11.22, ele deixou entrever que a regulamentação pode ser feita ainda em 2023 e que tomará como base o modelo normativo europeu[2].

Espero que a disposição do Presidente Lula e dos integrantes do seu Governo se confirme na forma de projeto de lei que trate da responsabilidade dos provedores ou mesmo no impulso a projetos que já existem tramitando no Congresso.

Invocando a defesa da liberdade de expressão, as grandes plataforma digitais que hospedam conteúdos gerados terceiros (a exemplo do Facebook e a Google) adotavam uma política de completa inércia em relação às postagens de usuários. Mesmo conteúdos visivelmente ilícitos ou racistas não eram bloqueados ou de alguma maneira rotulados, pois consideravam que as próprias pessoas deveriam retirar suas conclusões sobre o que era publicado. A mudança na política de “moderação de conteúdo” somente ocorreu após ficar claro que o fenômeno das fake news ameaçava os regimes democráticos. Conteúdos que incitam o ódio, racismo e violência devem, sim, ser submetidos ao controle da empresa que mantém a plataforma onde são publicados.

O Presidente Lula não só está sensível a esse assunto de alta relevância social como parece ter identificado a raiz do problema, pois mira no próprio provedor como responsável pelas fake news e outros conteúdos ilícitos que inundam as redes sociais.

A desinformação e disseminação de conteúdos ilícitos é um problema que só pode ser resolvido pelos próprios provedores de serviços na Internet. Não é um assunto da alçada de governos e cuja solução deve partir dos indivíduos ou da sociedade. Não é por meio da educação das pessoas ou com ações governamentais voltadas à investigação da origem dos conteúdos ilícitos que se vai solucionar o problema das fake news, discurso do ódio (hate speech) e propagação de informações desagregadoras nas redes sociais. Só se resolve com a imposição de obrigações ao provedor, para que assuma responsabilidade editorial  (ainda que de uma forma mais amena que em relação à mídia tradicional).

A “intoxicação informacional” tem origem na forma como funcionam as chamadas “redes sociais” e serviços de hospedagem de conteúdo. Adquiriram, no início da popularização da Internet (em meados dos anos 90), imunidade para funcionar sem qualquer forma de responsabilidade editorial, sem ter que fazer qualquer tipo de filtragem prévia dos conteúdos postados por seus usuários. Sem responsabilidade pelo conteúdo que transita em seus sistemas, não se deram ao trabalho de checar a identidade de seus usuários. A “anonimização” fomentou um ambiente de “terra sem lei” nas redes sociais, com usuários criando contas e perfis falsos e divulgando conteúdos ilícitos sem que ninguém respondesse pelos danos causados.

O discurso do Presidente Lula, portanto, é alvissareiro. Já passou da hora de o Brasil adotar uma legislação que trate da “moderação de conteúdos” pelos provedores de aplicações na Internet. Uma rede social não é uma praça pública, um local de domínio público, mas um sistema informatizado privado, controlado por uma empresa privada, que deve ser obrigada a assumir responsabilidade pelo que transita em seu ambiente digital. Conteúdos que incitem o ódio, a violência, o extremismo e que propiciam o divisionismo social podem (e devem) ser filtrados pelo provedor. É preciso rever o papel dos provedores de hospedagem de conteúdo na Internet na prevenção e remoção de material informacional ilícito.

O Parlamento Europeu aprovou no ano passado o Digital Services Act (DSA), ato normativo que regula a responsabilidade dos provedores de conteúdo e serviços na Internet[3]. Esse texto pode servir de modelo para futura proposta legislativa a ser enviada ao parlamento brasileiro ou mesmo para aperfeiçoar projetos de lei que já tramitam no Congresso Nacional com o objetivo de conter a disseminação de conteúdos discriminatórios e falsos nas redes sociais.

É preciso discutir com sobriedade qual o grau da responsabilidade que deve ser atribuída aos provedores, na contenção de conteúdos ilícitos. O que não se pode é isentá-los de qualquer tipo de obrigação em relação a material informacional nocivo que circula em suas estruturas e sistemas informatizados.

Notas de fim

[1] A íntegra do discurso do Presidente Lula pode ser acessada em: https://g1.globo.com/politica/noticia/2023/01/01/veja-a-integra-do-discurso-do-presidente-lula-no-congresso.ghtml

[2] Ver notícia sob o título “Transição: os planos do governo Lula para regulação de plataformas digitais”, publicada em 29.11.22 no site Jota, acessível em: https://www.jota.info/tributos-e-empresas/regulacao/transicao-os-planos-do-governo-lula-para-regulacao-de-plataformas-digitais-29112022

[3] Ver artigo nosso sobre o Digital Services Act, publicado em 05.03.22 no site Jus, acessível em: https://jus.com.br/artigos/96199/o-digital-services-act-1-parte-a-proposta-legislativa-europeia-mantem-a-imunidade-legal-dos-provedores-de-servicos-na-internet

Notícia Falsa - Fake News
Créditos: Janoj / iStock
Demócrito Reinaldo Filho
Demócrito Reinaldo Filho
Mestre e Doutor em Direito. Especializou-se em Direito Digital pelo Berkman Center e pela Fundação Konrad Adenauer. Foi fundador e é ex-presidente do IBDI – Instituto Brasileiro do Direito da Informação. É Coordenador do Comitê Gestor de Proteção de Dados do Tribunal de Justiça de Pernambuco. Ingressou na magistratura por concurso público e atualmente é Desembargador do Tribunal de Justiça de Pernambuco.

Deixe um comentário

Compartilhe

Inscreva-se

Últimas

Recentes
Veja Mais

AUTOFALÊNCIA E OS BENEFÍCIOS DA DISSOLUÇÃO REGULAR DA EMPRESA

No ano de 2024, 830.525 empresas encerraram suas atividades no Brasil, no entanto, houve apenas 949 pedidos de falência, conforme dados da Serasa Experian. A diferença, 829.576 empresas, é um número elevado e relevante já que, possivelmente, apenas um número reduzido encerrou sem a necessidade da falência, mas com o pagamento de todos os credores, incluindo o fisco antes da baixa do CNPJ. A maioria dos (micro) (pequenos) empreendedores apenas “fecharam as portas” com a dissolução irregular da empresa.

Simplificar é fragilizar o Direito

O debate sobre a simplificação da linguagem no Direito ganha cada vez mais relevância no contexto atual, em que a velocidade da informação e o acesso fácil a conteúdos acabam ditando tendências em várias áreas do conhecimento. No entanto, será que essa busca por tornar o Direito mais compreensível para o público geral não está carregada de riscos que comprometem a essência da ciência jurídica? Essa é uma das questões levantadas pelo professor Lenio Streck (leia aqui), que alerta para os perigos de reduzir a complexidade do Direito em nome da acessibilidade.

O ChatGPT e a era dos Agentes de IA

            A empresa estadunidense OpenAI anunciou na última terça-feira (dia 14.01.25)[1] o acréscimo da função “Tasks” (Tarefas, em português)[2] no ChatGPT[3], seu modelo algorítmico baseado em inteligência artificial generativa (IAGen)[4]. A nova capacidade “permite aos usuários agendar ações futuras, lembretes e tarefas recorrentes, expandindo as utilidades do ChatGPT além da resposta em tempo real”[5]. A empresa explica que o “recurso foi desenhado para se assemelhar ao funcionamento de assistentes virtuais como Google Assistant ou Siri, mas com a sofisticação linguística que caracteriza o ChatGPT”[6].

A Chinesa Deepseek Ameaça a Liderança do ChatGPT

           No último final de semana, o mercado de tecnologia foi abalado com a notícia de que um modelo algorítmico desenvolvido pela Deepseek, uma companhia chinesa[1], superou o ChatGPT[2] em alguns testes de eficiência. O DeepSeek-R1, modelo de inteligência artificial generativa[3], atinge desempenho comparável ao GPT-4 o1, segundo divulgado[4]. Bateu recorde em número de downloads, superando o ChatGPT na App Store (loja de aplicativos da Apple) e na Google Play (da Google)[5].