O Fenômeno do CHATGPT Desperta a Necessidade da Regulamentação da Inteligência Artificial

Data:

atividade cerebral
Créditos: archy13 | iStock

Desde o final de novembro do ano passado, quando sua versão beta foi lançada para uso público, o ChatGPT vem deslumbrando e, de certa maneira, assustando as pessoas em razão da sua capacidade descomunal de produzir textos, responder a perguntas sobre praticamente todos os assuntos e estabelecer conversações com raciocínio lógico. Ele é capaz de escrever textos de natureza diversa, como poemas, crônicas e até letras de música, em diversos estilos. Também pode desempenhar outras funções, como elaborar códigos de programa de computador, escrever roteiros de filmes, ensaios e muito mais.
Alcançou mais de 100 milhões de usuários em janeiro deste ano e sua base de assinantes continua a aumentar rapidamente. A assinatura paga (versão Plus) foi lançada no Brasil no início de fevereiro e a nova versão - o GPT-4 - está prevista para ser lançada ainda em 2023. A empresa que desenvolveu o ChatGPT foi a OpenAI, uma companhia estadunidense especializada em soluções de inteligência artificial generativa.

O ChatGPT é uma ferramenta algorítmica que imita a linguagem natural, um tipo de inteligência artificial conversacional, ou seja, um chatbot que conversa e estabelece diálogos com o usuário. Mas a maneira conversacional como interage com o usuário é diferenciada, pois não se limita a responder questões, sendo capaz de admitir erros, desafiar premissas incorretas e rejeitar pedidos inapropriados.

É da família dos grandes modelos de linguagem (large language models), que são programas treinados em vastos conjuntos de dados textuais para gerar linguagem natural, na forma semelhante a um texto produzido por uma pessoa humana. Os modelos de linguagem são usados para compreender e responder a perguntas em línguas naturais, como o inglês, o português, o francês, o espanhol etc. . Para gerar textos em língua natural, os modelos de linguagem são treinados para aprender a prever a próxima palavra ou frase com base no contexto anterior. Eles podem ser usados para várias tarefas, como tradução automática, geração de texto, resumo automático e resposta a perguntas. Os modelos de linguagem mais recentes, como o GPT-3 da OpenAI, são baseados em redes neurais profundas e apresentam um desempenho impressionante em várias tarefas de processamento de linguagem.

O lançamento do ChatGPT deu lugar a uma corrida entre as Big Techs, que apressaram projetos para avançar no desenvolvimento de soluções de IA. A primeira que se sentiu ameaçada com a novidade foi a Google, que enxergando a possibilidade de perder seu longo domínio no setor de buscas na Internet, anunciou planos de lançar sua própria ferramenta de inteligência artificial semelhante ao ChatGPT. No início de fevereiro, apresentou o chatbot “Bard”, sua aposta para concorrer com o ChatGPT. A Microsoft fez um movimento mais rápido e reforçou sua parceria com a empresa que desenvolveu o ChatGPT, com um investimento multibilionário na OpenAI, o que lhe conferiu a primazia de ser o primeiro parceiro comercial a utilizar o chatbot em seus produtos. A Microsoft anunciou que vai incorporar o ChatGPT em alguns de seus produtos, como o Word, o Powerpoint, o Outlook, o Teams (seu software para videoconferência) e seu serviço de nuvem Azure. E, logo em seguida, divulgou que vai incorporar o mecanismo do ChatGPT ao Bing, seu motor de busca, que agora vai não apenas fornecer uma lista com os resultados de pesquisa, mas também responderá a perguntas, conversará com os usuários e gerará conteúdo em respostas às consultas feitas pelo público.

Até Elon Musk não quer ficar de fora da corrida para colocar no mercado ferramentas de linguagem natural e anunciou estar formando equipe com especialistas em inteligência artificial, para montar seu próprio laboratório de pesquisas e fazer frente ao ChatGPT. A competição não se limita a empresas de tecnologia, estendendo-se a governos de diferentes países. No final de fevereiro, a China liberou seu chatbot conversacional baseado em inteligência artificial, nomeado de MOSS, para teste pelo público. O MOSS foi desenvolvido por uma equipe de cientistas da Universidade de Fudan, em Shanghai.
Esse tipo de tecnologia colocou a inteligência artificial generativa (generative artificial intelligence) no centro do debate, em razão dos seus impactos sobre os direitos e segurança das pessoas, fazendo com que cientistas e políticos aumentassem o tom das reivindicações pela regulamentação da IA.

Os benefícios potenciais da IA na sociedade são diversos. Programas baseados em IA podem contribuir para reduzir a poluição, diminuir o número de acidentes e mortes no trânsito das cidades, revolucionar a medicina e criar novos procedimentos e tratamentos de assistência à saúde, melhorar a educação e auxiliar no combate ao crime e ao terrorismo. As tecnologias de IA têm potencial para incrementar produtividade em todos os setores da economia, criar novos mercados e trazer novas oportunidades de crescimento econômico. Apesar dos incontáveis e fantásticos benefícios que a tecnologia pode trazer para a humanidade, sua utilização também vem acompanhada de certos riscos, pois tem o potencial de expor pessoas a erros de concepção e vícios de segurança, minando direitos e garantias fundamentais dos indivíduos, ameaçando a segurança das pessoas e comprometendo valores democráticos da sociedade.

Especificamente no que diz respeito aos modelos de linguagem generativa, os riscos são de que aumentem ainda mais a desinformação, o processo de disseminação de notícias falsas (fake news) que tem ameaçado os governos democráticos. Os grandes modelos algorítmicos de linguagem natural (large language models) vão tornar ainda mais fácil a produção de milhares de notícias falsas, com versões diversas sobre um mesmo fato. Por meio da criação de perfis falsos em plataformas digitais, vai ser mais fácil influenciar pessoas a tomar decisões equivocadas. É o que pensa, por exemplo, a professora Pattie Maes, especialista em inteligência artificial do prestigioso MIT (Massachussets Institute of Technology). Ressaltando que o quadro atual de descontrole informacional já é nocivo, ela alerta que “essa tecnologia vai degradar ainda mais esse cenário, porque a internet vai ser inundada por muito mais lixo travestido de conteúdo sério, convincente”. Ela explica que conteúdo produzido ou recomendado por inteligência artificial, por ser capaz de gerar textos bem elaborados, induz as pessoas a serem menos críticas sobre se algo é verdade ou não.

O ChatGPT e os grandes modelos de linguagem em geral, já que são treinados e coletam grandes quantidades de informações disponíveis livremente nas redes telemáticas, também levantam preocupações com aspectos ligados à privacidade de proteção de dados pessoais.
O sistema coleta imensas quantidades de dados disponibilizadas na internet, podendo processar inclusive dados sensíveis das pessoas que se encontram hospedados em outros serviços e plataformas digitais. Como não se sabe exatamente os parâmetros do seu funcionamento, não é descartado que o ChatGPT seja treinado não só com base em dados abertos mas também sobre dados que lhe são compartilhados por outras plataformas e serviços digitais. Ademais disso, como se trata de um sistema conversacional, que se envolve em diálogo utilizando linguagem natural, isso pode levar a que o usuário forneça informações pessoais de cunho extremamente íntimo. Em face dessa característica de seu funcionamento, o usuário muitas vezes pode imaginar que está travando contato com uma pessoa humana, e não com um sistema de inteligência artificial. Engajando-se em um diálogo com o ChatGPT, o usuário pode revelar seus interesses, credos, preferências sexuais, ideológicas e dados relativos à sua saúde. O Chatbot não só vai armazenar todas as mensagens recebidas do usuário como, por ser um sistema de inteligência artificial altamente sofisticado, vai realizar um cruzamento desses blocos de dados e extrair inferências que lhe permitirá traçar um perfil completo da personalidade do usuário.
Outra área que o ChatGPT levanta preocupações é a relacionada com os direitos autorais. Por exemplo, quais são as implicações de um usuário de um sistema de inteligência artificial generativa criar novos textos partindo de um trabalho intelectual anterior sem fazer menção ou sem os créditos necessários ao trabalho original? A utilização do trabalho original, ainda que partes dele, necessita de autorização do autor? Essas são questões legais que emergem com o surgimento e utilização desses novos sistemas de inteligência artificial de linguagem natural. Os conjuntos de dados sobre os quais o sistema é treinado e de onde extrai os resultados pode envolver trabalhos intelectuais protegidos pelo direito autoral.

As implicações desses novos sistemas de inteligência artificial generativa são muitas, sobre diversas áreas e aspectos da vida humana, com o potencial de afetar direitos fundamentais das pessoas, o que reforça a necessidade de regulamentação do desenvolvimento e funcionamento dessas tecnologias.

Existe uma cultura prevalente no meio corporativo e também nos Estados Unidos de que o mercado é quem deve encontrar as melhores práticas e se autorregular. Iniciativas autorregulatórias voltadas a aumentar a precisão dos produtos de IA, reduzir o risco de respostas enviesadas e lesão a direitos fundamentais das pessoas, são bem-vindas e devem ser estimuladas. Mas não são suficientes para eliminar os riscos extremos que as tecnologias baseadas em inteligência artificial colocam para a sociedade.

Apenas os governos, com a colaboração de organismos internacionais, serão capazes de estabelecer uma legislação que todas as empresas obedeçam para o desenvolvimento de produtos e serviços que utilizem inteligência artificial. A intervenção regulatória dos governos, através de seus parlamentos, é defendida até por Sam Altman, o CEO da OpenAI, que criou o ChatGPT. Altman alerta que não vai demorar muito para o mundo conhecer uma inteligência artificial potencialmente assustadora, sendo fundamental criar regras e regulamentos para evitar os desvios da tecnologia.

A União Europeia já apresentou desde abril de 2021 a sua proposta para regulamentação das tecnologias de inteligência artificial (IA), que recebeu o nome de Artificial Intelligence Act (ou simplesmente AI Act). Os eurodeputados esperam chegar a um consenso em torno do AI Act neste mês de março e tentar aprovar o texto ainda em 2023. O Brasil não está atrasado na questão da regulamentação das tecnologias de inteligência artificial. Em dezembro de 2022, uma comissão de juristas presidida pelo Ministro do STJ Ricardo Villas Bôas Cueva entregou ao Presidente do Senado, Senador Rodrigo Pacheco, um relatório que vai subsidiar a análise dos vários projetos de lei que tramitam no Congresso relativos ao tema.

A regulamentação traz segurança jurídica e favorece as próprias empresas que desenvolvem ou estão em processo de desenvolvimento de ferramentas de IA. Com um quadro regulatório estabelecido, as empresas têm que trabalhar dentro de regras, equilibrando a competição e favorecendo o consumidor com melhores produtos e serviços. A regulamentação das tecnologias de inteligência artificial é o único caminho para enfrentar os claros desafios que a sociedade terá pela frente.

Demócrito Reinaldo Filho
Demócrito Reinaldo Filho
Mestre e Doutor em Direito. Especializou-se em Direito Digital pelo Berkman Center e pela Fundação Konrad Adenauer. Foi fundador e é ex-presidente do IBDI – Instituto Brasileiro do Direito da Informação. É Coordenador do Comitê Gestor de Proteção de Dados do Tribunal de Justiça de Pernambuco. Ingressou na magistratura por concurso público e atualmente é Desembargador do Tribunal de Justiça de Pernambuco.

Deixe um comentário

Compartilhe

Inscreva-se

Últimas

Recentes
Veja Mais

Pleno do TJPB elege Aluízio Bezerra Filho como novo desembargador pelo critério de merecimento

O Pleno do Tribunal de Justiça da Paraíba (TJPB), em sessão administrativa realizada nesta segunda-feira (29), escolheu o juiz Aluízio Bezerra Filho como novo desembargador, preenchendo a vaga deixada pelo desembargador Marcos William de Oliveira, que se aposentou no último ano. A eleição ocorreu por mérito.

TJSP mantém condenação de acusados que aplicavam golpe em locadora de veículos

A 7ª Câmara de Direito Criminal do Tribunal de Justiça de São Paulo confirmou a decisão da 13ª Vara Criminal da Capital, sob a juíza Erika Fernandes, que condenou três homens por associação criminosa, com um deles também condenado por estelionato, relacionado a um golpe praticado contra uma locadora de veículos. As penas impostas, variando entre um e dois anos de reclusão, foram convertidas em medidas alternativas, incluindo prestação pecuniária e serviços comunitários.

Tribunal nega devolução em dobro após depósito realizado por engano

A 2ª Vara Cível de Araraquara julgou um caso envolvendo a devolução de R$ 37 mil que foram depositados por engano em uma empresa após um contrato de securitização de ativos empresariais. Após o acordo, a empresa não mais gerenciava os ativos, mas recebeu indevidamente o depósito de uma devedora. A empresa devolveu o dinheiro 14 dias após o depósito, mas apenas depois que a ação foi ajuizada, o que levou a autora a pedir a devolução em dobro, alegando retenção indevida do montante.

Estado indenizará estudante trans depois de ofensas de professor

A Vara da Fazenda Pública de Guarujá condenou o Estado de São Paulo a pagar uma indenização por danos morais no valor de R$ 8 mil a uma estudante trans, devido a comentários ofensivos feitos por um professor sobre a comunidade LGBT em sala de aula. Além disso, foi estabelecido um pagamento de R$ 800 por danos materiais, referente aos custos com tratamento psicológico que a estudante teve após o incidente.