Desde o final de novembro do ano passado, quando sua versão beta foi lançada para uso público, o ChatGPT vem deslumbrando e, de certa maneira, assustando as pessoas em razão da sua capacidade descomunal de produzir textos, responder a perguntas sobre praticamente todos os assuntos e estabelecer conversações com raciocínio lógico. Ele é capaz de escrever textos de natureza diversa, como poemas, crônicas e até letras de música, em diversos estilos. Também pode desempenhar outras funções, como elaborar códigos de programa de computador, escrever roteiros de filmes, ensaios e muito mais.
Alcançou mais de 100 milhões de usuários em janeiro deste ano e sua base de assinantes continua a aumentar rapidamente. A assinatura paga (versão Plus) foi lançada no Brasil no início de fevereiro e a nova versão – o GPT-4 – está prevista para ser lançada ainda em 2023. A empresa que desenvolveu o ChatGPT foi a OpenAI, uma companhia estadunidense especializada em soluções de inteligência artificial generativa.
O ChatGPT é uma ferramenta algorítmica que imita a linguagem natural, um tipo de inteligência artificial conversacional, ou seja, um chatbot que conversa e estabelece diálogos com o usuário. Mas a maneira conversacional como interage com o usuário é diferenciada, pois não se limita a responder questões, sendo capaz de admitir erros, desafiar premissas incorretas e rejeitar pedidos inapropriados.
É da família dos grandes modelos de linguagem (large language models), que são programas treinados em vastos conjuntos de dados textuais para gerar linguagem natural, na forma semelhante a um texto produzido por uma pessoa humana. Os modelos de linguagem são usados para compreender e responder a perguntas em línguas naturais, como o inglês, o português, o francês, o espanhol etc. . Para gerar textos em língua natural, os modelos de linguagem são treinados para aprender a prever a próxima palavra ou frase com base no contexto anterior. Eles podem ser usados para várias tarefas, como tradução automática, geração de texto, resumo automático e resposta a perguntas. Os modelos de linguagem mais recentes, como o GPT-3 da OpenAI, são baseados em redes neurais profundas e apresentam um desempenho impressionante em várias tarefas de processamento de linguagem.
O lançamento do ChatGPT deu lugar a uma corrida entre as Big Techs, que apressaram projetos para avançar no desenvolvimento de soluções de IA. A primeira que se sentiu ameaçada com a novidade foi a Google, que enxergando a possibilidade de perder seu longo domínio no setor de buscas na Internet, anunciou planos de lançar sua própria ferramenta de inteligência artificial semelhante ao ChatGPT. No início de fevereiro, apresentou o chatbot “Bard”, sua aposta para concorrer com o ChatGPT. A Microsoft fez um movimento mais rápido e reforçou sua parceria com a empresa que desenvolveu o ChatGPT, com um investimento multibilionário na OpenAI, o que lhe conferiu a primazia de ser o primeiro parceiro comercial a utilizar o chatbot em seus produtos. A Microsoft anunciou que vai incorporar o ChatGPT em alguns de seus produtos, como o Word, o Powerpoint, o Outlook, o Teams (seu software para videoconferência) e seu serviço de nuvem Azure. E, logo em seguida, divulgou que vai incorporar o mecanismo do ChatGPT ao Bing, seu motor de busca, que agora vai não apenas fornecer uma lista com os resultados de pesquisa, mas também responderá a perguntas, conversará com os usuários e gerará conteúdo em respostas às consultas feitas pelo público.
Até Elon Musk não quer ficar de fora da corrida para colocar no mercado ferramentas de linguagem natural e anunciou estar formando equipe com especialistas em inteligência artificial, para montar seu próprio laboratório de pesquisas e fazer frente ao ChatGPT. A competição não se limita a empresas de tecnologia, estendendo-se a governos de diferentes países. No final de fevereiro, a China liberou seu chatbot conversacional baseado em inteligência artificial, nomeado de MOSS, para teste pelo público. O MOSS foi desenvolvido por uma equipe de cientistas da Universidade de Fudan, em Shanghai.
Esse tipo de tecnologia colocou a inteligência artificial generativa (generative artificial intelligence) no centro do debate, em razão dos seus impactos sobre os direitos e segurança das pessoas, fazendo com que cientistas e políticos aumentassem o tom das reivindicações pela regulamentação da IA.
Os benefícios potenciais da IA na sociedade são diversos. Programas baseados em IA podem contribuir para reduzir a poluição, diminuir o número de acidentes e mortes no trânsito das cidades, revolucionar a medicina e criar novos procedimentos e tratamentos de assistência à saúde, melhorar a educação e auxiliar no combate ao crime e ao terrorismo. As tecnologias de IA têm potencial para incrementar produtividade em todos os setores da economia, criar novos mercados e trazer novas oportunidades de crescimento econômico. Apesar dos incontáveis e fantásticos benefícios que a tecnologia pode trazer para a humanidade, sua utilização também vem acompanhada de certos riscos, pois tem o potencial de expor pessoas a erros de concepção e vícios de segurança, minando direitos e garantias fundamentais dos indivíduos, ameaçando a segurança das pessoas e comprometendo valores democráticos da sociedade.
Especificamente no que diz respeito aos modelos de linguagem generativa, os riscos são de que aumentem ainda mais a desinformação, o processo de disseminação de notícias falsas (fake news) que tem ameaçado os governos democráticos. Os grandes modelos algorítmicos de linguagem natural (large language models) vão tornar ainda mais fácil a produção de milhares de notícias falsas, com versões diversas sobre um mesmo fato. Por meio da criação de perfis falsos em plataformas digitais, vai ser mais fácil influenciar pessoas a tomar decisões equivocadas. É o que pensa, por exemplo, a professora Pattie Maes, especialista em inteligência artificial do prestigioso MIT (Massachussets Institute of Technology). Ressaltando que o quadro atual de descontrole informacional já é nocivo, ela alerta que “essa tecnologia vai degradar ainda mais esse cenário, porque a internet vai ser inundada por muito mais lixo travestido de conteúdo sério, convincente”. Ela explica que conteúdo produzido ou recomendado por inteligência artificial, por ser capaz de gerar textos bem elaborados, induz as pessoas a serem menos críticas sobre se algo é verdade ou não.
O ChatGPT e os grandes modelos de linguagem em geral, já que são treinados e coletam grandes quantidades de informações disponíveis livremente nas redes telemáticas, também levantam preocupações com aspectos ligados à privacidade de proteção de dados pessoais.
O sistema coleta imensas quantidades de dados disponibilizadas na internet, podendo processar inclusive dados sensíveis das pessoas que se encontram hospedados em outros serviços e plataformas digitais. Como não se sabe exatamente os parâmetros do seu funcionamento, não é descartado que o ChatGPT seja treinado não só com base em dados abertos mas também sobre dados que lhe são compartilhados por outras plataformas e serviços digitais. Ademais disso, como se trata de um sistema conversacional, que se envolve em diálogo utilizando linguagem natural, isso pode levar a que o usuário forneça informações pessoais de cunho extremamente íntimo. Em face dessa característica de seu funcionamento, o usuário muitas vezes pode imaginar que está travando contato com uma pessoa humana, e não com um sistema de inteligência artificial. Engajando-se em um diálogo com o ChatGPT, o usuário pode revelar seus interesses, credos, preferências sexuais, ideológicas e dados relativos à sua saúde. O Chatbot não só vai armazenar todas as mensagens recebidas do usuário como, por ser um sistema de inteligência artificial altamente sofisticado, vai realizar um cruzamento desses blocos de dados e extrair inferências que lhe permitirá traçar um perfil completo da personalidade do usuário.
Outra área que o ChatGPT levanta preocupações é a relacionada com os direitos autorais. Por exemplo, quais são as implicações de um usuário de um sistema de inteligência artificial generativa criar novos textos partindo de um trabalho intelectual anterior sem fazer menção ou sem os créditos necessários ao trabalho original? A utilização do trabalho original, ainda que partes dele, necessita de autorização do autor? Essas são questões legais que emergem com o surgimento e utilização desses novos sistemas de inteligência artificial de linguagem natural. Os conjuntos de dados sobre os quais o sistema é treinado e de onde extrai os resultados pode envolver trabalhos intelectuais protegidos pelo direito autoral.
As implicações desses novos sistemas de inteligência artificial generativa são muitas, sobre diversas áreas e aspectos da vida humana, com o potencial de afetar direitos fundamentais das pessoas, o que reforça a necessidade de regulamentação do desenvolvimento e funcionamento dessas tecnologias.
Existe uma cultura prevalente no meio corporativo e também nos Estados Unidos de que o mercado é quem deve encontrar as melhores práticas e se autorregular. Iniciativas autorregulatórias voltadas a aumentar a precisão dos produtos de IA, reduzir o risco de respostas enviesadas e lesão a direitos fundamentais das pessoas, são bem-vindas e devem ser estimuladas. Mas não são suficientes para eliminar os riscos extremos que as tecnologias baseadas em inteligência artificial colocam para a sociedade.
Apenas os governos, com a colaboração de organismos internacionais, serão capazes de estabelecer uma legislação que todas as empresas obedeçam para o desenvolvimento de produtos e serviços que utilizem inteligência artificial. A intervenção regulatória dos governos, através de seus parlamentos, é defendida até por Sam Altman, o CEO da OpenAI, que criou o ChatGPT. Altman alerta que não vai demorar muito para o mundo conhecer uma inteligência artificial potencialmente assustadora, sendo fundamental criar regras e regulamentos para evitar os desvios da tecnologia.
A União Europeia já apresentou desde abril de 2021 a sua proposta para regulamentação das tecnologias de inteligência artificial (IA), que recebeu o nome de Artificial Intelligence Act (ou simplesmente AI Act). Os eurodeputados esperam chegar a um consenso em torno do AI Act neste mês de março e tentar aprovar o texto ainda em 2023. O Brasil não está atrasado na questão da regulamentação das tecnologias de inteligência artificial. Em dezembro de 2022, uma comissão de juristas presidida pelo Ministro do STJ Ricardo Villas Bôas Cueva entregou ao Presidente do Senado, Senador Rodrigo Pacheco, um relatório que vai subsidiar a análise dos vários projetos de lei que tramitam no Congresso relativos ao tema.
A regulamentação traz segurança jurídica e favorece as próprias empresas que desenvolvem ou estão em processo de desenvolvimento de ferramentas de IA. Com um quadro regulatório estabelecido, as empresas têm que trabalhar dentro de regras, equilibrando a competição e favorecendo o consumidor com melhores produtos e serviços. A regulamentação das tecnologias de inteligência artificial é o único caminho para enfrentar os claros desafios que a sociedade terá pela frente.