A empresa OpenAI está sendo investigada pela Comissão Federal de Comércio dos Estados Unidos para determinar se o ChatGPT, modelo de linguagem baseado em inteligência artificial (IA)prejudica os consumidores ao gerar informações falsas (fake news), e se sua tecnologia faz uso inadequado dos dados dos usuários.
Apoiada pela Microsoft, a OpenAI foi notificada sobre a investigação em um questionário de 20 páginas, em que é solicitada a descrever incidentes em que usuários foram falsamente difamados e a compartilhar os esforços da empresa para garantir que os mesmos não se repitam. A investigação foi divulgada pelo jornal The Washington Post.
A investigação se concentra em como esses incidentes poderiam prejudicar os usuários, mas também se aprofunda no uso de dados privados pela OpenAI para construir seu modelo, líder no mundo. O GPT-4 da empresa é a tecnologia-base por trás do ChatGPT, assim como dezenas de outros programas de empresas que pagam uma taxa à OpenAI a fim de acessar o seu modelo para uso próprio.
O CEO da OpenAI, Sam Altman, lamentou no Twitter que a investigação tenha vazado para a imprensa, o que “não gera confiança”, disse, acrescentando que a empresa irá cooperar com a Comissão Federal de Comércio. “É muito importante para nós que a nossa tecnologia seja segura e pró-consumidor, e estamos confiantes em que cumprimos a lei.”
A investigação da Comissão de Comércio não implica, necessariamente, outras ações, se ficar satisfeita com a resposta da empresa ao questionário a autoridade pode encerrar o caso. Caso o regulador perceba práticas ilegais ou inseguras, exigirá medidas corretivas e pode entrar com uma ação judicial.
O lançamento do ChatGPT pela OpenAI, em novembro passado, surpreendeu o mundo, ao mostrar o poder dos grandes modelos de linguagem (LLM, sigla em inglês), uma forma de inteligência artificial (IA) conhecida como “IA generativa”, que pode produzir em segundos um conteúdo semelhante ao criado pelo homem. Em meio à agitação causada pela capacidade dessa tecnologia, autoridades receberam relatos de que esses modelos também poderiam gerar conteúdo ofensivo, falso ou estranho, às vezes chamado de “alucinações”.
Com informações do UOL.
Acompanhe as nossas redes sociais: Facebook, Twitter, Instagram, Telegram, WhatsApp, Google News e Linkedin.