O ChatGPT é um Sistema de Inteligência Artificial de “Alto Risco”?”

Data:

O ChatGPT é um Sistema de Inteligência Artificial de "Alto Risco"?" | Juristas
Demócrito Reinaldo Filho – Desembargador do TJPE

A empresa estadunidense OpenAI[1] realizou terça-feira (dia 14.3) o lançamento da mais nova versão do ChatGPT[2].

O ChatGPT é uma ferramenta algorítmica que imita a linguagem natural, um tipo de inteligência artificial conversacional, ou seja, um chatbot que conversa e estabelece diálogos com o usuário. O que impressiona nele é sua capacidade descomunal de produzir textos, responder a perguntas sobre praticamente todos os assuntos e estabelecer conversações com raciocínio lógico[3]. É capaz de escrever textos de natureza diversa, como poemas, crônicas e até letras de música, em diversos estilos. Também pode desempenhar outras funções, como elaborar códigos de programa de computador, escrever roteiros de filmes, ensaios e muito mais[4].

É da família dos grandes modelos de linguagem (large language models), que são programas treinados em vastos conjuntos de dados textuais para gerar linguagem natural, de forma semelhante a um texto produzido por uma pessoa humana. Os modelos de linguagem são usados para compreender e responder a perguntas em línguas naturais[5], como o inglês, o português, o francês, o espanhol etc. Para gerar textos em língua natural, os modelos de linguagem são treinados para aprender a prever a próxima palavra ou frase com base no contexto anterior. Eles podem ser usados para várias tarefas, como tradução automática, geração de texto, resumo automático[6] e resposta a perguntas. Os modelos de linguagem mais recentes, como o GPT-3[7] da OpenAI, são baseados em redes neurais[8] profundas e apresentam desempenho impressionante em várias tarefas de processamento de linguagem.

A versão apresentada na terça-feira, o GPT-4, é ainda mais impressionante, pois é um modelo multimodal de linguagem e, ao contrário da versão anterior (o GPT-3.5), aceita perguntas não apenas em forma textual mas também decifra e dá respostas quando provocado por imagens alimentadas pelo usuário[9]. O GPT-4 é capaz de analisar imagens e compreendê-las como se fossem entradas em texto. Por ser um modelo multimodal, é capaz de entender imagens, o que lhe permite capturar e mesmo explicar em detalhes o conteúdo, por exemplo, de uma fotografia. Isso ocorre porque o GPT-4 foi treinado sobre uma base de dados que inclui imagens e textos, diferentemente da versão anterior, que só era treinada em dados textuais.

A capacidade de processamento da nova versão também foi aumentada exponencialmente[10] e certas falhas no seu funcionamento foram consertadas. Apesar de suas respostas serem coerentes e gramaticalmente bem formuladas, usuários relataram muitos erros na versão original. Vários testes mostraram o sistema inventando pessoas, biografias e fatos, falhando na identificação de datas e sendo enganado por perguntas mais capciosas. A própria OpenAI alertava os usuários para a possibilidade de erros e defasagem nas informações. Com a nova versão (o GPT-4), a empresa espera ter reduzido substancialmente esses erros do sistema algorítmico, apelidados de “alucinações”.

O novo modelo também ficou mais “inteligente”. Segundo a OpenAI, o GPT-4 passou em vários testes de admissão e exames de universidades dos Estados Unidos (como o LSAT[11], GRE[12] e SAT[13]). A empresa afirma que ele superou o desempenho do antecessor em testes como o Uniform Bar Exam (o equivalente estadunidense ao exame da Ordem dos Advogados do Brasil-OAB) e nas Olimpíadas de Biologia. Os conhecimentos em programação do GPT-4 também se tornaram melhores. Ele é capaz de recriar softwares com agilidade, seguindo à risca as instruções dadas pelo usuário[14].  

Se por um lado a nova versão foi aperfeiçoada e suas funções ampliadas, o lançamento do GPT-4 foi marcado pela falta de transparência sobre aspectos do funcionamento do novo sistema de linguagem natural, sobretudo quanto ao conjunto de dados utilizados para o treinamento do algoritmo e o procedimento do treinamento. A OpenAI se limita a informar que os dados utilizados no treinamento procedem de uma “variedade de fontes de dados licenciadas, criadas e disponíveis publicamente, que podem incluir informações pessoais disponíveis publicamente”[15]. Apesar de o lançamento da versão GPT-4 ter sido acompanhado da divulgação de um relatório de 98 páginas, esse documento não revela muito sobre o treinamento de dados do novo sistema de inteligência artificial generativa. A OpenAI justifica a ausência de informações em razão do cenário competitivo e por motivos de segurança, segundo o documento[16].

A falta de transparência sobre aspectos do funcionamento da versão GPT-4 repercutiu negativamente na comunidade acadêmica[17] e também serve de fator para apressar a regulamentação da IA. A opção por não divulgar praticamente nada sobre como o ChatGPT (na versão GPT-4) é treinado aumenta as apreensões quanto aos impactos da inteligência artificial generativa (generative artificial intelligence) sobre os direitos e segurança das pessoas.

A chegada do ChatGPT representa um salto no desenvolvimento da inteligência artificial, com implicações sociais profundas. Trata-se de um tipo de tecnologia não apenas revolucionária, mas que está se disseminando muito rapidamente. A tecnologia do ChatGPT já é empregada em grande número de diferentes serviços e aplicações. No início de março de 2023, a OpenAI lançou sua API[18] para desenvolvedores poderem adicionar a tecnologia do ChatGPT em seus próprios serviços[19]

Essa é, aliás, a característica marcante dos sistemas de inteligência artificial de uso geral: a possibilidade de serem aproveitados em sistemas de IA mais especializados. Os modelos baseados em inteligência artificial generativa permitem larga variedade de uso. Podem ser utilizados para diferentes tarefas, em diversos campos, geralmente sem necessidade de modificações substanciais na sua programação. Por isso esses sistemas são às vezes chamados de “modelos de fundação” (foundation models), devido ao seu uso generalizado como modelos pré-treinados para outros sistemas de IA mais especializados. Por exemplo, um único sistema de IA de uso geral para processamento de linguagem pode ser usado como base para inúmeros outras aplicações, como sistemas de geração de anúncios, tradutores, assistentes pessoais etc. Podem ser ajustados para uma enorme gama de aplicações e serviços, sob medida para o cliente. Os sistemas de IA de uso geral geralmente são grandes modelos de linguagem (large language models), mas muitos desses sistemas são usados para tarefas diferentes do processamento de linguagem natural.

Os riscos associados com a proliferação de modelos de inteligência artificial de uso geral (general purpose AI) despertam a necessidade de haver um maior controle sobre sua utilização. A questão é como se estabelecer esse controle.

Desde abril de 2021, a União Europeia apresentou sua proposta para regulação das tecnologias de inteligência artificial. A proposta, que recebeu o nome de Artificial Intelligence Act (ou abreviadamente AI Act), foi resultado de cerca de três anos de estudos, debates e sugestões sobre o tema em organismos integrantes da UE e em consulta ao público, e atualmente se encontra tramitando no Parlamento Europeu. A abordagem regulatória tem como premissa principal a hierarquização dos riscos oferecidos por sistemas e tecnologias que usam IA. Segundo essa visão regulatória baseada nos riscos (risk-based regulatory approach), as restrições e exigências aumentam à medida que maiores sejam os riscos que os sistemas de IA possam oferecer a direitos e garantias fundamentais dos indivíduos. Os níveis de regulação são diferentes de acordo com os riscos, variam conforme os riscos que os sistemas de IA possam apresentar a valores da sociedade e direitos das pessoas. A concepção regulatória baseada nos níveis de riscos dos sistemas de IA tem caráter de proporcionalidade, no sentido de que as restrições mais graves e as exigências mais onerosas somente se aplicam a programas e aplicações que ofereçam maiores riscos à segurança e a direitos fundamentais das pessoas. Para os demais, são reservadas poucas obrigações de transparência, como ocorre em relação aos aplicativos do gênero “assistente pessoal”, para os quais se exige apenas que se dê conhecimento ao usuário de que está interagindo com um sistema de inteligência artificial. Em relação aos sistemas de alto risco (high-risk AI systems), as exigências regulatórias aumentam muito, passando pela obrigação de documentação, rastreabilidade, supervisão humana e outras imposições indispensáveis para mitigar consequências danosas aos usuários[20]

Enquanto a maioria dos programas e algoritmos não apresenta maiores riscos, alguns sistemas que funcionam baseados em IA criam riscos para a segurança dos usuários, os quais precisam ser considerados para evitar danos às pessoas. Nessa acepção, a proposta classifica os sistemas de IA em três diferentes patamares de risco: os de “risco inaceitável” (unacceptable risk), os de “risco elevado” (high-risk) e os de “risco limitado” (limited risk) ou de “risco mínimo” (minimal risk). O desenvolvimento e utilização de sistemas que apresentem “risco inaceitável” são completamente vedados, em razão do elevado potencial de vulneração de direitos fundamentais[21]. Em relação aos sistemas de “alto risco”, o AI Act impõe severas restrições ao desenvolvimento, implementação e uso. Já quanto aos de “baixo ou risco mínimo”, a tolerância é quase plena, com pequenas exigências de transparência. 

A dificuldade é como enquadrar os sistemas de inteligência artificial generativa, a exemplo do ChatGPT, no esquema de categorização traçado no AI Act. O ChatGPT pode ser considerado um sistema de “alto risco”, de maneira a que a empresa controladora possa ser submetida a maior supervisão e restrições regulamentares?

Para alguns eurodeputados, como o liberal romeno Dragoș Tudorache e o social-democrata italiano Brando Benifei, relatores do AI Act no Parlamento Europeu, a tecnologia que faz o ChatGPT funcionar tem o condão de enquadrá-lo como um sistema de IA que oferece elevado risco aos direitos fundamentais das pessoas[22]. No dia 14 de março, divulgaram uma minuta de emenda para impor obrigações aos desenvolvedores de sistemas de IA de uso geral, enquadrando na prática essa tecnologia na categoria de sistemas de “alto risco”[23]. Outros acreditam que classificar a inteligência artificial generativa como de “alto risco” pode embotar o desenvolvimento dessa tecnologia.

A possibilidade de a inteligência artificial generativa, incluindo os grandes modelos de linguagem, ser classificada como sistema de IA de alto risco parece ter mobilizado as grandes empresas de tecnologia contra a proposta regulatória europeia. Uma investigação recente realizada pelo Europe Observatory, uma ONG de ativistas em favor da transparência, denunciou que a Google e a Microsoft teriam pressionado intensamente os legisladores da UE para excluir a IA de uso geral, como o ChatGPT, das obrigações impostas aos sistemas de IA de alto risco[24]. Essa atuação das grandes empresas de tecnologia se explica porque eventual classificação da General Purpose AI (GPAI) como sistema de “alto risco” criará uma série de obrigações para os desenvolvedores desse tipo de tecnologia.

O Artificial Intelligence Act (AI Act) estabelece severas restrições ao desenvolvimento, adoção e comercialização de sistemas de IA que criam alto risco para a saúde, segurança e direitos fundamentais das pessoas. Sistemas incluídos na categoria de “alto risco” (high-risk) se sujeitam a requisitos de conformidade e avaliação prévia de impacto, antes de serem colocados no mercado. Para colocar no mercado consumidor da UE ou iniciar o funcionamento de um produto ou equipamento com algum componente ou programa de inteligência artificial (conceituado como de “alto risco”), o operador ou provedor deve implantar e manter um sistema de gerenciamento de risco (risk management system), que deve acompanhar e realizar testes de segurança durante todo o ciclo de vida do sistema de IA e mesmo antes de sua colocação no mercado. O AI Act ainda prevê outras exigências e condições para colocação no mercado ou início de funcionamento de sistemas de IA de “alto risco”. São requisitos relacionados com a qualidade dos dados, a necessidade de documentação e manutenção de registros, transparência quanto ao funcionamento dos sistemas, dever de informação ao usuário, submissão à supervisão humana, robustez, acurácia e resistência dos sistemas a ciberataques[25].

Em relação à inteligência artificial de uso geral (General Purpose AI), parece ser adequada uma regulamentação mais rigorosa. Especificamente no que diz respeito aos modelos de linguagem generativa, os riscos são de que aumentem a desinformação e o processo de disseminação de notícias falsas (fake news) que tem ameaçado governos democráticos. Os grandes modelos algorítmicos de linguagem natural (large language models)  tornarão mais fácil a produção de milhares de notícias falsas, com versões diversas sobre um mesmo fato. Por meio da criação de perfis falsos em plataformas digitais, será mais fácil influenciar pessoas a tomar decisões equivocadas.

O ChatGPT e os grandes modelos de linguagem em geral, já que são treinados e coletam grandes quantidades de informações disponíveis livremente nas redes telemáticas, também levantam preocupações com aspectos ligados à privacidade e à proteção de dados pessoais.

O sistema coleta imensas quantidades de dados disponibilizadas na internet, podendo processar dados sensíveis das pessoas que se encontrem hospedados em outros serviços e plataformas digitais. Como não se sabem exatamente os parâmetros do seu funcionamento, não é descartado que o ChatGPT seja treinado não só com base em dados abertos, mas também sobre dados que lhe são compartilhados por outras plataformas e serviços digitais. Ademais, como se trata de um sistema conversacional, que se envolve em diálogo utilizando linguagem natural, isso pode levar a que o usuário forneça informações pessoais de cunho íntimo. Em face dessa característica de seu funcionamento, o usuário muitas vezes pode imaginar que está travando contato com uma pessoa humana, e não com um sistema de inteligência artificial. Engajando-se em um diálogo com o ChatGPT, o usuário pode revelar interesses, credos, preferências sexuais, ideológicas e dados relativos à  saúde. O chatbot não só armazenará todas as mensagens recebidas do usuário, como, por ser um sistema de inteligência artificial altamente sofisticado, realizará cruzamento desses blocos de dados e extrairá inferências que lhe permitirão traçar um perfil completo da personalidade do usuário.

Mencionem-se ainda os acidentes de segurança que podem ocorrer, expondo dados pessoais de usuários. Na terça-feira, 21.3.23, um bug no sistema do ChatGPT acabou revelando as descrições de conversas de terceiros para os usuários do chatbot. Um porta-voz da OpenAI confirmou o defeito e acrescentou que o bug não expunha transcrições completas das conversas, mas apenas os títulos[26].

Além disso, como o ChatGPT é capaz de escrever códigos de programa para computador, teme-se que possa ser utilizado para elaboração de códigos maliciosos (malwares) e como ferramenta para ataques cibernéticos[27].

Como se observa, as implicações desses novos sistemas de inteligência artificial generativa são muitas, sobre diversas áreas e aspectos da vida humana, com o potencial de afetar direitos fundamentais, o que reforça a necessidade de regulamentação mais estrita do desenvolvimento e funcionamento dessas tecnologias. A ampla gama de aplicativos nos quais os sistemas de uso geral podem ser incorporados significa que qualquer falha pode ter efeitos abrangentes em muitos setores – uma única falha pode afetar centenas de aplicativos de IA integrados ao modelo de uso geral.

A formulação correta de uma política regulatória para os sistemas de IA de uso geral é essencial. Ainda que não se considerem os sistemas de inteligência artificial generativa, a exemplo do modelo sobre o qual funciona o ChatGPT, como uma tecnologia essencialmente periculosa, que traz “alto risco” para a segurança e saúde das pessoas, uma regulamentação específica é indispensável, como forma de atenuar os possíveis danos aos direitos fundamentais dos indivíduos.

Notas de fim

[1] A OpenAI é uma companhia sediada na Califórnia especializada em soluções de inteligência artificial generativa. O site da OpenAI: https://openai.com/

[2] Do inglês Chat Generative Pre-Trained Transformer, que traduzido para o português seria algo como Transformador Pré-treinado gerador de diálogos.

[3] Para saber mais sobre as características do ChatGPT e seu impacto no mercado de tecnologia, recomendamos a leitura de nosso artigo inicial sobre o assunto, publicado na Revista Jus Navigandi em 11.03.23, sob o título “O fenômeno do ChatGPT desperta a necessidade da regulamentação da Inteligência Artificial”, acessível em: https://jus.com.br/artigos/102919  

[4] Para fazer um teste no ChatGPT, acesse: https://chat.openai.com/auth/login

[5] Língua natural é qualquer linguagem desenvolvida naturalmente pelo ser humano, como o português, o Francês, o inglês etc.

[6] Os modelos de linguagem podem ser usados para resumir automaticamente documentos longos ou artigos, tornando-os mais acessíveis e fáceis de ler.

[7] Generative Pre-Training Transformer 3 (GPT-3) – que traduzido para o português seria algo como “Transformador Generativo Pré-Treinado 3” –  é um modelo de linguagem autorregressivo que usa aprendizagem profunda para produzir texto semelhante ao humano. É o modelo de previsão de linguagem de terceira geração da série GPT-n (e o sucessor do GPT-2) criado pela OpenAI. A versão completa do GPT-3 tem capacidade para 175 bilhões de parâmetros de aprendizado de máquina. Introduzida em maio de 2020 e em teste beta em julho de 2020, essa versão é parte de uma tendência em sistemas de processamento de linguagem natural (PNL) de representações de linguagem pré-treinadas. Antes do lançamento do GPT-3, o maior modelo de linguagem era o Turing NLG da Microsoft, lançado em fevereiro de 2020, com capacidade para 17 bilhões de parâmetros – menos de um décimo do GPT-3. (Cf. Wikipedia, https://pt.wikipedia.org/wiki/GPT-3).

[8] Em ciência da computação, redes neurais artificiais  (RNAs) são modelos computacionais inspirados pelo sistema nervoso central de um animal (em particular o cérebro) que são capazes de realizar o aprendizado de máquina (aprendizagem a partir dos dados) bem como o reconhecimento de padrões. (Cf. Wikipedia, https://pt.wikipedia.org/wiki/Rede_neural_artificial).

[9] Conforme notícia publicada no site Olhar Digital, em 16.03.23, acessível em: https://olhardigital.com.br/2023/03/16/pro/novo-chatgpt-cria-site-do-zero-descreve-imagem-e-entende-humor/   

[10] O novo modelo consegue entregar respostas de até 25 mil palavras, bem mais do que as 8 mil do GPT-3.5

[11] O termo LSAT é um acrônimo para Law School Admissions Test. É um teste padronizado aplicado a estudantes interessados em estudar Direito em faculdades e universidades nos EUA. O teste é projetado para determinar o raciocínio lógico e verbal, compreensão de leitura e habilidades analíticas.

[12] O Graduate Record Examination ou GRE é um teste feito no computador e cuja nota é utilizada como critério de admissão em diversos programas de mestrado e doutorado dos Estados Unidos e em alguns programas europeus.

[13] O SAT é um exame educacional padronizado nos Estados Unidos aplicado a estudantes do ensino médio, que serve de critério para admissão nas universidades norte-americanas. É um exame similar ao Enem.

[14] Conforme notícia publicada no site Canal Tech, em 21.03.23, acessível em: https://canaltech.com.br/inteligencia-artificial/coisas-que-o-chatgpt-4-faz-melhor-que-o-chatgpt-35/   

[15] No texto em inglês divulgado pela OpenAI, lê-se: “training data came from a variety of licensed, created, and publicly available data sources, wich may include publicly available personal information”.

[16] Diz o seguinte trecho do documento: “Given both the competitive landscape and the safety implications of large-escale models like GPT-4, this report contains no further details about the architecture (including model size), hardware, training compute, dataset construction, training method, or similar”. O relatório completo pode ser acessado em: https://cdn.openai.com/papers/gpt-4.pdf

[17] Ver notícia publicada no site FastCompany, em 16.03.23, acessível em: https://www.fastcompany.com/90866190/critics-denounce-a-lack-of-transparency-around-gpt-4s-tech  

[18] API significa Application Programming Interface (Interface de Programação de Aplicação). A interface pode ser entendida como uma ponte ou elo de ligação entre duas aplicações ou sistemas informáticos diferentes.

[19] Ver notícia publicada em 03.03.23, acessível em: https://mundoconectado.com.br/noticias/v/32007/openai-anuncia-api-do-chatgpt-diversas-empresas-ja-estao-testando

[20] Para saber mais sobre o AI Act, sugerimos a leitura do nosso artigo publicado na Revista Jus Navigandi, em 27.05.21, sob o título: “A proposta regulatória da União Europeia para a inteligência artificial (1ª parte): a hierarquização dos riscos”. Disponível em: https://jus.com.br/artigos/90816

[21] O Título II do AI Act descreve as “práticas de inteligência artificial proibidas” (prohibited artificial intelligence practices), assim consideradas aquelas que gerem “riscos inaceitáveis” de vulneração à saúde, segurança e direitos fundamentais das pessoas. Na categoria de práticas ou sistemas de IA inaceitáveis, encontram-se as seguintes: a) sistemas que induzam ou manipulem o comportamento das pessoas, por meio do uso de técnicas subliminares não percebidas pela consciência ou da exploração de vulnerabilidades causadas pela idade ou deficiências fisiológicas; b) programas e algoritmos utilizados por autoridades governamentais para “pontuação social” (social scoring); e c) utilização por órgãos do Poder Público de sistemas de identificação biométrica remota (como, p. ex., reconhecimento facial) em espaços públicos, salvo exceções previstas em lei. Para saber mais sobre os sistemas de IA vedados pelo AI Act, recomendamos a leitura do nosso artigo publicado na Revista Jus Navigandi, em 28.05.21, sob o título: “A proposta regulatória da União Europeia para a inteligência artificial (2ª parte): sistemas de risco inaceitável”. Disponível em: https://jus.com.br/artigos/90817

[22] Ver, a propósito, notícia publicada no site português Politico, em 03.03.23, acessível em: https://www.politico.eu/article/eu-plan-regulate-chatgpt-openai-artificial-intelligence-act/#:~:text=Europe’s%20original%20plan%20to%20bring,technology’s%20new%2C%20shiny%20chatbot%20application.&text=Voiced%20by%20artificial%20intelligence

[23] Ver notícia publicada no site Euractiv, em 14.03.23, acessível em: https://www.euractiv.com/section/artificial-intelligence/news/leading-eu-lawmakers-propose-obligations-for-general-purpose-ai/ 

[24] Ver notícia já referenciada, publicada no site português Politico, em 03.03.23.

[25] Para saber mais sobre os sistemas de IA de “alto risco”, recomendamos a leitura do nosso artigo publicado na Revista Jus Navigandi, em 20.06.21, sob o título: “A proposta regulatória da União Europeia para a inteligência artificial (3ª parte): sistemas de alto risco”. Disponível em: https://jus.com.br/artigos/91363/a-proposta-regulatoria-da-uniao-europeia-para-a-inteligencia-artificial-3-parte-sistemas-de-alto-risco

[26] Ver notícia publicada no site Olhar Digital, em 21.03.23, acessível em: https://olhardigital.com.br/2023/03/21/seguranca/chatgpt-bug-expoe-historico-de-chat-de-usuarios/

[27] É o próprio Sam Altman, o CEO da OpenAI, quem advertiu para essa possibilidade, segundo notícia do The Guardian, publicada em 17.03.23, acessível em: https://www.theguardian.com/technology/2023/mar/17/openai-sam-altman-artificial-intelligence-warning-gpt4

Demócrito Reinaldo Filho
Demócrito Reinaldo Filho
Mestre e Doutor em Direito. Especializou-se em Direito Digital pelo Berkman Center e pela Fundação Konrad Adenauer. Foi fundador e é ex-presidente do IBDI – Instituto Brasileiro do Direito da Informação. É Coordenador do Comitê Gestor de Proteção de Dados do Tribunal de Justiça de Pernambuco. Ingressou na magistratura por concurso público e atualmente é Desembargador do Tribunal de Justiça de Pernambuco.

Deixe um comentário

Compartilhe

Inscreva-se

Últimas

Recentes
Veja Mais

Direitos do Passageiro: Saiba Seus Direitos em Viagens

Conheça seus direitos do passageiro em viagens aéreas, terrestres e marítimas. Saiba como resolver problemas com bagagens, atrasos e cancelamentos de forma prática

Reembolso de Passagens Aéreas: Prazos e Procedimentos Garantidos pela Lei

O reembolso de passagens aéreas é um direito garantido aos passageiros em diversas situações, como cancelamento de voos, desistência de viagem ou alterações na programação. No Brasil, as normas que regulam esse direito estão previstas na Resolução nº 400 da ANAC e no Código de Defesa do Consumidor (CDC). Este artigo aborda as principais situações em que o passageiro pode solicitar o reembolso, os prazos estabelecidos pela legislação e os procedimentos necessários para garantir esse direito.

Danos Morais por Cancelamento de Voo em Cima da Hora: Direitos do Passageiro

O cancelamento de um voo em cima da hora é uma das situações mais frustrantes que um passageiro pode enfrentar. Além dos transtornos práticos, como perda de compromissos e gastos inesperados, o passageiro pode sofrer danos emocionais que configuram o chamado dano moral. Este artigo aborda os direitos dos passageiros em casos de cancelamento de voo de última hora, explicando quando é possível exigir indenização por danos morais, o que diz a legislação brasileira e como proceder para garantir seus direitos.

Overbooking: Direitos do Passageiro em Casos de Recusa de Embarque

O overbooking, prática em que as companhias aéreas vendem mais passagens do que o número de assentos disponíveis no avião, é uma estratégia comum no setor de aviação para evitar prejuízos decorrentes de no-show (passageiros que não comparecem ao voo).