Avaliação de impacto algorítmico no desenvolvimento de sistemas autônomos inteligentes

Data:

Compreender as ferramentas de avaliação pode ser um forte instrumento de proteção aos direitos fundamentais

Artificial Intelligence - AI
Créditos: monsitj / iStock.com

O Brasil atualmente está buscando delinear o escopo e a estrutura legislativa relacionada a sistemas autônomos inteligentes (inteligência artificial), para fins de assegurar a segurança e o desenvolvimento tecnológico. De fato, tais sistemas estão cada vez mais presentes em nossas vidas, de forma aberta ou difusa, com diversos benefício e riscos. Um âmbito de importante percepção está relacionado a proteção e promoção dos direitos fundamentais previstos na Constituição.

Para tanto, é preciso entender que o risco é o efeito da incerteza nos objetivos, ou seja, a probabilidade de algo acontecer, cujo impacto poderá ser positivo ou negativo, relacionados a danos materiais ou imateriais. Daí a necessidade do mapeamento de riscos para a compreensão do contexto da organização em implementar melhorias, ou seja, quais os métodos utilizados para a mitigação ou eliminação dos mesmos.[3] Além disso, a abordagem que se espera é aquela consistente com a precaução, que recomenda a prevenção e a mitigação de riscos potenciais onde sua probabilidade de ocorrência é desconhecida ou não verificada.[4]

Nessa linha, o Parlamento Europeu, em 20 de outubro de 2020, publicou uma Resolução que contêm recomendações à Comissão Europeia sobre o regime relativo aos aspectos éticos da inteligência artificial (IA), da robótica e das tecnologias conexas.[5] Nesse documento, apresenta-se uma lista cumulativa e exaustiva dos setores de alto risco[6] e das utilizações ou finalidades de alto risco[7] que encerram um risco de violação aos direitos fundamentais e às regras de segurança.

Impende dizer, por aqui, a Comissão de Juristas instituída pelo Ato do Presidente do Senado nº 4, de 2022, destinada a subsidiar a elaboração de minuta de substitutivo para instruir a apreciação dos Projetos de Lei nºs 5.051, de 2019, 21, de 2020, e 872, de 2021, em seu Relatório Final, dedicou uma seção inteira sobre a necessidade de avaliação de impacto algorítmico de sistemas de inteligência artificial quando for considerado de alto risco pela avaliação preliminar.[8]

Pela proposta do Parlamento Europeu o desenvolvimento de sistemas autônomos inteligentes deve ser direcionado de acordo com a avaliação de riscos, como meio de assegurar que há conformidade com as obrigações legais conexas e respeito aos direitos fundamentais, como a dignidade da pessoa humana, o direito à liberdade e a privacidade, entre outros. Daí a importância de os entes políticos fornecerem orientações sobre como o impacto negativo dos sistemas de IA em face dos direitos humanos deve ser prevenido ou mitigado.[9]

A Lei Geral de Proteção de Dados (LGPD) no Brasil antecipou o tema determinando a proteção do titular dos dados, quando perante decisões tomadas unicamente com base em tratamento automatizado, que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. Torna-se fundamental o esclarecimento jurídico do conteúdo das decisões automatizadas, seus efeitos, limites e possibilidades, bem como a necessária transparência e direito de revisão.

A LGPD não esgota, contudo, o grande espectro de riscos envolvidos com o uso massivo, disseminado e difuso da inteligência artificial em todos os setores e aspectos da vida social e econômica.

Nesse sentido, cabe refletir sobre a regulamentação e adoção da ferramenta de avaliação de impacto algorítmico (AIA) no uso da IA no Brasil, possui a finalidade de permitir, de forma ampla, transparente e eticamente responsável, dotar os envolvidos na criação ou na aquisição de sistemas autônomos inteligentes que avaliem e tratem os possíveis impactos nocivos na prática.

Logo, será possível entender o nível de riscos e os danos envolvidos.  Para tanto, essa avaliação de impacto algorítmico deve ser feita por pesquisadores, desenvolvedores, implementadores ou compradores, para que assim possam compreender e mitigar possíveis riscos ou impactos negativos e considerar as implicações sociais de seu trabalho.[10]

Nessa perspectiva, há duas metodologias utilizadas para avaliar sistemas algorítmicos: auditoria de algorítmico; e avaliação de impacto algorítmico. A primeira é dívida em duas ferramentas, a auditoria de viés e a inspeção regulatória. A segunda composta, também, por duas ferramentas, a avaliação de impacto de riscos (ex ante) e a avaliação de impacto algorítmico (ex post).[11]

Sem dúvida, a utilização dessas ferramentas além de criarem maior responsabilidade durante o desenvolvimento de projetos de sistemas autônomos inteligentes, igualmente, acarretam uma melhora na confiança do público envolvido, através da transparência e supervisão como forma de mitigação de seus impactos e eventuais resultados prejudiciais ou socialmente inaceitáveis.

Por outro lado, os formuladores de políticas, interessados em mecanismos de responsabilização algorítmica, terão como distinguir de maneira útil o valor dessa avaliação de impacto, bem como será possível entender como os usuários e o público em geral irão interagir ou serão afetados.

Ainda que envolva, inicialmente, a análise da implantação do sistema, trata-se de um processo integrado e contínuo para identificar riscos e propor meios de reduzi-los.

Chama atenção que, a sua abordagem se origina por outros meios de avaliação de impacto utilizados no contexto da regulação de setores que estão envolvidos no projeto, como a regulamentação ambiental, padrões de direitos humanos, direitos trabalhistas, a privacidade e a proteção de dados, dentre outros. Por mais que esses setores sejam regulados por lei, a avaliação de impacto algorítmico possui o condão de realizar considerações sociais mais amplas. Pois, incluem as motivações do projeto, os riscos das decisões, a vulnerabilidade dos usuários do serviço e o tipo de tecnologia que será utilizado.[12]

De sorte que, acabará incentivando, igualmente, a aplicação de melhores práticas por parte de órgãos governamentais ou outras organizações que desenvolvem sistemas algorítmicos, através de uma série de etapas que devem ser realizadas antes da sua implantação, cujos objetivos dizem respeito: a responsabilidade; a reflexividade; a padronização; ao escrutínio independente; a transparência.

Desta forma, será possível estabelecer mecanismos rigorosos para a explicação do modelo (lógica envolvida) e as informações sobre quem desenvolveu o sistema, identificando os riscos e as preocupações envolvidas.

Por exemplo, merecem estudo aprofundado os critérios da ferramenta de avaliação de impacto algorítmico para sistemas especialistas proposto pelo Governo Canadense buscam apoiar a Diretiva do Conselho do Tesouro sobre a tomada de decisões automatizadas. São quarenta e oito (48) questões relacionadas ao risco e outas trinta e três (33) para mitigação[13], como forma de auxiliar departamentos e agências canadenses para uma melhor compreensão de como gerenciar os riscos associados a sistemas de decisão automatizado, bem como medidas de mitigação identificados em cada área de risco.

No entanto, denota-se que não há estudos de casos publicados sobre a implantação da avaliação de impacto algorítmico propostos pelo Governo Canadense, cuja finalidade seria atestar a sua eficácia como ferramenta e informar possíveis debates sobre como elas podem ser melhoradas.[14]

Com efeito, o uso de sistemas autônomos inteligentes e as novas potencialidades tecnológicas irão impactar, de forma cada vez mais acentuada, todos os setores da sociedade.  Entretanto, é essencial que ocorra o avanço de seus limites com base em estruturas regulatórias para governança da IA, como meio de desenvolver o controle eficaz sobre o uso de algorítmico.

Por isso, a necessidade de compreensão de ferramentas de avaliação de impacto algorítmico pode ser um importante instrumento de proteção dos direitos fundamentais, em equilíbrio com a eficiência inovadora dessa tecnologia revolucionária. De modo que, os envolvidos na criação ou aquisição de sistemas inteligentes autônomos avaliem e tratem os possíveis riscos antes de serem disponibilizados.

 *Artigo escrito em coautoria com Paulo Caliendo - Professor Titular na PUCRS. Doutor em Direito (PUCSP) e Doutor em Filosofia (PUCRS). Advogado e autor dos livros "Curso de Direito Tributário", e do livro finalista do Prêmio Jabuti “Direito Tributário e Análise Econômica do Direito”. Lattes: http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4790534J4 e ORCID https://orcid.org/0000-0002-7549-8275.

REFERÊNCIAS

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR ISO 31000:2018. ISBN 978-85-07-07470-0.

Ada Lovelace Institute; DataKind UK. Examining Tools for assessing algorithmic systems the Black Box: Tools for assessing algorithmic systems. Disponível em: <https://www.adalovelaceinstitute.org/wp-content/uploads/2020/04/Ada-Lovelace-Institute-DataKind-UK-Examining-the-Black-Box-Report-2020.pdf>. Acesso 27 ago. 2022.

BRASIL. Senado Federal. Projeto de Lei n. 21, de 2020. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9063365&ts=1653621171778&disposition=inline>. Acesso em: 30 mai. 2022.

COUNCIL OF EUROPE COMMISSIONER FOR HUMAN RIGHTS. Unboxing Artificial Intelligence: 10 steps to protect Human Rights. 2019. Disponível: <https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/1680946e64>. Acesso 28 ago. 2022.

COMISSÃO DE JURISTAS RESPONSÁVEL POR SUBSIDIAR ELABORAÇÃO DE SUBSTITUTIVO SOBRE INTELIGÊNCIA ARTIFICIAL NO BRASIL Relatório Final. Disponível: <https://legis.senado.leg.br/comissoes/mnas?codcol=2504&tp=4>. Acesso 21 jan. 2023.

GOVERNMENT OF CANADA. Algorithmic Impact Assessment Tool. Disponível em: <https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html#shr-pg0>. Acesso em: 17 jul. 2022.

PARLAMENTO EUROPEU. Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas. Disponível em: <https://www.europarl.europa.eu/doceo/document/TA-9-2020-10-20_PT.html#sdocta8f>. Acesso em: 30 mai. 2022.

TRENGOVE, Markus; KAZIM, Emre. Dilemmas in AI Regulation: An Exposition of the Regulatory Trade-Offs Between Responsibility and Innovation (April 1, 2022). Disponível em: <http://dx.doi.org/10.2139/ssrn.4072436>. Acesso: 25 jul. 2022.

NOTAS DE FIM

[3] ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR ISO 31000:2018. ISBN 978-85-07-07470-0.

[4] TRENGOVE, Markus; KAZIM, Emre. Dilemmas in AI Regulation: An Exposition of the Regulatory Trade-Offs Between Responsibility and Innovation (April 1, 2022). Disponível em: http://dx.doi.org/10.2139/ssrn.4072436. Acesso: 25 jul. 2022.

[5] PARLAMENTO EUROPEU. Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas. Disponível em: <https://www.europarl.europa.eu/doceo/document/TA-9-2020-10-20_PT.html#sdocta8f>. Acesso em: 30 mai. 2022.

[6] Emprego; educação; saúde; transportes; energia; setor público (asilo, migração, controlos nas fronteiras, sistema judicial e serviços da segurança social); defesa e segurança; finanças, banca, seguros; PARLAMENTO EUROPEU.

[7] Recrutamento; classificação e avaliação de estudantes; atribuição de fundos públicos; concessão de empréstimos; negociação, corretagem, tributação, etc; tratamentos e procedimentos médicos; processos eleitorais e campanhas políticas; decisões do setor público com um impacto significativo e direto nos direitos e obrigações de pessoas singulares e coletiva; condução automatizada; gestão do tráfego; sistemas militares autónomos; produção e distribuição de energia; gestão de resíduos;  controlo de emissões; PARLAMENTO EUROPEU.

[8] COMISSÃO DE JURISTAS RESPONSÁVEL POR SUBSIDIAR ELABORAÇÃO DE SUBSTITUTIVO SOBRE INTELIGÊNCIA ARTIFICIAL NO BRASIL Relatório Final. Disponível: <https://legis.senado.leg.br/comissoes/mnas?codcol=2504&tp=4>. Acesso 21 jan. 2023.

[9] COUNCIL OF EUROPE COMMISSIONER FOR HUMAN RIGHTS. Unboxing Artificial Intelligence: 10 steps to protect Human Rights. 2019. Disponível: <https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/1680946e64>. Acesso 28 ago. 2022.

[10] ADA LOVELACE INSTITUTE; DATAKIND UK. Examining Tools for assessing algorithmic systems the Black Box: Tools for assessing algorithmic systems. Disponível em: <https://www.adalovelaceinstitute.org/wp-content/uploads/2020/04/Ada-Lovelace-Institute-DataKind-UK-Examining-the-Black-Box-Report-2020.pdf>. Acesso 27 ago. 2022.

[11] Id. ibid.

[12] Id. ibid.

[13] GOVERNMENT OF CANADA. Algorithmic Impact Assessment Tool. Disponível em: <https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html#shr-pg0>. Acesso em: 17 jul. 2022.

[14] ADA LOVELACE INSTITUTE; DATAKIND UK.

Marcelo Pasetti
Marcelo Pasetti
Mestre em Direito pela PUCRS. Pesquisador – Eixo Jurídico, no projeto Rede de Inteligência Artificial Ética e Segura – RAIES, pela PUCRS com apoio pela FAPERGS. Professor do Curso de Graduação em Direito da Faculdade Mario Quintana. Advogado. Lattes: http://lattes.cnpq.br/7149655503079342.

Deixe um comentário

Compartilhe

Inscreva-se

Últimas

Recentes
Veja Mais

Como Registrar Minha Marca no INPI: Um Guia Completo

Como Registrar Minha Marca no INPI: Um Guia Completo O...

Como registrar a sua marca por meio da Internet?

Registrar uma marca pela internet tornou-se um processo acessível e eficiente, permitindo que empresários e criadores protejam seus ativos intelectuais sem a necessidade de deslocamentos físicos.

Como Obter uma Marca Registrada: Guia Passo a Passo

Como Obter uma Marca Registrada: Guia Passo a Passo Obter...

Registro de Marcas e Patentes: Um Processo Transparente e Seguro

O registro de marcas e patentes é uma etapa crucial para garantir a proteção e o sucesso de inovações e identidades empresariais no mercado competitivo atual. Este processo não só salvaguarda direitos legais, mas também oferece uma clara vantagem competitiva ao estabelecer um ambiente de negócios justo e transparente.