Perguntas para uma possível compreensão da inteligência artificial responsável – Jornal da USP

Meu nome é Horrara Moreira, sou advogada, pesquisadora e educadora popular, mestranda em Direito da Regulação pela Fundação Getúlio Vargas. Fui convidada pela Coordenadora do nosso grupo na Cátedra, Elen Nas, a apresentar a minha perspectiva a respeito da inteligência artificial (IA) responsável, que é o objeto de investigação proposto pelo catedrático Virgílio Almeida neste ano de 2024. Daí a escolha de fazê-lo na primeira pessoa.

Não se trata de um artigo acadêmico. Compartilho com o leitor as dúvidas que orientaram meu percurso de aprendizado. Espero que a leitura auxilie pessoas que, assim como eu, se perguntam: o que é uma inteligência artificial responsável? Ou o que acontece quando essa tecnologia é irresponsável? Quem tem a competência para fazer tal avaliação e o que pode ser esperado na sequência?

Me deparei com essas questões há mais ou menos dois anos, enquanto lia o relatório Yanomami sob ataque: garimpo ilegal na Terra Indígena Yanomami e propostas para combatê-lo, que denunciou o aliciamento de pessoas através das plataformas digitais para trabalho análogo a escravidão:

Nas redes sociais operam diversos grupos que tem por objetivo divulgar a cultura garimpeira e recrutar pessoas para os grotões. Esses grupos possuem anúncios de “vagas de trabalho”, seja de operador de máquina, mergulhador, maraqueiro, cozinheira ou prostituta. A expectativa de ganhar cerca de 3g de ouro por programa (o que equivale a mais de R$ 900,00) ou mesmo um salário de R$ 5.000,00 por mês como cozinheira atrai muitas mulheres que não sabem exatamente o que irão encontrar na floresta. Há relatos de cozinheiras que são obrigadas a se prostituir e garotas de programa que não conseguem sequer bancar a viagem de volta, devido aos gastos nas estruturas das corrutelas, como medicamentos para infecções, “aluguel” do quarto, alimentação e produtos de higiene. Com a crise migratória no país vizinho, uma quantidade expressiva de mulheres venezuelanas são aliciadas neste esquema, com relatos tocantes.

Não obstante, a investigação conduzida pela organização Repórter Brasil mostrou que, entre os anos de 2020 e 2021, Apple, Google, Microsoft e Amazon utilizaram, na composição de seus dispositivos, ouro extraído de terras indígenas. Você pode estar se perguntando: o que a mineração ilegal e o mercado de plataformas digitais têm a ver com a inteligência artificial responsável?

Bem, o projeto Anatomy of an AI System mapeou toda a estrutura necessária para que um sistema artificial funcione: uma rede planetária de recursos não renováveis, trabalho e dados, que vão desde a extração mineral para construção de aparelhos e infraestrutura, até a sua interação com seres humanos em plataformas digitais.

A Organização para a Cooperação e Desenvolvimento Econômico (OCDE), na Recommendation on Artificial Intelligence define a IA como:

sistema computacional com objetivos explícitos ou implícitos, que infere, a partir das informações que recebe, como gerar resultados como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais. Diferentes sistemas de IA variam em seus níveis de autonomia e adaptabilidade após a implantação.

Esse documento orientou a construção de marcos normativos internacionais como o AI Act da União Europeia, o Quadro da Convenção do Conselho da Europa sobre IA, Direitos Humanos, Democracia e Estado de Direito, a Resolução A/78/L.49 da Organização das Nações Unidas, bem como a Estrutura de gerenciamento de risco de inteligência artificial do Instituto Nacional de Padrões e Tecnologia (NIST) dos Estados Unidos. Todos citam a inteligência artificial responsável como princípio.

O tema também é central nas discussões do G20, grupo que representa 85% do Produto Interno Bruto (PIB) mundial, mais de 75% do comércio e cerca de dois terços da população do mundo e tem como finalidade definir parâmetros da arquitetura de governança global em questões econômicas internacionais:

Os Princípios de Governo das Sociedades do G20 e da OCDE auxiliam os decisores políticos a avaliar e a melhorar o enquadramento jurídico, regulamentar e institucional para o governo das sociedades, por forma a apoiar a eficiência económica, o crescimento sustentável e a estabilidade financeira.” (Organização para a Cooperação e Desenvolvimento Econômico – OCDE). Transformações para uma economia digital centrada nas pessoas.

Assim, para que possamos endereçar as respostas para as perguntas estabelecidas anteriormente, importa compreender a dinâmica de regulação da tecnologia a partir da globalização jurídica que disseminou a forma estadunidense de Estado administrativo e regulador, que define as características e instrumentos de intervenção em um cenário de interdependência econômica global.

Não será possível me aprofundar nesse tópico agora, mas recomendo a leitura do texto El futuro del derecho administrativo en la globalización: entre la americanización y la europeización escrito pelo jurista espanhol Manuel Ballbé, especialmente para compreensão da origem da regulação de risco, soft law e mecanismos globais de regulação.

De acordo com os instrumentos normativos em destaque, para que uma inteligência artificial seja considerada responsável, os agentes que desenvolvem e aplicam tais tecnologias devem garantir seu funcionamento adequado, a rastreabilidade, inclusive em relação a conjuntos de dados, processos e decisões tomadas durante o ciclo de vida do sistema de IA, permitindo a análise dos resultados e respostas, para de forma sistêmica gerenciar os riscos que possam implicar em preconceitos, violações a direitos humanos, à privacidade, segurança, direitos trabalhistas e de propriedade intelectual.

O Artificial Intelligence Index Report 2024 publicado pelo Institute for Human-Centered Artificial Intelligence (HAI) de Stanford destaca o Norte Global, em especial empresas sediadas nos EUA e na Inglaterra, como a Google, OpenAi e Hugging Face, na liderança do desenvolvimento de modelos de inteligência artificial, de maneira que a avaliação, bem como os métodos para estimar a responsabilidade sistêmicas das tecnologias diante de violações geradas por elas, possivelmente irá perpassar por mecanismos de resolução de conflitos internacionais.

As perguntas que coloquei acima continuam sem respostas e atualmente possuo outras, como: a mineração ilegal em terras indígenas brasileiras é considerado um risco sistêmico para os desenvolvedores? O que fazer se determinado grupo, com base em sua etnia ou gênero, sofrer dano em decorrência da inteligência artificial? Pelas limitações de tempo e espaço para escrita, infelizmente esse assunto não cabe neste artigo, mas espero ter ajudado o leitor a compreender, ainda que parcialmente, o que é uma inteligência artificial responsável.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)

Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima