Por Ênio Alterman Blay, pesquisador do Centro de Inteligência Artificial no InovaUSP
Em outubro passado defendi o doutorado, depois de alguns anos estudando e pesquisando. Acho que qualquer pessoa que tenha passado por esse processo sabe o quanto de dedicação e empenho é necessário. E, mais do que isso, um amplo apoio: família, amigos, professores, e outros mais.
Então, neste texto, gostaria de compartilhar resumidamente o que aprendi e que está agora disponibilizado na tese.
O tema da pesquisa foi mostrar como a complexidade (como uma ciência) e, mais especificamente, o pensamento complexo de Edgar Morin podem nos ajudar a analisar relações. Estas podem ser entre pessoas, organizações, países e até entre áreas de conhecimento. Relações complexas envolvem muitos elementos, frequentemente heterogêneos e cujas interações podem ser complementares, antagônicas ou concorrentes. E, como estudo de caso, utilizei as relações da Ética e da IA.
Quando escolhi esta combinação, há talvez três ou quatro anos, a incrível ubiquidade que o tema das relações entre Ética e IA adquiriu na atualidade ainda estava limitada a alguns nichos acadêmicos. E, mesmo neles, a complexidade não havia sido usada para interpretar o fenômeno.
Algumas publicações, como a AI and Ethics e o ACM Journal on Responsible Computing, que tratam especificamente de Ética e IA, começaram apenas nesta década de 2020. E como relatado em outro artigo aqui, um dos primeiros eventos que reuniu um grande número de especialistas foi o encontro em Asilomar de 2017.
A tese se propõe a apresentar as três áreas: complexidade, ética e IA. Para cada uma delas, as principais linhas gerais, conceitos e algumas perspectivas são descritas.
Em seguida, faço uma análise das relações e sobreposições entre as áreas, duas a duas.
Entre complexidade e ética encontram-se poucas referências. As que considerei mais importantes foram as contribuições de Paul Cilliers e Minka Woermann, com sua ética complexa (o trabalho de Cilliers também foi apresentado em outro artigo). Algumas das características principais desta ética complexa estão relacionadas com a pós-modernidade, um movimento de defende uma relativização em função dos pontos de vista diferentes dos agentes, seja em relação às regiões do mundo, às culturas nas quais cada um está imerso, ou ainda, à mudança dos pontos de vista em função do passar do tempo.
O outro grande referencial desta relação é o pensamento complexo de Edgar Morin. O sexto volume de O Método trata da ética complexa. Nele, Morin desenvolve os conceitos de autoética, socioética e antropoética. Cada um destes é apresentado e discutido na tese. Destaco aqui que na autoética, Morin conclama as pessoas a encontrarem seus próprios valores, suas bússolas internas, já que aqueles antes creditados a propostas universalistas e religiosas estão hoje sendo questionados.
No que diz respeito à relação da complexidade e IA, há uma série de abordagens tecnológicas que estão presentes nas duas áreas: modelagem baseada em agentes e complexidade algorítmica são dois exemplos. Mas há outros como a teoria dos jogos.
A última relação é entre a ética e a IA. E, neste caso, há um sem-número de trabalhos e estudos, principalmente em tempos recentes. Apenas para se ter uma ideia, uma das formas de implementação de sistemas seguros e confiáveis baseados em IA é através do emprego de frameworks. Estes são guias e orientações, de toda sorte de natureza e tipo, elaborados pelos mais diversos grupos e organizações, desde países até ONGs, passando por associações regionais como a União Europeia. Um trabalho de levantamento desenvolvido por pesquisadores europeus em 2019 mapeou 84 desses documentos. Uma pesquisa posterior, realizada por um grupo brasileiro da PUC-RS em 2021, chegou a 200. Isso nos revela o intenso crescimento e importância do tema para a sociedade.
A segunda parte da tese foi dedicada a um estudo de caso. Neste, através da entrevista com seis pesquisadoras e pesquisadores da IA no meio acadêmico, foi possível capturar algumas impressões de como o tema da ética em IA é considerado.
As entrevistas foram interpretadas à luz da análise qualitativa de conteúdo. Partindo desta análise, foi possível encontrar classificações pertinentes para o que foi relatado. Ou seja, cada “ideia”, que na tese foi designada por uma “paráfrase”, trazia um conceito ou preocupação específicos. Assim, as paráfrases foram classificadas segundo três abordagens:
As teorias clássicas da Ética que qualificam as ações humanas segundo as três principais escolas: a das virtudes (também conhecida por eudaimonia), a das normas (conhecida por deontológica) e a das consequências (consequencialista ou utilitarista).
Uma segunda classificação escolhida foi a das motivações. Se as pessoas possuem uma motivação intrínseca ou extrínseca para decidirem como decidem. Ou seja, se é uma decisão originária de sua índole ou se tal escolha se dá em função das pressões externas do meio.
Por fim, através de uma taxonomia encontrada em um artigo de revisão detalhado, foi possível utilizar uma outra forma de classificação. Nesta, as preocupações são classificadas segundo as formas pelas quais as pessoas lidam com o assunto Ética em seu trabalho em IA. Tal taxonomia está dividida em cinco: conscientização, percepção, necessidade, desafio e abordagem. Este curto artigo não permite aprofundarmo-nos no detalhamento de cada uma. A proposta aqui é dar uma visão geral da tese.
Ao final, as 40 paráfrases encontradas foram classificadas segundo as três formas apresentadas acima. E os achados são de que há uma grande variedade de combinações, mostrando uma variedade na forma pela qual as pessoas veem as questões éticas e seu papel como agente desenvolvedor dentro deste contexto. E também uma tendência majoritária a uma postura consequencialista ou utilitarista, o que transmite a ideia de que desenvolvedores e pesquisadores estão cientes dos benefícios e riscos desta tecnologia. Se, por um lado, acreditam que o uso de IA é positivo para a humanidade, por outro, têm consciência de que os problemas não devem ser menosprezados.
A pergunta que ainda fica é: quem deve avaliar e julgar as decisões de quem pesquisa? E mais, qual a responsabilidade de quem coloca as novas tecnologias de IA disponíveis para a sociedade? Em sua obra O princípio responsabilidade, diz Hans Jonas, um dos filósofos relevantes na tese e nas discussões sobre tecnologia e o futuro da humanidade: que poder deve representar hoje, os interesses das gerações futuras?
Não há boas e definitivas respostas à pergunta de Jonas. O que acredito ser válido afirmar é que a responsabilidade individual existe e não deve ser minimizada. Houve na história diversos movimentos cujo início se deu com indivíduos tomando uma posição consequente frente aos desafios e riscos na sociedade. Basta lembrar de Greta Thunberg sentada sozinha à frente do parlamento sueco.
E sobre avaliar o que seria justo e correto fazer, temos que recorrer à autoética. Afinal, em cada circunstância e sociedade, a decisão certa será diferente. Enquanto europeus preferem preservar a privacidade e individualidade, brasileiras e brasileiros estão preocupados em maior inclusão e justiça social.
O caminho a seguir não parece fácil. Nem por isso a opção é, como diz Bauman, resignarmo-nos a não lutar. A tese que ora fica à disposição da sociedade pode contribuir para decisões informadas e conscientes, que são o primeiro passo para uma Ética que reflita os anseios contemporâneos e, principalmente, futuros.
________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


