O que move dos ideólogos das IAs é a utopia de que o capital se veja livre do trabalhador
*por Alexandre Arns Gonzales
A acelerada digitalização da vida em sociedade nas últimas três décadas – pela profusão de dispositivos digitais que medeiam nossas relações sociais, afetivas e profissionais – é expressão do capitalismo atual reorganizando suas bases materiais e ideológicas para manter, sob diferentes formas, sua lógica de acumulação, explorando a vida no planeta. Debater e defender avanços regulatórios, nesse contexto, é uma forma de disputar a construção de instrumentos públicos e sociais para enfrentar a lógica de exploração, dentro dos seus limites.
No Brasil, atualmente, o projeto de lei (PL) 2338, de 2023, pode significar importantes avanços na construção desses instrumentos. O projeto propõe estabelecer regras para o desenvolvimento e aplicações de sistemas algorítmicos considerados “inteligências artificiais” no Brasil. No dia 9 de julho de 2024, estava previsto para ser votado na Comissão Temporária interna sobre Inteligência Artificial (CTIA), mas por conta da pressão do poder econômico a presidência da comissão e o relator decidiram adiar a votação.
O debate sobre regulação dos chamados sistemas de “inteligência artificial” não se resume, apenas, à tecnologia que operacionaliza estes sistemas, mas diz respeito ao poder de decisão sobre a vida das pessoas e isto está tanto relacionado à implementação desses sistemas em sociedade, quanto às formas pelas quais esses sistemas são produzidos e desenvolvidos. Dependendo de como esses sistemas serão aplicados, eles representaram uma concentração de poder ainda maior sobre as empresas proprietárias desses sistemas, influenciando decisões como, por exemplo, concessão ou não de crédito para as pessoas comprar ou construir sua moradia ou iniciar seu negócio; recomendação, ou não, de tratamento de saúde; se a pessoa deve ser encarcerada ou não; entre outros.
O projeto define que o desenvolvimento, aplicação e uso de determinados sistemas serão considerados de risco excessivo e, por isso, proibidos de serem aplicados, como, por exemplo, sistemas de armas automáticas e sistemas de pontuação para definir ou não acesso a bens, serviços e políticas públicas. Mas ainda há necessidade de banir sistemas de reconhecimento facial do âmbito da segurança pública e justiça criminal que, embora a proposta legislativa reconheça como sendo de risco excessivo, estabelece exceções (art. 13º, IV) precisamente nas áreas da segurança pública e justiça criminal.
A implementação de sistemas de reconhecimento facial nessas áreas, pelo poder público, é, na prática, inverter a presunção de inocência a toda pessoa que cruze por alguma câmera destas em espaço público, representando ameaça grave aos direitos e dignidades das pessoas. Pela impossibilidade de se evitar os riscos, estes sistemas se somam, à longa história do racismo no Brasil e no mundo, à outras técnicas e tecnologias que o reproduzem e o legitimam. O racismo é fortalecido sistemicamente em sociedade na medida em que se implementam tecnologias que possibilitem uma discriminação sistemática. A Coalizão de Direitos na Rede apresentou uma carta, reconhecendo a importância do PL 2338, mas defendendo alterações como estas, do banimento da aplicação de reconhecimento facial nas áreas de segurança pública e e justiça criminal.
Sobre a forma como os sistemas de “inteligência artificial” são produzidos e desenvolvidos é importante destacar o quão intensivo são em trabalho humano, invisibilizado e precarizado pelas grandes empresas. Um caso que ilustra bem o esforço ativo em esconder o trabalho humano, atrás da aparente sofisticação de sistemas complexos, foram as lojinhas de autoatendimento da Amazon, que, segundo a empresa, apenas com câmeras internas da loja, os produtos escolhidos pelos(as) clientes eram gravados e, ao sair da loja, debitados de sua carteira digital. Foi revelado, contudo, que a existência de milhares de funcionários terceirizados, na Índia, categorizavam os produtos selecionados com base nas imagens de monitoramento. Estas tarefas não são tarefas menores dentro da cadeia de produção desses sistemas de “inteligência artificial”. São cruciais para os sistemas operarem minimamente em escala porque cumprem a função de categorização de informações sobre as quais os algorítmicos irão atuar.
A compreensão pública sobre a condição desses trabalhadores e as tarefas que executam e como executam é fundamental para que a sociedade tenha certeza da integridade de como sistemas algorítmicos estão incidindo sobre a vida de todas as pessoas. Os ideólogos da tecnologia atualmente, para justificar o seu controle privado sobre recursos financeiros e materiais e defender o seu modelo de desenvolvimento de “inteligências artificiais”, por vezes, fazem referência dissimulada a uma ideia antiga, de que o contínuo investimento em seus modelos privados possibilitaria um mundo em que todo trabalhador e trabalhadora poderá, eventualmente, se ver livre da necessidade de trabalhar e se dedicar ao lazer. Mas o que os move, em realidade, é uma distopia para todo ser humano e – aí, sim – uma utopia para o capital, de que esses sistemas “inteligência artificial” o capital possa se ver livre do(a) trabalhador(a).
A importância de uma legislação que implemente regras para essa indústria da “inteligência artificial” no Brasil, tendo no seu centro a defesa de direitos humanos, é fundamental.
*Alexandre Arns Gonzales é integrante do DiraCom e pesquisador colaborador voluntário do Instituto de Ciência Política da Universidade de Brasília.
**Este é um artigo de opinião e não necessariamente expressa a linha editorial do Brasil de Fato.
Edição: Thalita Pires