
(Foto: Igor Omilaev/Unsplash)
Quando o cientista brasileiro Miguel Nicolelis declara que a Inteligência Artificial não é nem inteligente e nem artificial, ele articula uma crítica que soa, à primeira vista, devastadora. Desmascarar a IA como mero marketing dos anos 1950, reduzir algoritmos sofisticados a métodos estatísticos e alertar sobre “zumbis digitais” parece oferecer a clareza conceitual que falta ao debate público. Mas será que essa crítica, por mais bem-intencionada, não carrega suas próprias armadilhas? Será que, ao tentar desinflar o hype tecnológico, não acabamos por reforçar pressupostos igualmente problemáticos sobre o que constitui inteligência, humanidade e natureza?
O argumento de Nicolelis repousa sobre uma distinção categórica: inteligência é propriedade exclusiva de organismos biológicos, algo que emerge da interação orgânica com o ambiente. Computadores, operando binariamente, apenas simulam padrões sem consciência real. Há verdade nisso, mas também há uma aposta filosófica considerável que merece escrutínio. Afinal, o que exatamente torna a inteligência biológica “real” e a computacional “falsa”? A resposta não é tão evidente quanto parece.
Bruno Latour argumenta que a própria distinção entre natural e artificial é produto de um trabalho de purificação característico da modernidade, pois precisava manter separadas as esferas da natureza (objetiva, necessária) e da cultura (construída, contingente) precisamente porque sua prática efetiva produzia híbridos cada vez mais numerosos, entidades que são simultaneamente naturais e culturais, objetivas e subjetivas, humanas e não-humanas. Quanto mais se afirmava a separação ontológica, mais se proliferavam os híbridos que a desmentiam.
Sob essa lente latouriana, a insistência de Nicolelis em categorias puras, inteligência realmente biológica versus simulação mecânica, revela-se precisamente como trabalho de purificação. Mas o que acontece quando observamos as práticas efetivas? Neurocientistas usam modelos computacionais para compreender cérebros; sistemas de IA são treinados com padrões de cognição humana; diagnósticos médicos emergem da colaboração entre radiologistas e algoritmos; pesquisas científicas dependem de processamento de dados que nenhum humano poderia realizar isoladamente. Esses são híbridos latourianos por excelência, não são nem puramente biológicos nem puramente artificiais, mas redes sociotécnicas, cujas fronteiras se tornam nebulosas.
Consideremos o próprio trabalho de Nicolelis com interfaces cérebro-máquina, em que sinais neurais controlam próteses robóticas. O que acontece ali? Um neurônio biológico dispara, um sensor eletrônico capta o sinal, um algoritmo o interpreta, um motor mecânico se move. Onde termina o natural e começa o artificial? A inteligência que permite a um paraplégico chutar uma bola usando exoesqueleto é biológica ou artificial? A pergunta revela-se mal formulada, porquanto se trata de um híbrido, de uma assemblagem heterogênea em que separar componentes em categorias puras obscurece mais do que ilumina.
Donna Haraway afirmou que no final do século XX “somos todos quimeras, híbridos teorizados e fabricados de máquina e organismo, somos ciborgues”. Essa não era uma declaração futurista sobre o que nos tornaríamos, mas diagnóstico do que sempre fomos. Marcapassos, óculos, vacinas, telefones, próteses, a distinção entre humano e máquina nunca foi estável. A inteligência humana sempre operou através de ferramentas externas: linguagem, escrita, matemática, instrumentos científicos. Somos naturalmente artificiais.
Essa perspectiva dissolve o paradoxo que identificamos na crítica de Nicolelis, pois se a IA não é nem inteligente e nem artificial, é porque essas categorias, inteligência versus não-inteligência, natural versus artificial, são inadequadas para descrever híbridos. Quando um médico utiliza a plataforma Watson Health da IBM para diagnosticar câncer, a inteligência em operação não reside nem exclusivamente no cérebro humano nem exclusivamente no sistema computacional, mas na relação, na interface, no acoplamento. É inteligência distribuída, híbrida.
Andy Clark e David Chalmers, ao proporem a teoria da “mente estendida”, argumentam que processos cognitivos não estão confinados ao cérebro, mas se estendem através de artefatos no ambiente. Um paciente de Alzheimer usando caderno como memória externa não tem “menos inteligência”, tem inteligência distribuída diferentemente. Um estudante usando calculadora não abdica de inteligência matemática, reconfigura-a. Nessa visão, cérebros sempre foram acoplados a tecnologias, a diferença contemporânea é a escala e a velocidade de acoplamento, não a natureza ontológica.
Latour propõe substituir a pergunta “isso é humano ou não-humano?” pela pergunta “quais associações estão sendo feitas?”. Em vez de categorizar entidades, rastreamos redes. Assim, quando AlphaGo desenvolve estratégias inéditas de Go, não perguntamos se é realmente inteligente, mas mapeamos a rede: programadores humanos, bases de dados de partidas históricas (produzidas por humanos), algoritmos de aprendizado por reforço, hardware de processamento, interações com jogadores humanos durante treino. A inteligência não reside em nenhum nó individual, mas emerge da rede.
Essa abordagem dissolve também a segunda afirmação de Nicolelis, a de que IA não é artificial porque depende de trabalho humano. Latour diria, exatamente! Nada é puramente artificial ou puramente natural, toda tecnologia é um híbrido de intenções humanas, materiais naturais, processos físico-químicos, práticas sociais. O erro é pensar que artificial significa sem humanos; significa, antes, feito, fabricado, mas toda fabricação envolve agências múltiplas, humanas e não-humanas.
Haraway leva essa intuição adiante com o conceito de “espécies companheiras” e, mais tarde, “simpoiese”, fazer-com. Contra a noção de autopoiese (autocriação), Haraway insiste que nada se faz sozinho, organismos coevoluem com ambientes, humanos com cães, plantas com polinizadores, cientistas com instrumentos de laboratório. Inteligência, nessa visão, é sempre simpoiética, emerge do fazer-junto de elementos heterogêneos. Aplicado à IA, é possível compreendermos que os sistemas de aprendizado de máquina não são autopoiéticos, já que não se criam sozinhos, mas são simpoiéticos, pois emergem do fazer-junto de engenheiros, dados (produzidos por humanos anteriores), infraestrutura computacional, energia elétrica, teorias matemáticas, investimento financeiro, demandas de mercado. Não faz sentido perguntar se o produto final é realmente inteligente ou puramente artificial, ele é híbrido desde a origem.
Porém, reconhecer a hibridez não é abraçar ingenuamente toda inovação tecnológica. Latour alerta que os híbridos não são todos equivalentes; alguns são mais democráticos, outros mais autoritários; algumas redes aumentam a capacidade de ação distribuída; outras concentram poder. A questão política não é se a IA é inteligente, mas que tipo de híbridos estamos criando, quem participa de sua configuração, quem é afetado, como poder e responsabilidade são distribuídos.
Aqui a crítica de Nicolelis recupera força, mas reconfigurada. O alerta sobre os zumbis digitais pode ser traduzido latourianamente de maneira que o perigo não é os humanos pensarem como máquinas (distinção que mantém purificação), mas que certos híbridos humano-máquina empobreçam as capacidades humanas em vez de enriquecê-las. Quando o algoritmo de feed das mídias sociais decide o que você vê, escuta e lê, o híbrido humano-algoritmo resultante tem menos autonomia que leitores de jornais impressos escolhendo seções. Quando o motorista utiliza o GPS sem desenvolver senso de orientação, o híbrido motorista-GPS é menos capaz de navegar autonomamente que o motorista com o mapa físico e mental.
Isabelle Stengers, parceira intelectual de Latour, fala em “cosmopolítica”, uma política que inclui não apenas humanos, mas todos os entes que compõem o cosmos comum. Nessa perspectiva, a questão sobre a IA se reformula em que tipo de cosmos queremos compor. Queremos híbridos em que algoritmos tomam decisões judiciais sem supervisão humana significativa, queremos híbridos onde estudantes terceirizam pensamento crítico para as IAs generativas ou queremos híbridos que potencializam as capacidades humanas como médicos com diagnósticos assistidos, cientistas com análises de dados, artistas com novas ferramentas criativas?
A diferença não está em ser contra ou a favor da IA, mas em discriminar híbridos enriquecedores de híbridos empobrecedores. E essa discriminação não pode vir de princípios ontológicos abstratos, o que é realmente inteligente, mas de análise empírica e julgamento ético contextual. Um híbrido radiologista-IA que melhora diagnósticos é diferente de um híbrido professor-IA que automatiza educação, um híbrido artista-algoritmo que expande a criatividade é diferente de um híbrido trabalhador-algoritmo que intensifica a exploração.
Haraway insiste na proposta de “ficar com o problema” (staying with the trouble), isto é, resistir a soluções fáceis, tanto tecnofílicas quanto tecnofóbicas. Não podemos simplesmente rejeitar a IA como não-inteligente e manter a humanidade pura, pois já somos ciborgues, mas tampouco podemos celebrar acriticamente toda inovação, pois nem todos os acoplamentos são desejáveis. Precisamos cultivar a capacidade de discernimento sobre quais híbridos queremos nutrir.
Isso exige atenção às práticas concretas. Quando neurocientistas usam modelos computacionais, que tipo de conhecimento é produzido, que aspectos da cognição são iluminados, que aspectos são obscurecidos? Quando sistemas de IA filtram candidatos a emprego, que vieses são reproduzidos? Quando algoritmos geram arte, como isso transforma práticas artísticas humanas? Essas não são questões sobre essências, o que é real, mas sobre consequências, o que fazem essas associações.
Latour argumenta que os modernos podiam ignorar os híbridos porque os mantinham invisíveis através do trabalho de purificação. Dizíamos “isso é ciência (natureza)”, “isso é política (cultura)”, ignorando que ciência é prática social usando instrumentos materiais, e política é moldada por infraestruturas técnicas. Mas no Antropoceno, ou Capitaloceno, ou Plantationoceno, como preferem alguns, os híbridos explodem em visibilidade. A mudança climática é natural ou cultural, as pandemias são biológicas ou socioeconômicas? A IA é inteligente ou mecânica? As perguntas se revelam mal formuladas, são híbridos irredutíveis.
Reconhecer isso não é relativismo nem niilismo conceitual, é chamar a atenção para o fato de que ontologias são também políticas. Insistir que a IA não é realmente inteligente não é afirmação neutra, é defesa de fronteiras entre humano e não-humano que têm consequências práticas, pode servir para limitar a responsabilidade, pois se o algoritmo não é inteligente, não é responsável por viés discriminatório; pode servir para concentrar poder, já que apenas humanos decidem, mas quais humanos; ou pode servir para proteger dimensões valiosas da experiência humana contra a colonização algorítmica.
O ponto é que essas consequências não decorrem automaticamente de fatos ontológicos sobre a natureza da inteligência, mas de como configuramos híbridos em contextos específicos. Um mesmo sistema de IA pode ser empregado para libertar médicos de tarefas tediosas, permitindo mais tempo com pacientes, ou para intensificar a vigilância sobre o desempenho médico, transformando-os em operadores precários. A tecnologia é a mesma, os híbridos resultantes, radicalmente diferentes.
Haraway propõe pensarmos em termos de “parentesco” (kinship), não de laços biológicos puros, mas de relações construídas de cuidado mútuo, que construamos relações de responsabilidade com seres diversos, e não que reproduzamos versões idealizadas de nós mesmos. Dessa forma, em vez de perguntarmos se os algoritmos são como nós, podemos perguntar que tipo de relação queremos estabelecer. Queremos tratá-los como servos, como parceiros ou como ameaças a serem controladas? Cada escolha configura híbridos diferentes.
O receio de Nicolelis sobre a perda da condição humana faz sentido nesse quadro, mas precisa ser especificado, haja vista que não existe condição humana trans-histórica e pura, os seres humanos sempre foram constituídos relacionalmente, em acoplamentos com tecnologias, ambientes, outros seres. A questão é que condição humana queremos cultivar agora. Queremos cultivar capacidades de atenção profunda, pensamento crítico, empatia, criatividade? Então precisamos configurar híbridos que nutram essas capacidades, não que as atrofiem.
Mas isso não acontece por decreto ontológico, acontece por design consciente de interfaces, regulação de usos, educação de usuários, distribuição de poder sobre desenvolvimento tecnológico. Requer, nas palavras de Langdon Winner, reconhecer que “artefatos têm política”, que configurações técnicas incorporam e reforçam arranjos sociais específicos.
Se aceitamos que a inteligência é híbrida, distribuída, simpoiética, então o debate sobre a IA se desloca. Não perguntamos mais se as máquinas podem pensar, pergunta que pressupõe pensamento como propriedade interna, mas que novos híbridos pensantes estamos compondo. Não perguntamos se a IA é realmente inteligente, pressupondo inteligência como essência, mas como as inteligências heterogêneas se associam e com que efeitos.
Essa mudança de foco não resolve todos os problemas, mas os reformula produtivamente. Em vez de defender fronteiras ontológicas, rastreamos associações e avaliamos suas consequências. Em vez de negar agência a não-humanos, reconhecemos agência distribuída e perguntamos como organizá-la democraticamente. Em vez de temer a contaminação da pureza humana, perguntamos que híbridos queremos ser.
***
Ramsés Albertoni é Professor de Artes, Pesquisador de Pós-doutorado em Artes (PPGCA-UFF), Doutor em Artes (PPGACL-UFJF), Pesquisador do Grupo de Pesquisa Arte & Democracia.

