Já de longa data o neurocientista Miguel Nicolelis se diz um cético com relação `a chamada Inteligência Artificial – IA, afirmando que esta “não é inteligente, nem artificial”, descrevendo-a através da sigla afetiva NINA como “um dos maiores engodos que a humanidade já produziu”. Isso porque, segundo palavras dele, os sistemas que atualmente se apresentam como “inteligentes” nada mais fazem que reproduzir limitações fundamentais, sem a capacidade de capturar a complexidade da mente humana. E completa, ao dizer que quando a IA é anunciada como um produto ou serviço em estágio avançado, a indústria a estaria vendendo com promessas que não pode cumprir.
E Nicolelis não está sozinho nessa! Há quem vá mais longe, interpretando essa corrida indiscriminada rumo a uma inteligência superior à nossa como a maior teoria da conspiração de nossos tempos.
Tais posicionamentos contrastam, no entanto, com um cenário em que a IA avança sem precedentes desde o lançamento do ChatGPT em novembro de 2022. Primeiro com a IA Generativa (produtora de mídia sintética) e, agora, com a IA Agêntica (a dos agentes autônomos que operam de forma independente com um mínimo de participação humana).
Inclusive pelo fato de 2025 ser considerado um ano divisor de águas, cumprindo-se muitas das previsões do físico britânico Stephen Hawking, no sentido da IA se consolidar como um vetor de transformações profundas na sociedade, sobretudo na automação dos serviços, do trabalho e mais recentemente das relações humanas. Constituindo uma virada paradigmática, portanto, entre erros e acertos nos rumos da IA. E que 2026, em particular, irá despontar como o boom dos agentes de IA, a fim de que surja – no futuro breve – uma Inteligência Artificial feita para cada indivíduo chamar de sua, assim como foi o PC – computador pessoal – a seu tempo.
E a constatação de que já vivenciamos o prenúncio de uma nova era com a IA Agêntica se traduz em números que vem tanto do mercado financeiro, seja para analisar grandes volumes de dados, seja para proteger clientes e investimentos na antecipação de riscos e detecção de fraudes, quanto do varejo, agindo na automatização de compras, na gestão de estoques e ajuste de preços conforme seja o perfil do cliente e os padrões de seu consumo e comportamento pessoal.
Cabe, então, verificar se essas falas, umas mais céticas e otimistas do que outras, condizem com a situação atual da IA ou destoam da nossa realidade, fazendo com que certos conceitos fiquem ultrapassados ou mesmo estacionados no tempo.
O apelo do Future of Life
Surgem, de tempos em tempos, sentimentos conflitantes naqueles que se defrontam com um futuro tecnológico ainda incerto, mas que já se aproxima. Foi assim com a chegada disruptiva da luz elétrica, da máquina a vapor e da internet, no sentido de ambivalência, dilema moral/ético e insegurança despertados.
Daí a razão de desacelerar ou mesmo pausar o desenvolvimento de uma tecnologia quando essa avança a passos largos sem haver ainda um sistema de regras, controles, freios/contrapesos bem definido. Logo, com a IA não seria diferente.
A exemplo do que propõe o Future of Life Institute – FLI, uma organização sem fins lucrativos, sediada nos EUA, focada no direcionamento dos riscos e da segurança de tecnologias emergentes, que pede a proibição ou banimento temporário do que pode vir a ser uma Superinteligência (maior que a própria inteligência humana, portanto) enquanto não houver forte adesão pública e consenso científico de que será feita sobre controle e níveis de segurança razoáveis.
O argumento sobre o qual se debruça é de que existe uma disparidade entre as expectativas do mercado e do real retorno de que a IA pode vir a proporcionar. O que é corroborado por meio de duas cartas abertas – uma à época do ChatGPT em 2023 e outra agora assinada por figuras de peso como Geoffrey Hinton e Yoshua Bengio, dois dos cientistas mais citados como referência no assunto, tidos como os padrinhos da IA. E que alertam sobre o perigo no avanço de uma IA super evoluída que poderá substituir o humano e lhe tomar o poder. Preocupação, aliás, compartilhada por Hawking, de que no futuro uma tecnologia autômata saia do controle e materialize uma ameaça existencial à humanidade e segurança do planeta.
Logo, não é a primeira vez que isso vem a público! Enquanto em 2023 o Future Life Institute começava a temer os experimentos a partir do ChatGPT, pedindo uma moratória de pelo menos seis meses “no treinamento de sistemas de IA generativa mais poderosos que o GPT-4, já em 2025 vai além e se opõe à corrida pela Superinteligência (isto é, preocupa-se com a situação hipotética de uma IA que, “diferente das comuns” e apesar dos benefícios que irá proporcionar, poderia superar em malefícios e riscos potenciais para o futuro da humanidade).
A carta aberta de 2025 é um aceno a mais pois consegue reunir cerca de setecentas vozes em uníssono, entre cientistas, especialistas e personalidades públicas, em torno da pausa no avanço da ainda hipotética Superinteligência Artificial. E que acalora o debate não só sobre regulação que já vinha transcorrendo, como também sobre a questão da segurança acerca de uma inteligência artificial mais poderosa, sobre a qual já não se tinha controle antes, nem se sabe bem ainda como funciona.
A preocupação é, portanto, com o desenvolvimento de sistemas de IA somente quando houver certeza de que seus efeitos serão positivos e seus riscos gerenciáveis. Contudo, não é bem isso que acontece sem o devido planejamento e gerenciamento dos riscos. Pois, conforme os Princípios de IA de Asilomar, a chegada de uma IA avançada através de modelos cada vez maiores e imprevisíveis deveria ser precedida de melhor cuidado, planejamento e gerenciamento “com os recursos já disponíveis”.
Leia também: O conhecimento do mercado ‘funciona’ para a inovação e a internacionalização?
Percebe-se, então, que em comum entre as duas cartas, pondera-se sobre qual o benefício social que tecnologias emergentes como a IA poderá trazer frente a esse cenário de temor e incertezas. Pois ainda que Hawking fosse um entusiasta da inovação advinda das máquinas que, um dia, poderiam pensar e decidir por nós, também defendia o uso ético e responsável da tecnologia, temendo o poder das máquinas em substituição do humano. Uma preocupação, portanto, legítima com segurança e controle. Mas ainda impossível de se afirmar categoricamente que destruirá a espécie humana.
Só que, em contrapartida ao apelo que pede pausa no avanço da IA, é preciso também investigar quem e o quê está por trás daquelas cartas. Até mesmo para saber o porquê de hoje existir um descompasso entre o que querem a sociedade e as grandes empresas de tecnologia. Logo, o que primeiro chama a atenção são o volume e a diversidade de figuras públicas que assinam a carta organizada pelo Future of Life Institute (FLI). Em segundo lugar, os objetivos a que pretende chegar: “que haja consenso científico para que uma Superinteligência possa ser desenvolvida de maneira segura e controlável; e que a sociedade demonstre real interesse nesse tipo de tecnologia”, conforme analisa o professor Diogo Cortiz, referência em IA e comportamento humano.
Segundo o próprio, pode-se extrair duas leituras a partir da carta. Imagina, então, uma IA mais poderosa do que aquela que existe hoje em dia, operando em rede, em tempo real e de forma autônoma, minimamente supervisionada por humanos, adentrando no campo de infraestruturas críticas como “energia, finanças, logística, saúde e defesa”.
Lembra, ainda, que discutir esse tema não é nada trivial nem simples. Primeiro porque se não sabemos ainda definir o que seria essa Superinteligência, muito menos como chegar até ela, de que serve debater sobre os perigos de um problema hipotético? Já o segundo motivo vem em sequência, uma vez que “há pesquisadores dizendo que essa discussão é uma completa perda de tempo”.
Contudo, pensar em outras possibilidades, ainda que extremadas, hipotéticas ou distantes da nossa realidade, também ajuda a nos preparar para futuros possíveis, de modo a decidirmos juntos qual o melhor caminho a seguir. Por isso, é tão importante sabermos quem são as pessoas que estão por trás desse movimento e quais espectros políticos-ideológicos podem guiá-las.
Pois bem, o FLI é conhecido por se alinhar ao debate sobre os riscos existenciais e futuros à humanidade. E por vincular-se a correntes filosóficas que recebem críticas de economistas, sociólogos e até mesmo da Filosofia por sua natureza “tecnocrata” em focar demasiadamente no ‘fim do mundo”, enquanto não debatem os problemas atuais do mundo presente “em diferentes dimensões econômicas, políticas, culturais, cognitivas e até mesmo afetivas” que já podem estar em curso.
O risco, ao que parece, não deve ser a tomada imediata de poder pelas máquinas (como em um conto apocalíptico ou filme de ficção científica ao estilo Exterminador do Futuro). E sim a naturalização gradual desse processo de automação da IA a ponto de não saber mais como atribuir responsabilidades e, principalmente, a quem distribui-las quando algo sai errado ou diferente do esperado. É hora, então, de saber medir limites e controles.

Anderson Röhe é Pesquisador Fellow Sênior no Think Tank da ABES (GT-IA). As opiniões expressas neste artigo não refletem, necessariamente, os posicionamentos da Associação.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

