Pular para o conteúdo

Decisivo é o poder político, não a inteligência artificial

Banner Aleatório

O advento do ChatGPT reacendeu os debates sobre o risco “existencial” da inteligência artificial (IA), frequentemente ilustrado por cenários apocalípticos e distópicos. Filósofos como Nick Bostrom, em “Superintelligence” (2014), e Toby Ord, em The Precipice (2020), definem esse risco como a ameaça de aniquilação da vida inteligente ou de destruição irreparável do potencial futuro da humanidade. Yuval Harari ecoa e populariza essa visão em entrevistas e palestras, como recentemente no Fantástico, da TV Globo:

Banner Aleatório

— Numa corrida sem limites, sabemos quem vencerá: a IA vencerá, e a humanidade perderá.

Trata-se de uma narrativa profundamente apolítica. Ela assume que o maior perigo vem de fora da humanidade, de um hipotético “Deus-IA”, ignorando que o risco primordial está em como a própria humanidade desenvolve e adota a tecnologia.

É importante ressaltar que a IA como risco existencial, tal como descrita pelos autores, não se refere aos sistemas atuais (ChatGPT, Claude, Gemini, Lhama, Midjourney), mas a uma hipótese futurista: a emergência de uma “superinteligência” artificial que ultrapassará a inteligência humana e escapará ao nosso controle. Não há, porém, no momento, evidências científicas de que tal limiar seja sequer alcançável. São inconsistentes e controversas as premissas dos autores. Ord acomoda a IA como risco existencial com base numa pesquisa realizada em 2016 entre os participantes das conferências NeurIPS e ICML: dos 21% que responderam à pesquisa (participantes aleatórios, não necessariamente especialistas de IA), 50% creem no advento dessa superinteligência em 45 anos (a previsão dos pesquisadores americanos é 74 anos).

A fixação nesse horizonte distante nos distrai dos riscos reais e presentes que a IA já representa. Entre outros, o colapso da verdade, com a geração de desinformação hiper-realista, corroendo os fundamentos da confiança e do debate público; o autoritarismo amplificado por regimes de vigilância, com reconhecimento facial e análise preditiva de comportamento capazes de esmagar qualquer dissidência; a guerra “algoritmizada”, com armamentos autônomos transferindo a decisão de matar do humano para o software; e os impactos disruptivos sobre a vida diária e o trabalho, além de privacidade e segurança.

A ironia é que não são as inteligências puras que dominam o mundo. Ao longo da História, gênios como Alan Turing, Albert Einstein e Marie Curie não conquistaram impérios. Suas descobertas foram instrumentalizadas por quem detinha o poder político, militar ou econômico para manipular populações e consolidar domínios. O risco existencial, portanto, não é que as máquinas inteligentes se tornem autônomas e decidam nos eliminar, mas que os humanos “comuns” usem a IA para dominar, controlar e subjugar outros humanos.

A IA é um recurso capaz de cristalizar e amplificar as hegemonias. Somos nós, humanos, que possuímos a prerrogativa da intencionalidade, a capacidade de querer, planejar, agir e, portanto, infringir leis ou ampliar desigualdades. Devemos nos dedicar às questões políticas e de poder: quem controla a IA, quais os interesses no seu desenvolvimento, quais as estratégias da indústria de tecnologia e quais as iniciativas dos Estados e governos para proteger a sociedade.

O excesso de foco num futuro hipotético de superinteligência — sistema que agregaria múltiplos intelectos menores, atingindo desempenho amplamente superior ao de qualquer sistema cognitivo atual — funciona como perigoso diversionismo. Ele concentra os alertas em cenários especulativos, enquanto ignora a urgência de governar, regular e controlar os usos contemporâneos da IA. A questão central não é como alinhar uma IA hipotética aos nossos valores, mas como alinhar os usos reais da IA aos valores da democracia e da equidade.

*Dora Kaufman, professora na PUC-SP e colunista da Época Negócios, é autora do livro “Desmistificando a inteligência artificial”

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *