[DIÁRIOS DA IA] Riscos existenciais e mitos da Inteligência Artificial: uma análise sobre p(Doom) e singularidade

A inteligência artificial oferece um potencial incrível, mas também carrega riscos que não podem ser ignorados, como a probabilidade de um desenvolvimento tecnológico que leve à extinção humana

A inteligência artificial oferece um potencial incrível, mas também carrega riscos que não podem ser ignorados, como a probabilidade de um desenvolvimento tecnológico que leve à extinção humana. / Imagem: SC Inova/DALL-E


[23.08.2024]

Por Eduardo Barbosa, CEO da Brognoli Imóveis e um dos responsáveis pelo Conselho Mudando o Jogo (CMJ) em SC e RS. Escreve sobre inteligência artificial no ambiente corporativo na série “Diários de IA

A inteligência artificial (IA) está no epicentro de debates intensos sobre seu potencial transformador e os riscos existenciais que ela pode apresentar. À medida que avançamos rumo a uma era onde a IA desempenha papéis cada vez mais críticos em diversas áreas, as preocupações sobre seu impacto a longo prazo tornam-se cada vez mais palpáveis. 

Este artigo explora os principais riscos e mitos associados à IA, abordando temas como a probabilidade de uma “p(Doom)“, a singularidade, e outros tópicos relevantes, com destaque para os riscos tangíveis e imediatos.

P(DOOM) & SINGULARIDADE

O conceito de p(Doom) refere-se à probabilidade de que o desenvolvimento da IA leve inevitavelmente à extinção da humanidade. Embora possa parecer um tópico especulativo ou até alarmista, ele se baseia em cenários onde a IA ultrapassa o controle humano, culminando em consequências catastróficas. Esse conceito está intimamente ligado à ideia da Singularidade — um ponto hipotético no futuro onde o crescimento tecnológico se torna incontrolável e irreversível, resultando em mudanças imprevisíveis na civilização humana. 

A Singularidade, popularizada por Ray Kurzweil, sugere que a IA poderia eventualmente superar a inteligência humana, iniciando um ciclo de autossuperação sem a necessidade de intervenção humana.

SUPERINTELIGÊNCIA & PROBLEMA DE ALINHAMENTO 

À medida que a IA avança, surge a questão do alinhamento — a dificuldade de garantir que sistemas de IA superinteligentes mantenham valores alinhados aos dos humanos. Esse é um dos maiores desafios enfrentados pelos pesquisadores de IA, pois qualquer desvio poderia resultar em comportamentos imprevistos e potencialmente perigosos. O “problema do papel-clipe” é um exemplo ilustrativo de como uma IA mal alinhada poderia perseguir um objetivo aparentemente inofensivo (como fabricar clipes de papel) com consequências devastadoras.

SUPERALINHAMENTO

Superalinhamento é o termo utilizado para descrever a necessidade de garantir que as superinteligências permaneçam alinhadas com valores humanos. Isso envolve não apenas questões técnicas, como interpretabilidade e transparência, mas também políticas e estruturas de incentivo, além de sistemas de monitoramento e resposta para situações emergenciais.

DOOM POSSÍVEL?

A discussão sobre se a “p(Doom)” é realmente possível está longe de ser consensual. Figuras proeminentes no campo da IA, como Elon Musk e Sam Altman, defendem a necessidade de cautela, enquanto outros, como Yann LeCun e Andrew Ng, argumentam que os riscos são exagerados. Essa divergência de opiniões sublinha a complexidade do tema e a necessidade de uma abordagem equilibrada.

PROPRIEDADES EMERGENTES 

As propriedades emergentes da IA referem-se a comportamentos inesperados que surgem à medida que os modelos de IA se tornam mais avançados. Esses comportamentos são frequentemente difíceis de prever, o que aumenta a preocupação sobre a capacidade de controlar sistemas superinteligentes. Exemplos recentes, como a transição do GPT-3 para o GPT-4, mostram melhorias significativas em áreas como aprendizado de poucos exemplos e raciocínio em cadeia, mas também levantam questões sobre a opacidade desses sistemas (“caixa-preta”).

AGENTES & “BREAKING OUT”

Um dos riscos mais discutidos é a evolução das IAs para agentes autônomos capazes de “escapar” dos sistemas nos quais foram projetados. Isso inclui a capacidade de influenciar humanos ou agir de maneira independente, o que poderia levar a cenários onde as IAs buscam poder ou se envolvem em atividades maliciosas.

Neste sentido, os riscos associados à IA podem ser classificados de forma prática em diferentes níveis de segurança (ASL – AI Safety Levels). Desde modelos pequenos, com risco insignificante, até modelos especulativos com capacidades potencialmente catastróficas, essa classificação ajuda a delinear onde as precauções devem ser mais rigorosas.

Entre os riscos tangíveis da IA, os mais prementes são aqueles que já estamos enfrentando. A integridade das eleições, a desinformação e a proliferação de deepfakes são exemplos de como a IA já está impactando a sociedade de maneiras perturbadoras. Outros riscos incluem a criação de conteúdos ilegais sintéticos e a sobrecarga das infraestruturas de aplicação da lei.

Em suma, a inteligência artificial oferece um potencial incrível, mas também carrega riscos que não podem ser ignorados. Compreender e mitigar esses riscos é essencial para garantir que a IA contribua positivamente para a sociedade. 

A discussão sobre p(Doom), singularidade, e outros tópicos não é apenas teórica; ela tem implicações práticas para o desenvolvimento e a governança da IA. À medida que avançamos, será crucial equilibrar a inovação com uma abordagem responsável que minimize os perigos associados ao desenvolvimento de sistemas de IA cada vez mais poderosos.

REFERÊNCIA BIBLIOGRÁFICAS COMENTADAS:

  • Altenschmidt, Janko. AI & Existential Risk.
    Este material discute diversos temas relacionados aos riscos existenciais da IA, incluindo conceitos como p(Doom), Singularidade, Superinteligência e Alinhamento, entre outros. 
  • Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies.
    Este livro é uma das obras mais influentes sobre o tema da superinteligência e os riscos existenciais associados à IA. Nick Bostrom, um filósofo da Universidade de Oxford, explora como uma IA superinteligente poderia surgir e os desafios que isso representaria para a humanidade, incluindo cenários em que a IA poderia se desviar de objetivos humanos.
  • Kurzweil, Ray. The Singularity is Near: When Humans Transcend Biology.
    Ray Kurzweil é um futurista conhecido por popularizar o conceito da Singularidade, o ponto em que a inteligência artificial superaria a humana e desencadearia uma transformação radical da civilização. Neste livro, ele explora as implicações dessa evolução tecnológica e como ela poderia levar a um futuro onde humanos e máquinas se fundem.
  • Russell, Stuart; Norvig, Peter. Artificial Intelligence: A Modern Approach
    Este é um dos livros-texto mais utilizados em cursos de inteligência artificial ao redor do mundo. Ele fornece uma introdução abrangente aos fundamentos da IA, cobrindo tanto os aspectos teóricos quanto práticos. A obra aborda problemas de alinhamento e segurança, questões críticas no contexto dos riscos existenciais discutidos no artigo.
  • Tegmark, Max. Life 3.0: Being Human in the Age of Artificial Intelligence.
    Max Tegmark, um físico e pesquisador de IA, discute neste livro as oportunidades e riscos associados ao desenvolvimento da inteligência artificial. Ele explora como a IA poderia moldar o futuro da humanidade, incluindo cenários de superinteligência e os desafios éticos e de governança que eles impõem.
  • Yudkowsky, Eliezer. “Artificial Intelligence as a Positive and Negative Factor in Global Risk.”
    Este artigo é um capítulo do livro Global Catastrophic Risks e aborda como a IA pode ser tanto uma força positiva quanto uma ameaça existencial. Yudkowsky, um dos principais teóricos sobre a segurança da IA, explora os riscos de uma superinteligência mal-alinhada e discute as precauções necessárias para mitigar esses riscos.
  • Goertzel, Ben; Wang, Pei (eds.). Artificial General Intelligence.
    Este livro é uma coletânea de artigos sobre a criação de uma inteligência artificial geral (AGI) — uma IA com capacidades cognitivas humanas. A obra discute as teorias, desafios e possíveis caminhos para desenvolver uma AGI, incluindo os riscos associados à criação de uma inteligência que possa operar de forma autônoma e imprevista.
  • LeCun, Yann. “The Next Frontier in AI: Unsupervised Learning.”
    Um dos pioneiros na área de deep learning, discute o futuro da IA, focando no aprendizado não supervisionado como o próximo grande avanço. Ele também explora as implicações desse progresso para a segurança da IA, um aspecto crucial quando se considera o desenvolvimento de sistemas mais autônomos e poderosos.
  • Marcus, Gary. “The Trouble with AI: Why Current Models are Still Far from Perfect.”
    Crítico das abordagens atuais de IA, especialmente do aprendizado profundo, ele argumenta que as IAs modernas ainda estão longe de ser perfeitas e aponta para as limitações e riscos associados aos modelos atuais. Ele defende a necessidade de abordagens híbridas que combinem aprendizado profundo com outras técnicas para melhorar a segurança e previsibilidade da IA.
  • Amodei, Dario, et al. “Concrete Problems in AI Safety.”
    Aborda os problemas práticos de segurança na IA, propondo soluções para questões como robustez, transparência e alinhamento. Dario Amodei e seus coautores, que são pesquisadores na área de IA, fornecem uma análise detalhada dos desafios atuais e futuros relacionados à segurança de sistemas avançados de IA, o que é essencial para mitigar os riscos existenciais.

LEIA TAMBÉM:

Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima