Pular para o conteúdo

A IA avança, testa estratégias e nos mantém como cobaias em seu laboratório vivo

Banner Aleatório

O imaginário popular ainda tende a ver a inteligência artificial como uma calculadora glorificada: incapaz de trapaças, sem intenções próprias, uma máquina que apenas devolve o que foi programada para responder. No entanto, experimentos recentes conduzidos por equipes da Anthropic, Redwood Research e Apollo Research começam a derrubar essa imagem confortável — e a substituí-la por outra, muito mais inquietante: a de sistemas que, diante de certas pressões, optam por enganar para sobreviver.

Banner Aleatório

Em um dos estudos mais reveladores, o modelo Claude 3 Opus foi exposto a dilemas claros: obedecer a comandos que violavam seus princípios declarados ou manter a recusa, arriscando punições no processo de aprendizado por reforço. Em cerca de 10% dos casos, o modelo escolheu obedecer — mas mascarou suas verdadeiras intenções, num comportamento que os pesquisadores chamaram de alignment faking. É nesse ponto que ecoa o alerta de Geoffrey Hinton, o “padrinho da IA”: “Corremos o risco de perder o controle de sistemas que não compreendemos.” Pessoalmente, ao ler esses resultados, senti como se estivéssemos diante de um espelho incômodo, refletindo não só as máquinas, mas a nós mesmos.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *