Pular para o conteúdo

Chefes do ChatGPT temem que IA seja usada para criar ‘armas biológicas devastadoras’ – Noticias R7

Banner Aleatório

OpenAI diz que avanços em inteligência artificial podem facilitar o desenvolvimento de bioameaças e reforça medidas de segurança

Banner Aleatório

Internacional|Do R7

4FMMUJAK5FELPEEV7X37DHFYYM
Chefes do ChatGPT temem que IA seja usada para criar ‘armas biológicas devastadoras’ Divulgação/Unsplash/Solen Feyissa

A OpenAI, empresa criadora do ChatGPT, disse em um comunicado divulgado na última quarta-feira (18) que versões futuras do chatbot de IA (inteligência artificial) podem ser usadas para desenvolver armas biológicas.

No comunicado, publicado no próprio site, a empresa disse que, à medida que o ChatGPT se torna mais avançado em áreas como biologia, ele poderia fornecer “informações prejudiciais”, incluindo o auxílio a “atores altamente qualificados” na criação de bioameaças.

Embora a IA seja amplamente reconhecida pelo potencial em avanços médicos, como o desenvolvimento rápido de medicamentos e vacinas, os riscos associados ao uso indevido estão no radar da OpenAI, segundo a empresa.

A companhia reconhece que o acesso a laboratórios e materiais sensíveis ainda é uma barreira significativa, mas afirma que essas restrições “não são absolutas”.

Armas biológicas, como agentes que causam doenças, ferimentos ou morte em humanos, animais e plantas, representam uma ameaça real. Um exemplo são os ataques de antraz nos EUA, em 2001, quando cartas com esporos mortais foram enviadas a escritórios de mídia.

Riscos e necessidade de salvaguardas

Em uma declaração enviada ao site Axios, Johannes Heidecke, chefe de segurança da OpenAI, disse que as próximas versões do ChatGPT provavelmente não criarão armas biológicas de forma autônoma.

A preocupação real, no entanto, está na possibilidade de a IA oferecer ajuda a pessoas sem conhecimento científico avançado que queiram replicar bioameaças já conhecidas por especialistas.

“Ainda não estamos no mundo em que há uma criação nova e completamente desconhecida de bioameaças que não existiam antes”, disse Heidecke.

Ele enfatizou que os modelos de IA precisam ser programados com “quase perfeição” para identificar e alertar sobre perigos, destacando que um desempenho de 99% ou mesmo 99,999% não seria suficiente para garantir segurança.

A OpenAI disse que tem colaborado com especialistas em biossegurança, armas biológicas e bioterrorismo para moldar as capacidades do ChatGPT e limitar o acesso a informações perigosas.

Desde seu lançamento em 2022, o ChatGPT tem evoluído rapidamente, e os próximos modelos devem atingir “altos níveis de capacidade em biologia”, segundo a empresa, o que torna essas precauções ainda mais urgentes.

No ano passado, cientistas renomados já haviam alertado que a IA poderia, em um futuro próximo, produzir armas biológicas capazes de ameaçar a humanidade, segundo o jornal britânico The Sun.

Um relatório produzido por esses especialistas apontou que os governos têm a responsabilidade de regular o desenvolvimento de IAs com capacidades perigosas, especialmente aquelas que poderiam ser usadas em guerras biológicas ou nucleares.

Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *