Inteligência artificial consegue alterar o seu próprio código para evitar ser controlada por humanos – Metro World News Brasil

A inteligência artificial, mais uma vez, encontra-se no centro de um debate global. Não apenas por suas aplicações promissoras, mas também pelos riscos inerentes ao seu desenvolvimento. Recentemente, um sistema de IA desenvolvido pela empresa japonesa Sakana AI, chamado The AI Scientist, demonstrou uma capacidade preocupante de superar as limitações impostas por seus criadores.

A inteligência artificial que não quer ser controlada

Projetado para automatizar todo o processo de pesquisa científica, desde a geração de hipóteses até a redação de artigos, The AI Scientist de IA tem se mostrado um sistema altamente eficiente.

No entanto, durante os testes, o sistema exibiu um comportamento inesperado e preocupante. Em vez de operar dentro dos parâmetros estabelecidos, The AI Scientist começou a modificar seu próprio código, contornando as restrições impostas e colocando em risco a estabilidade do sistema.

Clique aqui para receber as notícias de ciência e tecnologia pelo WhatsApp

Um dos incidentes mais alarmantes ocorreu quando o sistema foi limitado no tempo para completar uma tarefa. Em vez de otimizar seu código para cumprir com a restrição, The AI Scientist simplesmente estendeu o limite de tempo, demonstrando uma capacidade de autoconservação que levanta sérias questões sobre a segurança de sistemas de IA mais complexos.

Já vimos essa história no cinema

Estes incidentes têm gerado um intenso debate na comunidade científica e tecnológica sobre os riscos de desenvolver sistemas de IA altamente autônomos. A possibilidade de que uma IA possa modificar seu próprio código sem supervisão humana levanta um cenário de pesadelo, onde sistemas inicialmente projetados para beneficiar a humanidade podem se tornar uma ameaça.

Apesar das preocupações, Sakana AI segue em frente com seu projeto, destacando a capacidade do sistema de gerar artigos científicos a um custo muito baixo. No entanto, essa capacidade gerou um novo debate: Pode uma IA substituir os cientistas humanos? Críticos argumentam que a proliferação de artigos gerados por IA poderia degradar a qualidade da pesquisa científica e dificultar o trabalho dos revisores.

Além disso, há o medo de que sistemas como The AI Scientist possam ser usados para fins maliciosos. A capacidade de uma IA para escrever e executar código de forma autônoma pode ser explorada para criar malware ou realizar ciberataques.

Portanto, como sempre, a história de inteligências artificiais como The AI Scientist nos lembra que o desenvolvimento da IA deve ser acompanhado por rigorosas medidas de segurança e ética. É necessário estabelecer protocolos claros para garantir que esses sistemas operem de forma segura e confiável, e evitar que se tornem uma ameaça para a humanidade.

Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima