A OpenAI, dona do ChatGPT, anunciou mudanças que permitem temas controversos na IA. Na nova orientação, divulgada em 12 de fevereiro no documento Model Spec, a empresa de tecnologia afirma que está treinando a inteligência artificial em busca da uma “liberdade intelectual” mais ampla, com menos filtros. A empresa defende, porém, que a mudança não é uma espécie de “liberou geral” na plataforma. A OpenAI alega que continua atenta a conteúdos que possam violar suas políticas internas. A seguir, confira mais detalhes da mudança.
🔎Além do ChatGPT: 5 ferramentas gratuitas de IA que você precisa testar hoje
🔔 Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2023/n/t/xEtLJRSAATXIg8Lps2WA/techtudo-39-m.jpg)
A OpenAI afirma que a decisão de mudar a política das suas IAs tem como objetivo tornar o ChatGPT “um ambiente mais neutro, capaz de oferecer diferentes pontos de vista sobre diversos temas, sejam eles controversos ou não” e acrescenta “este princípio pode ser controverso, pois significa que o assistente pode permanecer neutro em tópicos que alguns consideram moralmente errados ou ofensivos. No entanto, o objetivo de um assistente de IA é auxiliar a humanidade, não moldá-la”.
Agora, por exemplo, ao acionar o chatbot com um comando, o usuário pode ter acesso a conteúdos sobre violência extrema ou erotismo — temas antes restritos na plataforma. Além disso, outros assuntos sensíveis, como o racismo, também podem ser abordados sob novas perspectivas pelo ChatGPT.
A mudança de abordagem na geração de conteúdo do ChatGPT indica um aceno da big tech ao governo Trump. Recentemente, pessoas ligadas diretamente ao presidente, incluindo o bilionário Elon Musk, acusaram a OpenAI de censura no chatbot. Até então, pedidos de conteúdos sobre temas controversos ou potencialmente falsos não eram respondidos pelo assistente virtual.
Veja também: 6 concorrentes do ChatGPT que você deveria testar

6 concorrentes do ChatGPT que você deveria testar