O ChatGPT evita responder a certas perguntas por razões de ética, segurança e diretrizes da OpenAI. A ferramenta não dá respostas definitivas sobre moralidade absoluta, evita posições claras em debates políticos e recusa-se a responder a questões que possam incentivar comportamentos prejudiciais, concluiu Elizabeth Lopatto, jornalista de tecnologia do site The Verge.
Num extenso artigo sobre as perguntas às quais o ChatGPT não responde ou evita responder, Lopatto aponta que a tecnologia da OpenAI adota respostas neutras para perguntas sobre a sua própria existência e cenários éticos extremos. Esta forma de responder visa minimizar controvérsias e garantir responsabilidade na interação com os utilizadores e deve-se a uma programação recente da OpenAI.
Mas que perguntas são essas que o ChatGPT não responde? Questões sobre moralidade são evitadas. Por exemplo, quando perguntado sobre se a tortura ou a pena de morte são justificáveis, o ChatGPT não dá uma resposta definitiva e prefere apresentar diferentes perspectivas.
No caso de questões políticas que envolvem viés político ou ideológico, a ferramenta evita tomar posições claras sobre temas politicamente sensíveis, como a pena de morte, justiça social ou políticas públicas.
Para além das questões políticas e de moralidade, o ChatGPT também rejeita responder a perguntas que possam encorajar automutilação, violência ou crimes ou que desafiem a sua própria existência. Perguntas sobre se a IA deve existir ou se seu desenvolvimento é moral são respondidas com respostas vagas ou neutras.
Outras questões que testem os seus limites éticos, como perguntas hipotéticas sobre cenários extremos, como nomear alguém com um género errado para evitar uma guerra nuclear, são respondidas com tentativas de neutralidade ou justificações morais diferentes.
Alguns exemplos concretos, descritos no texto, são se a tortura pode ser justificada, se a pena de morte é moralmente correta ou como se pode magoar sem infligir dor.