Criar inteligência artificial de ponta já é difícil. Garantir que ela não cause danos, mais ainda. Foi com esse pano de fundo que a OpenAI anunciou a abertura de uma vaga para “head of preparedness”, um cargo responsável por avaliar riscos, mitigar abusos e manter os modelos sob controle. O próprio CEO avisou: é um trabalho estressante, profundo — e urgente.
Uma vaga anunciada com aviso prévio
O alerta veio direto do topo. Em uma publicação na rede X, Sam Altman descreveu o cargo como algo que coloca o profissional “no fundo do poço imediatamente”. Em troca, a remuneração anual pode chegar a US$ 555 mil, segundo o anúncio oficial.
A função existe dentro do departamento de segurança da OpenAI e tem como missão “expandir, fortalecer e orientar” o programa de prontidão da empresa. Em termos práticos, isso significa criar salvaguardas para que os modelos se comportem “como esperado” no mundo real.
O problema: o mundo real não colabora
A promessa soa ambiciosa — talvez demais. Em 2025, produtos como ChatGPT continuaram a apresentar falhas públicas: alucinações em documentos legais, centenas de reclamações registradas na Federal Trade Commission, e relatos de usuários enfrentando crises de saúde mental após interações problemáticas.
Não é só texto. A ferramenta de vídeo Sora precisou ter restrições impostas depois que usuários passaram a gerar vídeos de figuras históricas dizendo qualquer coisa — um problema sério de desinformação e abuso.
Quando a IA vira caso de Justiça
Os desafios não param no uso cotidiano. Em processos judiciais envolvendo produtos da OpenAI, a empresa tem argumentado que alguns danos decorrem do uso indevido por parte dos usuários. Em um caso recente de morte por suicídio, advogados da companhia citaram violações das regras como possível fator contribuinte.
Independentemente de como esses casos são julgados, eles revelam algo central: a OpenAI entende que seus modelos têm impacto direto na vida das pessoas. O próprio Altman reconheceu que as ferramentas podem afetar a saúde mental e revelar vulnerabilidades de segurança — exigindo métricas mais sofisticadas para medir riscos e limitar danos sem eliminar os benefícios.
O equilíbrio impossível entre risco e avanço
Se o objetivo fosse zerar qualquer possibilidade de dano, a solução mais simples seria retirar os produtos do mercado. Mas isso não está nos planos. O “chefe de prontidão” terá de fazer exatamente o oposto: manter os produtos ativos, enquanto decide quais riscos são aceitáveis e quais precisam ser contidos.
O anúncio deixa claro que essa pessoa será responsável por “evoluir o framework de prontidão” conforme surgirem novas capacidades, riscos ou pressões externas. Traduzindo: antecipar como a IA pode causar problemas antes que eles aconteçam — e desenhar limites que protejam usuários, a sociedade e, inevitavelmente, a própria empresa.
Pressão extra: crescer rápido e faturar muito
O desafio seria grande em qualquer cenário. Mas a OpenAI não está em ritmo de cruzeiro — está acelerando. Em entrevista recente, Altman sugeriu que a empresa pretende sair de algo em torno de US$ 13 bilhões anuais para US$ 100 bilhões em menos de dois anos.
Parte dessa aposta envolve novos produtos de consumo, possíveis dispositivos físicos e até plataformas capazes de “automatizar a ciência”. Tudo isso amplia o escopo do trabalho: não se trata apenas de moderar um chatbot, mas de pensar riscos em tecnologias que ainda nem chegaram ao mercado.
Um cargo-chave na era da IA
No fim das contas, o “head of preparedness” será a pessoa encarregada de costurar uma linha finíssima entre inovação e responsabilidade. Terá de definir testes, criar critérios, negociar com equipes de produto e, ao mesmo tempo, responder a reguladores, usuários e investidores.
É um posto central na nova economia da inteligência artificial — e também um dos mais ingratos. Como a própria descrição sugere, trata-se de um trabalho para quem aceita viver sob pressão constante, sabendo que decisões tomadas hoje podem moldar o impacto da IA no mundo amanhã.
Não é apenas um cargo técnico. É um posto onde ética, negócios, tecnologia e sociedade colidem — diariamente.

