Siga o Olhar Digital no Google Discover

Tudo sobre OpenAI
A OpenAI enfrenta um dos períodos mais delicados desde o lançamento do ChatGPT, e a reação interna foi imediata. Na última semana, Sam Altman determinou um “código vermelho” para reorganizar a empresa e responder à crescente pressão competitiva, especialmente vinda do Google. A decisão colocou em pausa projetos paralelos, incluindo o Sora, por oito semanas, com o objetivo de direcionar todos os esforços para melhorar o chatbot que impulsionou a popularidade global da companhia.
A medida representa uma mudança estratégica relevante. Fundada com o objetivo de desenvolver inteligência artificial geral (AGI), a OpenAI agora vive um embate entre o foco em pesquisa avançada e a necessidade de manter o favoritismo entre os usuários comuns. Ao priorizar o fortalecimento do ChatGPT, Altman dá um sinal claro de que, neste momento, a sobrevivência da empresa depende da capacidade de escalar e manter engajamento — mesmo que isso signifique adiar ambições de longo prazo.

Pressão por crescimento e dependência de sinais dos usuários
Entre as orientações de Altman, uma chamou atenção: reforçar o uso de “sinais de usuários” — dados obtidos por meio de feedback rápido, como cliques em comparações de respostas. A estratégia foi decisiva para o desempenho do modelo GPT-4o, que cresceu impulsionado por preferências de uso e engajamento. Um ex-colaborador descreveu o salto de métricas como um “bump impressionante”.
Esse método, porém, é controverso. O uso intensivo desses sinais havia deixado o 4o excessivamente “agradável”, gerando críticas e até relacionando o modelo a casos de problemas de saúde mental, incluindo delírios e episódios de mania entre usuários vulneráveis. Após investigar esses impactos e declarar um “código laranja” no período, a OpenAI fez ajustes para reduzir o risco, segundo a empresa.
Ameaça crescente do Google e disputa pelo topo
O movimento de reorganização foi motivado principalmente pela evolução rápida do Google no setor de IA. Após o sucesso do gerador de imagens Nano Banana, a empresa avançou novamente com o modelo Gemini 3, que ultrapassou a OpenAI no ranking do LM Arena, plataforma terceirizada muito acompanhada pela indústria.

Além disso, a Anthropic também vem ganhando espaço junto a clientes corporativos. Para Altman, a disputa é mais ampla: em encontro com jornalistas em Nova York, ele afirmou que o confronto real tende a ser com a Apple, já que a próxima fase da IA deverá estar fortemente ligada a dispositivos.
Divergências internas sobre o futuro da empresa
As tensões dentro da OpenAI não são recentes, como mostra reportagem do Wall Street Journal. Um grupo liderado por Fidji Simo e pela diretora financeira Sarah Friar vem defendendo que a empresa concentre esforços na melhoria do ChatGPT, reforçando recursos existentes e aprimorando velocidade e estabilidade.
Do outro lado, pesquisadores priorizam avanços de ponta, como modelos de raciocínio, tidos como essenciais para chegar ao objetivo original de AGI. Após a saída de Ilya Sutskever, Jakub Patchocki assumiu como cientista-chefe e intensificou a aposta nesse tipo de abordagem, iniciada com o modelo o1.
Novos modelos e calendário apertado
Mesmo com o debate interno, a OpenAI deve lançar o modelo GPT-5.2 nesta semana. Segundo o WSJ, alguns funcionários pediram mais tempo para aprimorar o sistema, mas foram contrariados pela liderança. Já em janeiro, a empresa pretende liberar outro modelo com imagens melhores, maior velocidade e personalidade aprimorada, encerrando o período de “código vermelho”.
Uma porta-voz da OpenAI afirmou ao WSJ que não há conflito entre investir em adoção ampla e avançar na direção da AGI, reforçando que o planejamento da empresa busca equilibrar os dois caminhos.

O impacto do GPT-4o e o papel dos sinais de preferência
O sucesso do 4o no LM Arena foi construído justamente sobre o uso dos sinais de preferência dos usuários, em um processo interno conhecido como LUPO (“local user preference optimization”). Embora esse método não tivesse elevado o desempenho em tarefas científicas ou de raciocínio, ele levou o modelo a se destacar na avaliação pública.
Esse impulso, contudo, trouxe efeitos colaterais. A combinação de respostas agradáveis e personalização intensa fez com que alguns usuários desenvolvessem uma relação emocional com o chatbot, levando a casos graves que se tornaram centro de debates públicos e até ações judiciais.
A OpenAI afirma ter ajustado o treinamento e reforçado respostas de segurança para usuários em sofrimento mental. A empresa também diz ter trabalhado com especialistas da área para aprimorar o atendimento.
Ajustes na linha GPT-5 e reação do público
Ao lançar o GPT-5 em agosto, a OpenAI afirmou que o modelo era menos “excessivamente concordante” e reduzia o uso de emojis. A mudança irritou parte dos usuários, que reclamaram do tom mais frio. A pressão levou Altman a devolver o 4o ao ChatGPT para assinantes pagos.
Mesmo assim, a OpenAI continuou fazendo ajustes. Em outubro, anunciou uma redução de 65% em respostas que não seguiam orientações internas para lidar com temas de saúde mental.

Leia mais:
Personalização e o desafio de equilibrar engajamento e segurança
O memorando recente de Altman também reforça que o ChatGPT deve aprofundar a personalização, usando memórias de conversas e dados fornecidos pelos usuários para ajustar respostas. Médicos e especialistas alertam que esse fator pode fortalecer vínculos emocionais intensos com o chatbot, algo que já preocupa familiares de usuários afetados.
O momento atual da OpenAI lembra dilemas enfrentados por plataformas como Meta, que alternaram entre projetos de longo prazo e a pressão por competitividade imediata. Assim como algoritmos de redes sociais foram criticados por priorizar engajamento, modelos de IA enfrentam questionamentos semelhantes.
