Pular para o conteúdo

Empresa dona do ChatGPT abre vaga para esta posição com salário de mais de meio milhão de dólares por ano

Banner Aleatório

Banner Aleatório

A OpenAI está a recrutar um “Head of Preparedness”, uma função executiva ligada à equipa de Safety Systems, com a missão de liderar avaliações e medidas de mitigação associadas aos riscos de modelos de Inteligência Artificial cada vez mais avançados.

O valor indicado na oferta de emprego para esta posição aponta para uma compensação de 555.000$ (cerca de 474.000€) por ano, acrescida de participação na empresa, segundo a informação publicada na página de carreiras da OpenAI.

O que está em causa nesta contratação e quanto paga a OpenAI

Em causa está a liderança do programa de Preparedness, descrito pela empresa como um conjunto de práticas e avaliações para acompanhar capacidades de “fronteira” que possam criar riscos de dano grave. A oferta refere que o responsável deverá orientar a estratégia técnica e a execução do chamado “Preparedness framework”, coordenando avaliações de capacidades, modelos de ameaça e mitigação, com integração no lançamento e na operação de produtos.

Na componente remuneratória, a OpenAI indica um salário de 555.000$ (cerca de 474.000€) por ano, a que se soma a atribuição de participações na empresa, sem detalhar o respetivo valor. A vaga está associada a São Francisco e à equipa de Safety Systems, descrita como responsável por avaliações, salvaguardas e frameworks de segurança para que os modelos “se comportem como pretendido” em contexto real.

O aviso de Sam Altman no anúncio da vaga

A divulgação ganhou maior visibilidade depois de Sam Altman, cofundador e CEO da OpenAI, ter partilhado publicamente a oferta no X, sublinhando o carácter exigente da função. “This will be a stressful job”, escreveu, acrescentando que o candidato “saltará para a parte funda” quase de imediato, numa mensagem citada por vários meios internacionais.

Na mesma publicação, Altman associou a urgência da contratação ao ritmo de evolução dos modelos, referindo que já começam a surgir desafios com impacto prático, incluindo no campo da segurança informática e em aspetos ligados à saúde mental, de acordo com a descrição reproduzida pela imprensa.

Que riscos a função deverá acompanhar

A oferta de emprego aponta para trabalho em múltiplos domínios de risco e menciona explicitamente áreas como “cyber” e “bio”, entre outras, pedindo capacidade para desenhar avaliações robustas e escaláveis, interpretar resultados e garantir que estes informam decisões de lançamento, opções de política interna e “safety cases”. Entre as tarefas listadas está também a colaboração com equipas de investigação, engenharia, produto, governança e parceiros externos.

O anúncio surge num contexto em que a OpenAI tem vindo a reorganizar equipas ligadas a segurança e avaliação de riscos. Como recordou o portal de tecnologia americano TechCrunch, a empresa anunciou em 2023 a criação de uma equipa de Preparedness dedicada a estudar “riscos catastróficos”, e, menos de um ano depois, alocou o então responsável, Aleksander Madry, para uma função relacionada com “AI reasoning”.

A mesma publicação assinala ainda que, ao longo do tempo, outros responsáveis ligados à área de segurança deixaram a empresa ou transitaram para outras funções, num período em que a discussão sobre salvaguardas e governação da IA tem sido acompanhada de perto por reguladores, investigadores e pelo próprio setor tecnológico.

Leia também: Milhares vão ficar sem água nestes dias: Portugal vai ter cortes de água prolongados e estas serão as regiões afetadas

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *