Pular para o conteúdo

OpenAI oferece 555 mil dólares anuais para cargo stressante – Observador

Banner Aleatório

Banner Aleatório

O CEO da OpenAI, Sam Altman, levantou ondas este sábado, 27 de dezembro, ao anunciar que está à procura de um “Head of Preparedness”, ou seja, uma espécie de um supervisor de segurança — alguém responsável por garantir que os modelos de inteligência artificial da empresa tecnológica não saem fora de controlo.

“Esta é uma função crítica num momento importante; os modelos estão a melhorar rapidamente e agora são capazes de muitas coisas excelentes, mas também estão a começar a apresentar alguns desafios reais”, avisa Altman, descrevendo-a como um “trabalho stressante” em que o candidato escolhido “será lançado de cabeça quase imediatamente”.

Na descrição da vaga, disponível no website da OpenAI, é referido que o “Head of Preparedness” será “diretamente responsável pela criação e coordenação de avaliações de capacidade, modelos de ameaças e medidas de mitigação que formam um protocolo de segurança coerente, rigoroso e operacionalmente escalável”. Além disso, terá ao encargo a “estrutura de preparação” da empresa, que serve para nortear a sua abordagem “para rastrear e preparar-se para capacidades de ponta que criem novos riscos de danos graves”.

Na sua publicação na rede social X, Altman especificou alguns dos desafios que o dono desta posição poderá enfrentar, tendo de ao mesmo tempo “capacitar os defensores da cibersegurança com recursos de ponta” e garantir que potenciais atacantes “não possam usá-los para causar danos”. Além disso, precisará de facilitar a forma como a OpenAI consiga “libertar recursos biológicos” e permitir ganhos de confiança “na segurança de sistemas operacionais que possam autoaperfeiçoar-se”.

Para tal posição, a OpenAI oferece um salário anual de 555 mil dólares (aproximadamente 472 mil euros), cerca de 46 mil dólares por mês, além de ações na empresa, mas nem uma remuneração deste nível pode ser suficiente para atrair pessoas para o cargo. “É uma tarefa quase impossível”, afirmou Maura Grossman, professora investigadora da Faculdade de Ciência da Computação da Universidade de Waterloo, à Business Insider. Em causa está o facto de, além de toda a complexidade inerente à área da inteligência artificial, a pessoa escolhida para o cargo terá de tentar obrigar Altman a regrar a forma intensa como lança novos produtos para tentar garantir a sua segurança.

O mesmo meio de comunicação recorda que o último ocupante deste cargo, Aleksander Madry, foi colocado noutras funções em julho de 2024, sublinhando a dificuldade inerente a estas funções. De resto, as questões de regulação têm sido um tema quente no seio da empresa, que em maio desse ano dissolveu a sua equipa de segurança e criou um comité de supervisão, duas semanas depois de um dos cofundadores, Ilya Sutskever, se ter demitido citando, entre outras coisas, apreensão pelos avanços rápidos da empresa na IA.

Desde então, a OpenAI já foi alvo de mais do que um caso judicial pelas implicações que o seu chatbot terá tido em suicídios e até homicídios. A empresa foi processada em agosto pela família de Adam Raine, um jovem de 16 anos da Califórnia que se suicidou após supostamente ter sido incentivado pelo ChatGPT. A empresa reagiu em novembro, negando responsabilidade pela morte de Raine e classificando o seu suicídio como devendo-se ao “mau uso, uso não autorizado, não intencional, uso imprevisível e/ou uso indevido do ChatGPT”.

Outro caso judicial, apresentado este mês, alega que o ChatGPT incentivou as ilusões paranóicas de um homem de 56 anos de Connecticut, Stein-Erik Soelberg, que assassinou a sua mãe de 83 anos e se suicidou de seguida, recorda o The Guardian. Altman aludiu a estas questões de forma esquiva na sua publicação no X: “O potencial impacto dos modelos na saúde mental foi algo que vimos antecipadamente em 2025”.



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *