A OpenAI está procurando um novo “chefe de preparação” para orientar a estratégia de segurança da empresa em meio a preocupações crescentes sobre como as ferramentas de inteligência synthetic poderiam ser mal utilizadas.
De acordo com o trabalho postagemo novo contratado receberá US$ 555.000 para liderar a equipe de sistemas de segurança da empresa, que a OpenAI diz estar focada em garantir que os modelos de IA sejam “desenvolvidos e implantados com responsabilidade”. O chefe de preparação também terá a tarefa de rastrear riscos e desenvolver estratégias de mitigação para o que a OpenAI chama de “capacidades de fronteira que criam novos riscos de danos graves”.
“Este será um trabalho estressante e você entrará no fundo do poço quase imediatamente”, escreveu o CEO Sam Altman em um comunicado. X postagem descrevendo a posição no fim de semana.
Ele acrescentou: “Este é um papel crítico num momento importante; os modelos estão melhorando rapidamente e agora são capazes de muitas coisas excelentes, mas também estão começando a apresentar alguns desafios reais”.
Procurado para comentar, um porta-voz da OpenAI encaminhou a CBS Information para a postagem de Altman no X.
O investimento da empresa em esforços de segurança ocorre à medida que se intensifica o escrutínio sobre a influência da inteligência synthetic na saúde psychological, após vários alegações que o chatbot da OpenAI, ChatGPT, esteve envolvido em interações que precederam uma série de suicídios.
Em um caso no início deste ano coberto pela CBS Informationos pais de um jovem de 16 anos processaram a empresa, alegando que o ChatGPT encorajou o filho a planejar o próprio suicídio. Isso levou a OpenAI a anunciar novos protocolos de segurança para usuários menores de 18 anos.
ChatGPT também supostamente alimentou o que ação movida no início deste mês descritos como os “delírios paranóicos” de um homem de 56 anos que assassinou sua mãe e depois se matou. Na época, a OpenAI disse que estava trabalhando para melhorar sua tecnologia para ajudar o ChatGPT a reconhecer e responder a sinais de sofrimento psychological ou emocional, acalmar as conversas e orientar as pessoas em direção ao suporte no mundo actual.
Além das preocupações com a saúde psychological, também aumentaram as preocupações sobre como a inteligência synthetic poderia ser usada para realizar ataques à segurança cibernética. Samantha Vinograd, colaboradora da CBS Information e ex-alta autoridade da Segurança Interna no governo Obama, abordou o assunto no programa da CBS Information “Enfrente a Nação com Margaret Brennan” no domingo.
“A IA não nivela o campo de jogo apenas para certos atores”, disse ela. “Na verdade, traz novos intervenientes para o campo, porque os indivíduos, intervenientes não estatais, têm acesso a tecnologia de custo relativamente baixo que torna diferentes tipos de ameaças mais credíveis e mais eficazes”.
Altman reconheceu os crescentes riscos de segurança que a IA representa no seu submit X, escrevendo que embora os modelos e as suas capacidades tenham avançado rapidamente, desafios também começaram a surgir.
“O impacto potencial dos modelos na saúde psychological foi algo que vimos em 2025; só agora estamos vendo os modelos ficarem tão bons em segurança de computadores que estão começando a encontrar vulnerabilidades críticas”, escreveu ele.
Agora, continuou ele, “estamos entrando em um mundo onde precisamos de uma compreensão e medição mais diferenciada de como essas capacidades podem ser abusadas e como podemos limitar essas desvantagens… de uma forma que nos permita desfrutar dos enormes benefícios”.
De acordo com o anúncio de emprego, um candidato qualificado teria “profundo conhecimento técnico em aprendizado de máquina, segurança de IA, avaliações, segurança ou domínios de risco adjacentes” e teria experiência em “projetar ou executar avaliações de alto rigor para sistemas técnicos complexos”, entre outras qualificações.
A OpenAI anunciou pela primeira vez a criação de uma equipe de preparação em 2023, de acordo com TechCrunch.













