A OpenAI está supostamente autocensurando suas pesquisas sobre o impacto negativo da IA, e isso até levou à saída de pelo menos dois funcionários.
De acordo com um novo relatório da COM FIOa OpenAI tornou-se “mais cautelosa” na publicação das conclusões negativas da sua equipa de investigação económica, como dados sobre todos os empregos que a IA poderá substituir.
Os funcionários estão supostamente pedindo demissão por causa disso, incluindo o cientista de dados Tom Cunningham, que agora trabalha como pesquisador na METR, uma organização sem fins lucrativos que desenvolve avaliações para testar modelos de IA contra ameaças à segurança pública. De acordo com o relatório, Cunningham escreveu numa mensagem interna no momento da sua recente saída que a equipa de investigação económica funcionava praticamente como o braço de defesa da OpenAI.
A OpenAI começou como um laboratório de pesquisa, mas desde então passou por uma grande evolução à medida que a empresa mudou o foco para seus produtos comerciais que geram bilhões de dólares em receitas.
As operações de pesquisa econômica da empresa estão sendo gerenciadas pelo primeiro economista-chefe da OpenAI, Aaron Chatterji, que foi contratado no final do ano passado. Sob Chatterji, a equipe recentemente compartilhou seu descobertas que o uso da IA poderia economizar de 40 a 60 minutos por dia para o trabalhador médio.
De acordo com o relatório WIRED, Chatterji se reporta ao diretor de assuntos globais da OpenAI, Chris Lehane, que conquistou a reputação de “mestre do desastre” com seu trabalho para o ex-presidente Bill Clinton (e anos depois para Airbnb e Coinbase), e é em grande parte considerado o especialista no controle de danos.
Esta não é a primeira vez que a OpenAI é acusada de favorecer o produto em detrimento da pesquisa de segurança. No mês passado, um relatório do New York Times acusou a OpenAI de estar bem ciente dos riscos inerentes à saúde mental do design viciante do chatbot de IA e ainda assim optar por segui-lo.
Também não é a primeira vez que um ex-funcionário considera a revisão da pesquisa da OpenAI muito dura. No ano passado, o antigo chefe de investigação política da empresa, Miles Brundage, partilhou que estava a sair porque as restrições editoriais tinham “tornado-se demasiado pesadas”.
“OpenAI agora é tão conhecido e seus resultados são revisados de tantos ângulos diferentes que é difícil para mim publicar sobre todos os tópicos que são importantes para mim”, Brundage compartilhou em um Subpilha publicar.
A inteligência artificial não só está a mudar todos os aspectos da sociedade moderna, como também já está a provar ter um impacto colossal na economia. Os gastos com IA provavelmente estão sustentando toda a economia americana neste momento, de acordo com alguns relatórios. E embora o júri ainda não tenha decidido quão eficaz e em que medida a IA pode assumir o controlo dos empregos, as primeiras pesquisas dizem que a IA já está a esmagar o mercado de trabalho em início de carreira. Até o presidente do Fed, Jerome Powell, admitiu que a IA é “provavelmente um factor” nas actuais taxas de desemprego.
No centro desse impacto descomunal da IA está a OpenAI. A empresa está no centro de uma teia emaranhada de negócios multibilionários, e o ChatGPT é um produto tão central que se tornou quase sinônimo da palavra “chatbot de IA”.
OpenAI também é a peça central do Stargate, o misterioso mas massivo plano de construção de data center de IA da administração Trump. Trump e os seus responsáveis têm defendido firmemente o potencial positivo da IA, ao mesmo tempo que deixaram de lado preocupações ecoadas por concorrentes como a Anthropic, como o fomento do medo ou o doomerismo.
Os executivos da OpenAI também foram apanhados em um setor em toda a indústria dividir sobre a segurança da IA em jogo no Capitólio. O presidente da OpenAI, Greg Brockman, é um dos principais apoiadores do “Leading the Future”, um super-PAC que vê a maior parte da regulamentação de segurança de IA como um obstáculo à inovação.












