Início Tecnologia OpenAI acusada de pesquisa de autocensura que pinta a IA de uma...

OpenAI acusada de pesquisa de autocensura que pinta a IA de uma forma negativa

7
0

A OpenAI está supostamente autocensurando suas pesquisas sobre o impacto negativo da IA, e isso até levou à saída de pelo menos dois funcionários.

De acordo com um novo relatório da COM FIOa OpenAI tornou-se “mais cautelosa” na publicação das conclusões negativas da sua equipa de investigação económica, como dados sobre todos os empregos que a IA poderá substituir.

Os funcionários estão supostamente pedindo demissão por causa disso, incluindo o cientista de dados Tom Cunningham, que agora trabalha como pesquisador na METR, uma organização sem fins lucrativos que desenvolve avaliações para testar modelos de IA contra ameaças à segurança pública. De acordo com o relatório, Cunningham escreveu numa mensagem interna no momento da sua recente saída que a equipa de investigação económica funcionava praticamente como o braço de defesa da OpenAI.

A OpenAI começou como um laboratório de pesquisa, mas desde então passou por uma grande evolução à medida que a empresa mudou o foco para seus produtos comerciais que geram bilhões de dólares em receitas.

As operações de pesquisa econômica da empresa estão sendo gerenciadas pelo primeiro economista-chefe da OpenAI, Aaron Chatterji, que foi contratado no final do ano passado. Sob Chatterji, a equipe recentemente compartilhou seu descobertas que o uso da IA ​​poderia economizar de 40 a 60 minutos por dia para o trabalhador médio.

De acordo com o relatório WIRED, Chatterji se reporta ao diretor de assuntos globais da OpenAI, Chris Lehane, que conquistou a reputação de “mestre do desastre” com seu trabalho para o ex-presidente Bill Clinton (e anos depois para Airbnb e Coinbase), e é em grande parte considerado o especialista no controle de danos.

Esta não é a primeira vez que a OpenAI é acusada de favorecer o produto em detrimento da pesquisa de segurança. No mês passado, um relatório do New York Times acusou a OpenAI de estar bem ciente dos riscos inerentes à saúde mental do design viciante do chatbot de IA e ainda assim optar por segui-lo.

Também não é a primeira vez que um ex-funcionário considera a revisão da pesquisa da OpenAI muito dura. No ano passado, o antigo chefe de investigação política da empresa, Miles Brundage, partilhou que estava a sair porque as restrições editoriais tinham “tornado-se demasiado pesadas”.

“OpenAI agora é tão conhecido e seus resultados são revisados ​​de tantos ângulos diferentes que é difícil para mim publicar sobre todos os tópicos que são importantes para mim”, Brundage compartilhou em um Subpilha publicar.

A inteligência artificial não só está a mudar todos os aspectos da sociedade moderna, como também já está a provar ter um impacto colossal na economia. Os gastos com IA provavelmente estão sustentando toda a economia americana neste momento, de acordo com alguns relatórios. E embora o júri ainda não tenha decidido quão eficaz e em que medida a IA pode assumir o controlo dos empregos, as primeiras pesquisas dizem que a IA já está a esmagar o mercado de trabalho em início de carreira. Até o presidente do Fed, Jerome Powell, admitiu que a IA é “provavelmente um factor” nas actuais taxas de desemprego.

No centro desse impacto descomunal da IA ​​está a OpenAI. A empresa está no centro de uma teia emaranhada de negócios multibilionários, e o ChatGPT é um produto tão central que se tornou quase sinônimo da palavra “chatbot de IA”.

OpenAI também é a peça central do Stargate, o misterioso mas massivo plano de construção de data center de IA da administração Trump. Trump e os seus responsáveis ​​têm defendido firmemente o potencial positivo da IA, ao mesmo tempo que deixaram de lado preocupações ecoadas por concorrentes como a Anthropic, como o fomento do medo ou o doomerismo.

Os executivos da OpenAI também foram apanhados em um setor em toda a indústria dividir sobre a segurança da IA ​​​​em jogo no Capitólio. O presidente da OpenAI, Greg Brockman, é um dos principais apoiadores do “Leading the Future”, um super-PAC que vê a maior parte da regulamentação de segurança de IA como um obstáculo à inovação.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui