Centenas de figuras públicas assinaram uma carta pedindo a proibição world de uma forma de IA que poderia superar os humanos
Centenas de dignitários da tecnologia, da academia, da política e do entretenimento assinaram uma carta pedindo a proibição do desenvolvimento dos chamados “superinteligência”, uma forma de IA que superaria os humanos em essencialmente todas as tarefas cognitivas.
O grupo argumenta que a criação de uma IA superinteligente poderia desencadear o caos económico, minar a liberdade humana e até ameaçar a extinção humana se não for controlada. A chamada segue-se a meses de avisos crescentes de especialistas que afirmam que os modelos de IA existentes estão a avançar mais rapidamente do que os reguladores conseguem acompanhar.
Entre as 4.300 assinaturas até quinta-feira estão o cofundador da Apple, Steve Wozniak, o fundador do Virgin Group, Richard Branson, as celebridades da mídia Kate Bush e Will.I.am, e a tecnologia “padrinhos” como Geoffrey Hinton e Yoshua Bengio.
A declaração pede que a proibição seja imposta até “há um amplo consenso científico de que [the development] será feito de forma segura e controlada”, assim como “forte adesão pública”.
Apesar do crescente alarme sobre os riscos potenciais da IA, a regulamentação world permanece irregular e inconsistente.
A Lei da IA da União Europeia, a primeira grande tentativa mundial para governar a tecnologia, procura categorizar os sistemas de IA por nível de risco, do mínimo ao inaceitável. No entanto, os críticos dizem que o quadro, que poderá levar anos a ser totalmente implementado, pode estar desatualizado quando entrar em vigor.
LEIA MAIS:
IA pode acabar com 100 milhões de empregos nos EUA – relatório de Bernie Sanders
OpenAI, Google DeepMind, Anthropic e xAI são algumas das grandes empresas de tecnologia que estão gastando bilhões para treinar modelos que possam pensar, planejar e codificar por conta própria. Os EUA e a China estão a posicionar a supremacia da IA como uma questão de segurança nacional e liderança económica.
Você pode compartilhar esta história nas redes sociais:














