Você pode objetar que isso é um truque verbal, que estou argumentando que a IA se tornará consciente porque começaremos a usar a palavra “consciente” para incluí-la. Mas não há truque. Há sempre um ciclo de suggestions entre as nossas teorias e o mundo, de modo que os nossos conceitos são moldados pelo que descobrimos.
À medida que interagimos com uma IA cada vez mais sofisticada, desenvolveremos uma concepção de consciência melhor e mais inclusiva.
Considere o átomo. Durante séculos, o nosso conceito de átomo esteve enraizado numa antiga noção grega de unidades indivisíveis de realidade. Ainda no século XIX, físicos como John Dalton ainda concebiam os átomos como esferas sólidas e indivisíveis. Mas depois da descoberta do electrão em 1897 e da descoberta do núcleo atómico em 1911, houve uma revisão do conceito de átomo – de uma entidade indivisível para uma entidade decomponível, um sistema photo voltaic em miniatura com electrões orbitando um núcleo. E com novas descobertas vieram outras revisões conceituais, levando aos nossos atuais modelos complexos de mecânica quântica do átomo.
Estas não foram meras mudanças semânticas. Nossa compreensão do átomo melhorou com nossa interação com o mundo. Da mesma forma, a nossa compreensão da consciência melhorará com a nossa interação com uma IA cada vez mais sofisticada.
Os céticos podem desafiar esta analogia. Eles argumentarão que os gregos estavam errados sobre a natureza do átomo, mas que não estamos errados sobre a natureza da consciência porque sabemos em primeira mão o que é a consciência: a experiência subjetiva interna. Um chatbot, insistirão os céticos, pode relatar que se sente feliz ou triste, mas apenas porque tais frases fazem parte de seus dados de treinamento. Nunca saberá o que é felicidade e tristeza sentir como.
Mas o que significa saber como é a tristeza? E como sabemos que é algo que uma consciência digital nunca poderá experimentar? Podemos pensar — e de facto, fomos ensinados a pensar — que nós, humanos, temos uma visão directa do nosso mundo inside, uma visão não mediada por conceitos que aprendemos. No entanto, depois de aprendermos com Shakespeare como a tristeza da separação pode ser doce, descobrimos novas dimensões na nossa própria experiência. Muito do que “sentimos” nos é ensinado.
Um chatbot, insistirão os céticos, pode relatar que se sente feliz ou triste, mas apenas porque tais frases fazem parte de seus dados de treinamento. Nunca saberá como é a felicidade e a tristeza. Mas o que significa saber como é a tristeza?
A filósofa Susan Schneider argumentou que teríamos motivos para considerar a IA consciente se um sistema de computador, sem ser treinado em quaisquer dados sobre a consciência, relatasse que tem experiências subjetivas internas do mundo. Talvez isto indique consciência num sistema de IA. Mas é um padrão alto, que nós, humanos, provavelmente não ultrapassaríamos. Nós também somos treinados.
Alguns temem que, se a IA se tornar consciente, ela merecerá a nossa consideração ethical – que terá direitos, que não seremos mais capazes de usá-la como quisermos, que talvez precisemos nos proteger contra a escravização. No entanto, tanto quanto posso dizer, não há nenhuma implicação direta da afirmação de que uma criatura é consciente para a conclusão de que merece a nossa consideração ethical. Ou, se existe, a grande maioria dos americanos, pelo menos, parece não ter consciência disso. Apenas uma pequena percentagem dos americanos são vegetarianos.
Tal como a IA nos levou a ver certas características da inteligência humana como menos valiosas do que pensávamos (como a recuperação mecânica de informação e a velocidade bruta), também a consciência da IA nos levará a concluir que nem todas as formas de consciência merecem consideração ethical. Ou melhor, reforçará a visão que muitos já parecem defender: que nem todas as formas de consciência são tão moralmente valiosas como as nossas.
Este artigo apareceu originalmente em O jornal New York Times.
Escrito por: Bárbara Gail Montero
©2025 THE NEW YORK TIMES













