Início Tecnologia Pare de falar sobre IA como se fosse humana. Não é

Pare de falar sobre IA como se fosse humana. Não é

9
0

 

Na corrida para fazer com que os modelos de IA pareçam cada vez mais impressionantes, as empresas tecnológicas adoptaram uma abordagem teatral à linguagem. Eles continuam falando sobre IA como se fosse uma pessoa. Não apenas sobre o “pensamento” ou “planejamento” da IA ​​– essas palavras já são complicadas – mas agora eles estão discutindo uma A “alma” do modelo de IA e como os modelos “confessam”, “querem”, “esquemam” ou “se sentem inseguros”.

 

Este não é um floreio de marketing inofensivo. Antropomorfizar a IA é enganoso, irresponsável e, em última análise, corrosivo para a compreensão do público sobre uma tecnologia que já luta com a transparência, num momento em que a clareza é mais importante.

A investigação realizada por grandes empresas de IA, destinada a esclarecer o comportamento da IA ​​generativa, é frequentemente enquadrada de formas que mais obscurecem do que esclarecem. Tomemos, por exemplo, uma postagem recente da OpenAI que detalha seu trabalho para fazer com que seus modelos “confessem” seus erros ou atalhos. É um experimento valioso que investiga como um chatbot relata certos “maus comportamentos”, como alucinações e intrigas. Mas a descrição do processo pela OpenAI como uma “confissão” implica que há um elemento psicológico por trás dos resultados de um grande modelo de linguagem.

Talvez isso decorra do reconhecimento de quão desafiador é para um LLM alcançar a verdadeira transparência. Vimos que, por exemplo, os modelos de IA não conseguem demonstrar de forma fiável o seu trabalho em atividades como resolvendo quebra-cabeças de Sudoku.

Há uma lacuna entre o que a IA pode gerar e como ele o gera, e é exatamente por isso que essa terminologia humana é tão perigosa. Poderíamos estar a discutir os reais limites e perigos desta tecnologia, mas os termos que rotulam a IA como seres conscientes apenas minimizam as preocupações ou encobrem os riscos.


Não perca nenhum de nossos conteúdos técnicos imparciais e análises baseadas em laboratório. Adicionar CNET como fonte preferencial do Google.


IA não tem alma

Os sistemas de IA não têm alma, motivos, sentimentos ou moral. Eles não “confessam” porque se sentem compelidos pela honestidade, assim como uma calculadora não “pede desculpas” quando você pressiona a tecla errada. Esses sistemas geram padrões de texto baseados em relações estatísticas aprendidas em vastos conjuntos de dados.

É isso.

Qualquer coisa que pareça humana é a projeção da nossa vida interior num espelho muito sofisticado.

A antropomorfização da IA ​​dá às pessoas uma ideia errada sobre o que esses sistemas realmente são. E isso tem consequências. Quando começamos a atribuir consciência e inteligência emocional a uma entidade onde não existe nenhuma, começamos a confiar na IA de uma forma que nunca deveria ser confiável.

Hoje, mais pessoas estão recorrendo ao “Doctor ChatGPT” para orientação médica em vez de depender de médicos licenciados e qualificados. Outros estão recorrendo a respostas geradas por IA em áreas como finanças, saúde emocional e relacionamentos interpessoais. Alguns estão formando dependentes pseudo-amizades com chatbots e recorrer a eles para orientação, assumindo que tudo o que um LLM divulga é “bom o suficiente” para informar suas decisões e ações.

Como devemos falar sobre IA

Quando as empresas adotam uma linguagem antropomórfica, elas confundem a linha entre simulação e senciência. A terminologia aumenta as expectativas, desperta o medo e desvia a atenção das verdadeiras questões que realmente merecem a nossa atenção: preconceito nos conjuntos de dados, utilização indevida por maus intervenientes, segurança, fiabilidade e concentração de poder. Nenhum desses tópicos requer metáforas místicas.

Veja o vazamento recente da Anthropic de seu “documento da alma“usado para treinar o caráter, a autopercepção e a identidade de Claude Opus 4.5. Essa documentação interna maluca nunca teve a intenção de fazer uma afirmação metafísica – mais como se seus engenheiros estivessem revisando um guia de depuração. No entanto, a linguagem que essas empresas usam a portas fechadas inevitavelmente se infiltra na forma como a população em geral as discute. E uma vez que essa linguagem se fixa, ela molda nossos pensamentos sobre a tecnologia, bem como a forma como nos comportamos em torno dela.

Ou leve a pesquisa da OpenAI em Pesquisa de “esquema” de IAonde um punhado de respostas raras, mas enganosas, levou alguns pesquisadores a concluir que os modelos ocultavam intencionalmente certas capacidades. Examinar os resultados da IA ​​é uma boa prática; implicar que os chatbots podem ter motivos ou estratégias próprias não é. Na verdade, o relatório da OpenAI disse que esses comportamentos eram o resultado de dados de treinamento e de certas tendências instigantes, e não de sinais de engano. Mas como usou a palavra “conspiração”, a conversa voltou-se para preocupações sobre a IA ser uma espécie de agente conivente.

Existem palavras melhores, mais precisas e mais técnicas. Em vez de “alma”, fale sobre a arquitetura ou o treinamento de um modelo. Em vez de “confissão”, chame-o de relatório de erros ou verificação de consistência interna. Em vez de dizer “esquemas” de um modelo, descreva seu processo de otimização. Deveríamos nos referir à IA usando termos como tendências, resultados, representações, otimizadores, atualizações de modelos ou dinâmicas de treinamento. Não são tão dramáticos quanto “alma” ou “confissão”, mas têm a vantagem de estar fundamentados na realidade.

Para ser justo, há razões pelas quais estes comportamentos LLM parecem humanos – as empresas os treinaram para nos imitar.

Como afirmam os autores do artigo de 2021 “Sobre os perigos dos papagaios estocásticos” apontou, os sistemas construídos para replicar a linguagem e a comunicação humanas irão, em última análise, refleti-la – nosso palavreado, sintaxe, tom e teor. A semelhança não implica compreensão verdadeira. Significa que o modelo está realizando o que foi otimizado para fazer. Quando um chatbot imita de forma tão convincente quanto os chatbots são agora capazes, acabamos lendo a humanidade na máquina, mesmo que tal coisa não esteja presente.

A linguagem molda a percepção do público. Quando as palavras são desleixadas, mágicas ou intencionalmente antropomórficas, o público acaba com uma imagem distorcida. Essa distorção beneficia apenas um grupo: as empresas de IA que lucram com os LLMs, parecendo mais capazes, úteis e humanas do que realmente são.

Se as empresas de IA quiserem construir a confiança pública, o primeiro passo é simples. Pare de tratar os modelos de linguagem como seres místicos com alma. Eles não têm sentimentos – nós temos. Nossas palavras devem refletir isso, e não obscurecê-lo.

Leia também: Na era da IA, como é o significado?

fontes

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui