Início Notícias As visões gerais de IA do Google colocam as pessoas em risco...

As visões gerais de IA do Google colocam as pessoas em risco de danos com conselhos de saúde enganosos

13
0

As pessoas estão correndo risco de danos por informações de saúde falsas e enganosas nos resumos de inteligência synthetic do Google, descobriu uma investigação do Guardian.

A empresa disse que suas visões gerais de IA, que usam IA generativa para fornecer instantâneos de informações essenciais sobre um tópico ou questão, são “útil” e “confiável”.

Mas alguns dos resumos, que aparecem no topo dos resultados da pesquisa, apresentavam informações de saúde imprecisas e colocavam as pessoas em risco.

Num caso que os especialistas descreveram como “realmente perigoso”, o Google aconselhou erroneamente as pessoas com cancro do pâncreas a evitarem alimentos ricos em gordura. Especialistas disseram que isso é exatamente o oposto do que deveria ser recomendado e pode aumentar o risco de pacientes morrerem pela doença.

Num outro exemplo “alarmante”, a empresa forneceu informações falsas sobre testes cruciais da função hepática, o que poderia fazer com que as pessoas com doenças hepáticas graves pensassem erradamente que são saudáveis.

As pesquisas no Google por respostas sobre testes de câncer em mulheres também forneceram informações “completamente erradas”, que, segundo especialistas, poderiam fazer com que as pessoas descartassem sintomas genuínos.

Um porta-voz do Google disse que muitos dos exemplos de saúde compartilhados com eles eram “capturas de tela incompletas”, mas pelo que puderam avaliar, eles vinculavam “a fontes bem conhecidas e confiáveis ​​e recomendavam procurar aconselhamento especializado”.

A investigação do Guardian surge em meio à preocupação crescente de que os dados de IA possam confundir os consumidores, que podem presumir que são confiáveis. Em novembro do ano passado, um estudo descobriu que chatbots de IA em diversas plataformas forneciam conselhos financeiros imprecisos, enquanto preocupações semelhantes foram levantadas sobre resumos de notícias.

Sophie Randall, diretora do Affected person Data Discussion board, que promove informações de saúde baseadas em evidências para pacientes, público e profissionais de saúde, disse que os exemplos mostram que “as visões gerais de IA do Google podem colocar informações de saúde imprecisas no topo das pesquisas on-line, apresentando um risco para a saúde das pessoas”.

Stephanie Parker, diretora digital da Marie Curie, uma instituição de caridade em fim de vida, disse: “As pessoas recorrem à Web em momentos de preocupação e crise. Se a informação que recebem for imprecisa ou fora de contexto, pode prejudicar seriamente a sua saúde”.

O Guardian descobriu vários casos de informações de saúde imprecisas nas visões gerais de IA do Google depois que vários grupos de saúde, instituições de caridade e profissionais levantaram preocupações.

Anna Jewell, diretora de apoio, pesquisa e influência do Pancreatic Most cancers UK, disse que aconselhar os pacientes a evitar alimentos ricos em gordura period “completamente incorreto”. Fazer isso “poderia ser realmente perigoso e comprometer as possibilities de uma pessoa estar bem o suficiente para receber tratamento”, acrescentou.

Jewell disse: “A resposta da IA ​​do Google sugere que as pessoas com câncer de pâncreas evitem alimentos ricos em gordura e fornece uma lista de exemplos. No entanto, se alguém seguisse o que o resultado da pesquisa lhes dizia, então eles poderiam não ingerir calorias suficientes, ter dificuldade para engordar e ser incapazes de tolerar a quimioterapia ou uma cirurgia potencialmente salvadora”.

Digitar “qual é o intervalo regular para exames de sangue do fígado” também forneceu informações enganosas, com muitos números, pouco contexto e nenhuma contabilização de nacionalidade, sexo, etnia ou idade dos pacientes.

Pamela Healy, executiva-chefe do British Liver Belief, disse que os resumos da IA ​​eram alarmantes. “Muitas pessoas com doença hepática não apresentam sintomas até os estágios finais, e é por isso que é tão importante que sejam testadas. Mas o que as visões gerais de IA do Google dizem ser ‘regular’ pode variar drasticamente do que é realmente considerado regular.

“É perigoso porque significa que algumas pessoas com doença hepática grave podem pensar que têm um resultado regular e não se preocuparem em comparecer a uma reunião de acompanhamento dos cuidados de saúde”.

Uma pesquisa por “sintomas e testes de câncer vaginal” listou um exame de Papanicolau como um teste para câncer vaginal, o que está incorreto.

Athena Lamnisos, executiva-chefe da instituição de caridade contra o câncer Eve Enchantment, disse: “Não é um teste para detectar câncer, e certamente não é um teste para detectar câncer vaginal – esta é uma informação completamente errada. Obter informações erradas como esta pode levar alguém a não verificar os sintomas do câncer vaginal porque teve um resultado claro em um exame cervical recente.

“Também estávamos preocupados com o fato de que o resumo da IA ​​mudou quando fizemos exatamente a mesma pesquisa, obtendo uma resposta diferente a cada vez, proveniente de fontes diferentes. Isso significa que as pessoas estão obtendo uma resposta diferente dependendo de quando pesquisam, e isso não é bom o suficiente.”

Lamnisos disse que estava extremamente preocupada. “Alguns dos resultados que vimos são realmente preocupantes e podem potencialmente colocar as mulheres em perigo”, disse ela.

O Guardian também descobriu que as visões gerais de IA do Google forneceram resultados enganosos para pesquisas sobre condições de saúde psychological. “Esta é uma grande preocupação para nós como instituição de caridade”, disse Stephen Buckley, chefe de informação da Thoughts.

Alguns dos resumos de IA para condições como psicose e distúrbios alimentares ofereciam “conselhos muito perigosos” e eram “incorretos, prejudiciais ou poderiam levar as pessoas a evitar a procura de ajuda”, disse Buckley.

Alguns também perderam contextos ou nuances importantes, acrescentou. “Eles podem sugerir o acesso a informações de websites que são inadequados… e sabemos que quando a IA resume informações, muitas vezes pode refletir preconceitos, estereótipos ou narrativas estigmatizantes existentes.”

O Google disse que a grande maioria de suas visões gerais de IA eram factuais e úteis, e fazia melhorias contínuas de qualidade. A taxa de precisão das visões gerais de IA estava no mesmo nível de seus outros recursos de pesquisa, como trechos em destaque, que existiam há mais de uma década, acrescentou.

A empresa também disse que quando a AI Overviews interpretasse mal o conteúdo da internet ou perdesse o contexto, tomaria as medidas apropriadas de acordo com suas políticas.

Um porta-voz do Google disse: “Investimos significativamente na qualidade das visões gerais de IA, especialmente para tópicos como saúde, e a grande maioria fornece informações precisas”.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui