Início Tecnologia Experimentei a Grokipedia, a anti-Wikipedia alimentada por IA. Veja por que nenhum...

Experimentei a Grokipedia, a anti-Wikipedia alimentada por IA. Veja por que nenhum dos dois é infalível

23
0

Fotografia / Momento Busà through Getty Photographs

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • A Grokipedia do xAI já está no ar.
  • Os artigos na plataforma são escritos e “verificados” por Grok.
  • Ela difere da Wikipédia em vários aspectos, mas também a engana.

Na segunda-feira, o xAI de Elon Musk foi lançado Grokipédiaum repositório de informações on-line com curadoria inteiramente de Grok, o principal chatbot de IA da empresa. Musk tem promovido o website como uma espécie de anti-Wikipédia, que ele tem disse tem “um viés de esquerda não trivial” e ironicamente chamado “Wokepédia.”

Além disso: Precisa do melhor detector de conteúdo de IA em 2025? Experimente estas quatro ferramentas (você provavelmente já usa uma)

Desde a sua estreia em 2001, a Wikipédia acumulou bem mais de sete milhões de artigostodos escritos e editados por usuários humanos. Embora a ideia por trás deste modelo fosse permitir a entrada de uma diversidade máxima de perspectivas e opiniões – uma espécie de máquina de informação autocorretiva que se inclinaria para a verdade – muitas pessoas, incluindo o cofundador do website Jimmy Galesargumentaram que a Wikipedia se tornou ideologicamente tendenciosa nos últimos anos.

Assim como o Grok pretendia ser uma alternativa anti-“acordado” aos chatbots populares como ChatGPT e Gemini, o xAI está promovendo o Grokipedia como uma versão mais equilibrada e confiável da Wikipedia. Mas como isso se compara? Eu experimentei.

Como funciona

Grokipedia tem uma estética básica que lembra a interface de usuário do Grok: fui recebido por uma simples barra de pesquisa abaixo do texto “Grokipedia v0.1”, sugerindo que esta é apenas a primeira iteração do website e que outras podem ser esperadas no futuro.

captura de tela-2025-10-29-at-10-33-55am.png

Captura de tela de Radhika Rajkumar/ZDNET

Insirai um tópico na barra de pesquisa e, semelhante a um mecanismo de pesquisa, a Grokipedia me mostrou uma lista de títulos de páginas para selecionar. Na manhã de quarta-feira, uma contagem na página inicial do website indicava que havia mais de 885 mil artigos. todos eles escritos e “verificados” – de acordo com um aviso acima dos artigos individuais – por Grok.

Além disso: você está lendo mais conteúdo gerado por IA do que pensa

No entanto, a beira relatado Segunda-feira que alguns artigos da Grokipedia incluem um aviso discreto na parte inferior da página afirmando que o conteúdo foi “adaptado da Wikipedia, licenciado sob a licença Inventive Commons Attribution-ShareAlike 4.0”. Em outras palavras, o website parece estar utilizando conteúdo retirado diretamente do próprio website que pretendia substituir.

Os usuários com uma conta X podem destacar trechos de informações encontrados em uma postagem e clicar em um botão que diz “Está errado” para sinalizar informações imprecisas, semelhante à abordagem das Notas da Comunidade que Meta e X negociaram a verificação de fatos reais no início deste ano. xAI não respondeu imediatamente ao meu pedido de comentário sobre como o suggestions do usuário molda as entradas da Grokipedia.

Preocupações

Ater-se aos fatos não é exatamente o ponto forte da IA. Um estudo publicado na semana passada pela European Broadcasting Union e pela BBC que analisou milhares de respostas relacionadas com notícias de quatro principais chatbots de IA (sem incluir Grok) descobriu que quase metade tinha pelo menos um problema importante, incluindo alucinações (geração de informações imprecisas disfarçadas de verdade), fornecimento de informações desatualizadas e utilização de métodos de fornecimento falhos.

Além disso: receba notícias da IA? Cuidado – está errado quase metade das vezes

Embora Grok tenha sido projetado “para maximizar a verdade e a objetividade”, de acordo com xAI, é importante lembrar que é um LLM e, como todos os LLMs, é imperfeito.

De acordo com um público tabela de classificação comparando as taxas de alucinação de modelos de fronteira quando solicitados a realizar uma tarefa simples de resumo de documentos, Grok 2 atualmente tem pontuações comparativamente altas, o que significa que é mais propenso a alucinações do que muitos outros modelos líderes. Grok 4, a mais nova iteração do modelo, atualmente ocupa o 99º lugar na mesma tabela de classificação, emblem à frente do o4-mini-high da OpenAI e emblem atrás do Phi-4 da Microsoft.

captura de tela-2025-10-29-at-9-29-20-am.png

A xAI também treinou Grok em parte usando postagens públicas e outras informações retiradas do X, que a xAI tem descrito como “uma vantagem única e basic” para o chatbot. UM estudar postado no website do servidor de pré-impressão arXiv no início deste mês, no entanto, encontrou uma relação causal entre dados de treinamento coletados de conteúdo “lixo” de mídia social – pense: postagens de alto envolvimento e baixa qualidade – e uma inclinação para o análogo digital da “podridão cerebral”: um declínio notável na confiabilidade dos resultados do modelo e um aumento em “traços obscuros”, como a psicopatia.

Perguntas sobre fonte de conteúdo

Depois, há o fato de que muitos usuários têm relatado incidentes em que Grok parecia consultar as postagens de Musk nas redes sociais ou artigos escritos sobre o bilionário antes de responder a certas solicitações delicadas. Da mesma forma, a Grokipedia parece, em alguns aspectos importantes, refletir as opiniões pessoais, políticas e ideológicas de Musk.

Além disso: Por que o código aberto pode não sobreviver à ascensão da IA ​​generativa

Por exemplo, Musk tem falado abertamente sobre o que considera ser o risco existencial representado pelo declínio das taxas de natalidade, que descreveu num relatório de Dezembro. X postagem como “de longe o maior perigo para a civilização humana”. Me deparei com uma Grokipedia entrada sobre o “colapso social”, que inclui uma longa discussão sobre os efeitos sociais desestabilizadores do declínio da taxa de natalidade ao longo da história, que descreve como a “imigração em massa” agrava o problema. Eu encontrei um entrada correspondente da Wikipédia isso não incluía nenhuma menção a um papel causal entre o declínio da taxa de natalidade e o colapso social.

captura de tela-2025-10-28-at-11-00-50-am.png

Outra Grokipédia entrada on Grok ecoou as próprias visões idealistas de Musk sobre o chatbot como um contraste anti-“acordado” para seus concorrentes.

Quer mais histórias sobre IA? Inscreva-se em nossa tabela de classificação de IA boletim informativo.

“Ao contrário de muitos sistemas de IA concorrentes, o Grok foi projetado para máxima veracidade, incorporando humor, uma abordagem rebelde para perguntas picantes ou rejeitadas e resistência a preconceitos políticos convencionais”, diz a entrada.

Resultado remaining

Em última análise, qualquer recurso dedicado à recolha e catalogação de informação construída por seres humanos irá reflectir algum grau de preconceito humano. A decisão sobre quais ferramentas você deve usar, então, deve se resumir a quais você considera que possuem os mecanismos de correção de erros mais eficazes e confiáveis.

Além disso: tenho testado os principais navegadores de IA – veja quais deles realmente me impressionaram

Como qualquer professor universitário lhe dirá, você não deve confiar na Wikipedia como fonte primária de informação. Pode ser útil para obter uma visão geral de alto nível de uma pessoa, lugar, coisa ou evento histórico, mas a natureza dupla de ser um banco de dados de código aberto significa que também há muitas bobagens no website. Você deve sempre corroborar tudo o que lê na Wikipedia, verificando relatos mais confiáveis, como estudos revisados ​​por pares ou artigos publicados por meios de comunicação respeitáveis, cujos editores são dedicados à integridade jornalística.

Dito isso, eu pessoalmente confiaria mais em um website com curadoria de escritores e editores humanos do que em um website como o Grokipedia, que é gerenciado por um LLM, com todos os seus pontos fracos. E isso se aplicaria a qualquer LLM, não apenas a Grok. Até que tenhamos modelos que sejam totalmente à prova de alucinações – e resta saber se isso é tecnicamente possível – você deve sempre aceitar qualquer resposta que receber de alguém com cautela, porque há uma probability diferente de zero de que ele esteja mentindo para você.

Mesmo sem alucinações, os modelos de IA podem conter preconceitos importados dos seus dados de treino, o que pode influenciar as suas respostas.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui