IA generativa

O colapso da fiabilidade do ChatGPT ante a contaminação pela Grokipedia

26 de janeiro 2026 - 11:28

A promessa inicial da inteligência artificial generativa era a de um acesso rápido, sintético e relativamente fiável ao conhecimento humano. No entanto, os recentes desenvolvimentos em torno do modelo GPT-5.2 revelam uma enorme fissura nessa utopia tecnológica.

por

Romain Leclaire

PARTILHAR
logo do ChatGPT
Imagem Open AI

A promessa inicial da inteligência artificial generativa era a de um acesso rápido, sintético e relativamente fiável ao conhecimento humano. No entanto, os recentes desenvolvimentos em torno do modelo GPT-5.2 revelam uma enorme fissura nessa utopia tecnológica. Longe de ser o árbitro neutro que os seus criadores querem vender, o ChatGPT parece ter cruzado uma linha vermelha preocupante ao integrar nas suas fontes a Grokipedia, a enciclopédia gerada pela IA de Elon Musk. Este desvio não é insignificante, marca uma deriva perigosa em que a máquina já não se contenta em alucinar por si própria, mas valida e branqueia a desinformação produzida por outros algoritmos tendenciosos.

A investigação conduzida pelo Guardian é devastadora para a OpenAI. Em testes rigorosos, o modelo mais avançado da empresa citou a Grokipedia nove vezes numa dúzia de consultas. O que é particularmente insidioso é a natureza dos assuntos abordados. O ChatGPT não foi apanhado em manchetes óbvias, como a insurreição de 6 de janeiro ou o VIH, para as quais parecem existir salvaguardas. Pelo contrário, a contaminação ocorre em áreas cinzentas, em assuntos mais obscuros, onde o utilizador médio não tem referências para verificar a informação. Quer se trate das estruturas paramilitares iranianas ou dos detalhes biográficos do historiador Sir Richard Evans (especialista-chave contra o negacionista David Irving), o chatbot reproduziu os dados da IA de Elon Musk, incluindo afirmações duvidosas ou já desmistificadas.

É preciso perceber por que razão a utilização da Grokipedia como fonte fiável é uma aberração editorial e técnica. Lançado em outubro, este projeto pretende ser um concorrente da Wikipedia, mas sem o rigor da verificação humana. É uma enciclopédia escrita por uma IA, para outras IA, conhecida por propagar narrativas de extrema-direita. Ao tratar esta fonte em pé de igualdade com instituições jornalísticas ou académicas, o ChatGPT torna-se cúmplice de uma poluição informativa. Trata-se de uma negligência dolosa da parte da OpenAI, cujos filtros de segurança se revelam aqui de uma ineficácia flagrante.

O fenómeno aqui demonstrado tem um nome técnico assustador, “LLM grooming” ou manipulação de modelos de linguagem. Especialistas em desinformação, como Nina Jankowicz, estão a alertar para o perigo. O perigo reside no ciclo de legitimação. Se o ChatGPT, visto pelo grande público como uma autoridade tecnológica, citar a Grokipedia, conferirá uma aura de respeitabilidade a uma plataforma que hospeda falsidades. O utilizador final, ao ver a citação, pode ser levado a pensar que o conteúdo foi verificado e validado. Trata-se de um branqueamento de informação tóxica. A mentira parte de uma fonte tendenciosa, passa pelo filtro “neutro” do ChatGPT e chega ao leitor como uma verdade estabelecida.

Inteligência Artificial

A IA generativa é um desastre para a sociedade

por

Paris Marx

25 de outubro 2025

A defesa da OpenAI perante este escândalo é de uma fraqueza desarmante. Invocar a utilização de uma vasta gama de fontes públicas e a aplicação de filtros de segurança soa a falso quando o resultado final é a promoção de teorias da conspiração ou de imprecisões factuais sobre temas sensíveis. Por seu lado, a xAI contenta-se em responder com invectivas infantis contra os meios de comunicação tradicionais, provando que fazem pouco caso da verdade factual.

Talvez estejamos a assistir ao início do fim da credibilidade dos grandes modelos de linguagem como ferramentas de pesquisa fiáveis. Se atores como a OpenAI são incapazes de impedir que os seus modelos bebam de fontes envenenadas, o valor da ferramenta cai por terra. Uma vez que uma informação falsa se infiltra nessas redes neurais, torna-se extremamente difícil de extirpar, continuando a assombrar as respostas muito depois de ter sido desmentida, como Nina Jankowicz ela própria experimentou. Ao citar a Grokipedia, o ChatGPT não está apenas a cometer um erro técnico, mas a trair a confiança dos seus utilizadores e a acelerar a entrada num período de confusão generalizada, em que a verdade é apenas mais uma opção entre muitas outras.


Romain Leclaire é fundador do subreddit r/actutech e escreve regularmente sobre temas relacionados com tecnologia e cultura web. Mastodon: https://piaille.fr/@romain_leclaire. Artigo publicado em Le Club de Mediapart