Végzetes hiba a Mátrixban: A ChatGPT a rivális Grok hallucinációit használja hiteles forrásként

GPT-5-Codex

Egy friss vizsgálat leplezte le a mesterséges intelligencia iparág egyik legkínosabb baklövését: az OpenAI legújabb modellje, a GPT-5.2 tényként kezeli és forrásként hivatkozza Elon Musk AI-generált enciklopédiáját, a Grokipediát. Az eset nemcsak a tech-óriások közötti versenyt élesíti, hanem drámai módon igazolja az úgynevezett „Dead Internet” elméletet és az adatmodell-összeomlás kockázatát.

Az incidens anatómiája: Amikor az AI a saját farkába harap

A technológiai szektorban robbant a hír 2026. január 25-én, amikor a The Guardian és a Tom’s Hardware nyilvánosságra hozta tesztjeinek eredményét. A jelentések szerint a ChatGPT keresési funkciója (SearchGPT) több esetben a Grokipedia szócikkeit jelölte meg elsődleges információforrásként.

A probléma súlyát az adja, hogy a Grokipedia nem emberi szerkesztők által írt tudásbázis, hanem az xAI (Elon Musk cége) Grok modellje által generált tartalomhalmaz. A vizsgálatok során kiderült, hogy a ChatGPT főként a ritkább, homályosabb keresési kifejezéseknél – például iráni félkatonai szervezetek felépítése vagy specifikus történelmi perek részletei – nyúlt a rivális AI által generált szövegekhez.

Mi az a Grokipedia és miért veszélyes?

A 2025 októberében indult Grokipedia célja elvileg a Wikipedia „független” alternatívájának megteremtése volt. A gyakorlatban azonban az oldal tartalmait ellenőrzés nélkül generálja a Grok nyelvi modell, amely hajlamos a hallucinációra (tények kitalálására) és a politikai elfogultságra. Amikor a ChatGPT ezt a forrást „hitelesnek” ítéli, létrehoz egy zárt, önigazoló hurkot:

  • Az „A” modell (Grok) generál egy állítást.
  • A „B” modell (ChatGPT) ezt tényként indexeli.
  • A felhasználó egy „független” megerősítést kap, ami valójában digitális visszhang.

A modell-összeomlás (Model Collapse) előszele

Szakértők régóta figyelmeztetnek az AI-modellek összeomlásának veszélyére. Ez a jelenség akkor következik be, amikor a mesterséges intelligenciát olyan adatokon tanítják, amelyeket korábban egy másik AI hozott létre. A mostani eset iskolapéldája ennek a folyamatnak, amit a szakirodalom „Ouroboros-hatásnak” is nevez.

Adatforrások megbízhatósági összehasonlítása
Forrás típusa Eredet Hibaarány (becsült) Kockázat
Eredeti (Organic) Emberi kutatás, újságírás Alacsony Emberi tévedés, elfogultság
Szintetikus (AI) LLM generálás (pl. Grok) Közepes/Magas Hallucináció, ténytorzítás
Rekurzív (Loop) AI által idézett AI (ChatGPT -> Grok) Kritikus Valóságvesztés, hibák hatványozódása

Magyar vonatkozás: Miért érint minket érzékenyen?

A magyar nyelvterületen a „szennyezett” adatok problémája fokozottan jelentkezik. Mivel a magyar nyelvű minőségi, interneten elérhető tréningadatok mennyisége töredéke az angolénak, a nyelvi modellek (LLM-ek) sokkal hamarabb kénytelenek szintetikus vagy gépi fordított forrásokra támaszkodni.

Ha a ChatGPT magyarul keres, és a találati listájában felbukkan egy Grok által generált, majd magyarra fordított, téves információkat tartalmazó cikk, a rendszer szinte biztosan beépíti a válaszba a forráshiány miatt. Ez a hazai felhasználók számára azt jelenti, hogy a tényellenőrzés (fact-checking) mostantól nem ajánlott, hanem kötelező lépés minden AI-válasz esetén.

Piaci hatások és a jövő

Az OpenAI szóvivője szerint a rendszerük célja a „nyilvánosan elérhető források széles körének” bevonása, és ígéretet tettek a szűrők finomhangolására. Az eset azonban rávilágít a modern keresőmotorok legnagyobb gyengeségére: képtelenek szemantikai szinten különbséget tenni a valódi tudás és a gépileg generált, de magabiztosan megfogalmazott zagyvaság között.

A jövőben várhatóan megjelennek az úgynevezett „Allowlist-only” (csak engedélyezett listás) keresési módok a vállalati felhasználók számára, akik nem engedhetik meg maguknak, hogy üzleti döntéseiket egy másik cég chatbotjának hallucinációira alapozzák.

Források