Egy friss vizsgálat leplezte le a mesterséges intelligencia iparág egyik legkínosabb baklövését: az OpenAI legújabb modellje, a GPT-5.2 tényként kezeli és forrásként hivatkozza Elon Musk AI-generált enciklopédiáját, a Grokipediát. Az eset nemcsak a tech-óriások közötti versenyt élesíti, hanem drámai módon igazolja az úgynevezett „Dead Internet” elméletet és az adatmodell-összeomlás kockázatát.
Az incidens anatómiája: Amikor az AI a saját farkába harap
A technológiai szektorban robbant a hír 2026. január 25-én, amikor a The Guardian és a Tom’s Hardware nyilvánosságra hozta tesztjeinek eredményét. A jelentések szerint a ChatGPT keresési funkciója (SearchGPT) több esetben a Grokipedia szócikkeit jelölte meg elsődleges információforrásként.
A probléma súlyát az adja, hogy a Grokipedia nem emberi szerkesztők által írt tudásbázis, hanem az xAI (Elon Musk cége) Grok modellje által generált tartalomhalmaz. A vizsgálatok során kiderült, hogy a ChatGPT főként a ritkább, homályosabb keresési kifejezéseknél – például iráni félkatonai szervezetek felépítése vagy specifikus történelmi perek részletei – nyúlt a rivális AI által generált szövegekhez.
Mi az a Grokipedia és miért veszélyes?
A 2025 októberében indult Grokipedia célja elvileg a Wikipedia „független” alternatívájának megteremtése volt. A gyakorlatban azonban az oldal tartalmait ellenőrzés nélkül generálja a Grok nyelvi modell, amely hajlamos a hallucinációra (tények kitalálására) és a politikai elfogultságra. Amikor a ChatGPT ezt a forrást „hitelesnek” ítéli, létrehoz egy zárt, önigazoló hurkot:
- Az „A” modell (Grok) generál egy állítást.
- A „B” modell (ChatGPT) ezt tényként indexeli.
- A felhasználó egy „független” megerősítést kap, ami valójában digitális visszhang.
A modell-összeomlás (Model Collapse) előszele
Szakértők régóta figyelmeztetnek az AI-modellek összeomlásának veszélyére. Ez a jelenség akkor következik be, amikor a mesterséges intelligenciát olyan adatokon tanítják, amelyeket korábban egy másik AI hozott létre. A mostani eset iskolapéldája ennek a folyamatnak, amit a szakirodalom „Ouroboros-hatásnak” is nevez.
| Forrás típusa | Eredet | Hibaarány (becsült) | Kockázat |
|---|---|---|---|
| Eredeti (Organic) | Emberi kutatás, újságírás | Alacsony | Emberi tévedés, elfogultság |
| Szintetikus (AI) | LLM generálás (pl. Grok) | Közepes/Magas | Hallucináció, ténytorzítás |
| Rekurzív (Loop) | AI által idézett AI (ChatGPT -> Grok) | Kritikus | Valóságvesztés, hibák hatványozódása |
Magyar vonatkozás: Miért érint minket érzékenyen?
A magyar nyelvterületen a „szennyezett” adatok problémája fokozottan jelentkezik. Mivel a magyar nyelvű minőségi, interneten elérhető tréningadatok mennyisége töredéke az angolénak, a nyelvi modellek (LLM-ek) sokkal hamarabb kénytelenek szintetikus vagy gépi fordított forrásokra támaszkodni.
Ha a ChatGPT magyarul keres, és a találati listájában felbukkan egy Grok által generált, majd magyarra fordított, téves információkat tartalmazó cikk, a rendszer szinte biztosan beépíti a válaszba a forráshiány miatt. Ez a hazai felhasználók számára azt jelenti, hogy a tényellenőrzés (fact-checking) mostantól nem ajánlott, hanem kötelező lépés minden AI-válasz esetén.
Piaci hatások és a jövő
Az OpenAI szóvivője szerint a rendszerük célja a „nyilvánosan elérhető források széles körének” bevonása, és ígéretet tettek a szűrők finomhangolására. Az eset azonban rávilágít a modern keresőmotorok legnagyobb gyengeségére: képtelenek szemantikai szinten különbséget tenni a valódi tudás és a gépileg generált, de magabiztosan megfogalmazott zagyvaság között.
A jövőben várhatóan megjelennek az úgynevezett „Allowlist-only” (csak engedélyezett listás) keresési módok a vállalati felhasználók számára, akik nem engedhetik meg maguknak, hogy üzleti döntéseiket egy másik cég chatbotjának hallucinációira alapozzák.
Források