Az NVIDIA a 2026-os GTC (GPU Technology Conference) keretében rántotta le a leplet legújabb felskálázási technológiájáról, a DLSS 5-ről. A bejelentést követően azonban a közösség részéről jelentős kritika érte az új verziót, különösen a mesterséges intelligencia által generált pixelek aránya és a natív felbontástól való távolodás miatt. Jensen Huang, az NVIDIA vezérigazgatója egy friss nyilatkozatban reagált a visszajelzésekre, kijelentve, hogy a felhasználók alapvetően félreértik a technológia jövőbeli céljait és szükségességét.
A DLSS 5 technológiai háttere és a felháborodás oka
A DLSS 5 (Deep Learning Super Sampling) legfőbb újdonsága a Neural Ultra Resolution és a továbbfejlesztett Frame Reconstruction algoritmus, amely már nemcsak a képkockák közötti mozgásvektorokat, hanem a teljes jelenet geometriáját és megvilágítását is prediktív módon kezeli. A kritika alapja, hogy a technológia immár a megjelenített pixelek több mint 90 százalékát mesterséges intelligencia segítségével hozza létre, ami sokak szerint a képminőség romlásához és bemeneti késleltetéshez (input lag) vezethet.
Huang válaszában hangsúlyozta, hogy a jövő videójátékai olyan komplexitású sugárkövetést (ray tracing) és fizikai szimulációt igényelnek, amelyet a hagyományos, „brute force” renderelési eljárásokkal lehetetlen lenne valós időben futtatni. A vezérigazgató szerint a natív felbontás fogalma elavulttá válik, mivel az MI képes pontosabb és stabilabb képet alkotni, mint amit a nyers raszterizáció produkálna.
Az új architektúra specifikációi
A DLSS 5 bevezetésével az NVIDIA új követelményeket is támaszt a hardverrel szemben. Míg a korábbi verziók bizonyos elemei elérhetőek voltak régebbi kártyákon is, az 5.0-s verzió teljes funkcionalitása az új Blackwell Ultra és a készülőben lévő következő generációs architektúrák dedikált AI magjaira támaszkodik.
| Funkció | DLSS 3.5 / 4.0 | DLSS 5 (Bejelentett) |
|---|---|---|
| Felskálázási technológia | Super Resolution | Neural Ultra Resolution |
| MI pixelgenerálás aránya | ~50-75% | 90%+ |
| Késleltetéskezelés | Reflex (Szoftveres/Hardveres) | Predictive Latency Reduction |
| Textúra rekonstrukció | Nem támogatott | AI Texture Upscaling |
A vezérigazgató érvei: Miért „tévednek” a játékosok?
Jensen Huang szerint a játékostársadalom egy része azért ellenkezik, mert a „valódi” és a „generált” pixelek között tesz különbséget. Érvelése szerint a modern grafika már most is trükkök sorozata, és a DLSS 5 csupán a következő logikus lépés. Kiemelte, hogy az AI-alapú renderelés nélkül a fotorealisztikus grafika elérése évtizedekkel lassabb lenne. A vezérigazgató szerint a kritikusok nem veszik figyelembe, hogy a DLSS 5 képes javítani az alacsony felbontású textúrák minőségén is menet közben, amire a natív renderelés képtelen.
Az NVIDIA stratégiája egyértelműen az irányba mutat, hogy a hardveres erőforrásokat ne a pixelek kiszámítására, hanem az MI modellek futtatására fordítsák, amelyek aztán „megálmodják” a végleges képet. Ez a megközelítés azonban továbbra is megosztja a közönséget, különösen azokat, akik a vizuális tisztaságot és a minimális bemeneti késleltetést helyezik előtérbe.
Magyar vonatkozások és piaci hatások
A hazai piacon az NVIDIA kártyák dominanciája továbbra is töretlen, azonban a DLSS 5 hardverigénye komoly dilemmát okozhat a magyar felhasználóknak. Mivel a technológia teljes kihasználásához a legújabb, felsőkategóriás GPU-kra lesz szükség, az átlagos magyar játékos számára a belépési küszöb jelentősen megemelkedhet. A helyi viszonteladók előrejelzései szerint a DLSS 5 körüli hype és a vezérigazgató határozott fellépése tovább növelheti az érdeklődést a csúcskategóriás kártyák iránt, miközben az árérzékenyebb rétegek egyre inkább kiszorulhatnak a legújabb szoftveres előnyökből.
Kilátások és a technológia jövője
A DLSS 5 hivatalos megjelenése 2026 végén várható az első olyan játékokkal, amelyek már az alapoktól az új algoritmusra épülnek. Kérdéses marad, hogy az AMD és az Intel miként reagál erre a technológiai ugrásra, és hogy a játékfejlesztők hajlandóak lesznek-e ekkora mértékben támaszkodni az NVIDIA zárt forráskódú megoldásaira. Jensen Huang magabiztossága azt sugallja, hogy az NVIDIA nem tágít az irányvonalától, és a jövőben a videókártyákat már nem a teraflops, hanem az MI következtetési teljesítmény (inference) alapján fogjuk értékelni.