Hogyan szigorítja az EU a mesterséges intelligencia felelősségét?

AI-EU

Az Európai Unió egy régóta várt és igen jelentős jogi lépést tett 2025. december 7-én, amikor véglegesítette a Digitális Szolgáltatások Törvényének (DSA) módosításait. Ezek a szigorítások kifejezetten a mesterséges intelligencia (AI) által generált tartalmakkal, dezinformációval és a nagy online platformok felelősségével foglalkoznak. A döntés gyökeresen megváltoztatja azt a jogi környezetet, amelyben a Very Large Online Platforms (VLOP-ok) és a Very Large Online Search Engines (VLOSE-ok) működnek, hiszen mostantól proaktívabb szerepet vár el tőlük a káros AI-vezérelt manipulációk elleni küzdelemben. Ez az elemzés a szigorítások hátterét, lényegét és várható piaci hatásait mutatja be.

A szigorítások fő üzenete egyértelmű: a tech óriásoknak, mint a Meta, Google vagy a TikTok, átláthatóbbnak és felelősségteljesebbnek kell lenniük, különösen az AI-vezérelt dezinformációval kapcsolatban. A szabályozás kiemelt figyelmet fordít a deepfake-ekre és a manipulált tartalomra, amelyek terjedése komoly veszélyt jelent a társadalmi kohézióra és a demokratikus folyamatokra nézve.

Mi az előzmény? A DSA eredeti kerete és kihívásai

A Digitális Szolgáltatások Törvénye (DSA) eredetileg a 2022-es elfogadása óta igyekszik egyensúlyt teremteni a szólásszabadság és az online platformok felelőssége között. A cél az volt, hogy egy egységes szabályozási keretet hozzon létre, amely véget vet a platformok „vadnyugati” működésének. A kezdeti szabályok is komoly kötelezettségeket róttak a VLOP-okra a kockázatkezelés, a moderáció és az átláthatóság terén.

Azonban a 2023-as generatív AI-robbanás – élén a ChatGPT-vel és a Midjourney-vel – olyan új kihívásokat teremtett, amelyekre az eredeti törvény még nem készült fel. Az AI képessé vált rendkívül gyorsan, nagy mennyiségben és megtévesztő hitelességgel előállítani szöveges, képi és videós tartalmat. Ez a sebesség és hitelesség felülmúlta a platformok moderációs képességeit, ami szükségessé tette a sürgős jogi beavatkozást. A mostani módosítások lényegében a DSA eredeti szellemiségét adaptálják a turbófeltöltött, AI-vezérelt dezinformációs korszakhoz.

Az újdonság lényege: Kötelező proaktivitás és átláthatóság

A legfőbb változás a VLOP-októl és VLOSE-októl elvárt attitűdben rejlik. A szigorítások a „passzív” tartalomeltávolítási megközelítés helyett proaktív intézkedéseket várnak el. Ez a gyakorlatban azt jelenti, hogy:

  • Kockázatelemzés és kárelhárítás: A platformoknak rendszeresen fel kell mérniük a rendszereik – különösen az AI-algoritmusok – által okozott társadalmi kockázatokat (pl. választási manipuláció, közegészségügyi dezinformáció).
  • Deepfake-ek elleni küzdelem: Kötelezővé válik az AI által generált, megtévesztő tartalom (deepfake videók, képek) gyors és hatékony azonosítása és címkézése. Ennek elmaradása szigorú szankciókat von maga után.
  • Algoritmikus átláthatóság: A felhasználóknak és a hatóságoknak joguk van jobban belelátni abba, hogy az algoritmusok milyen szempontok alapján rangsorolnak vagy ajánlanak tartalmakat, különösen, ha azok befolyásolhatják a közvéleményt.

Ezek a követelmények nem csupán elvárások, hanem jogi kötelezettségek, amelyek elmulasztása akár a cég éves globális bevételének 6%-áig terjedő büntetést is eredményezhet. Ez a pénzügyi tét kényszeríti a nagy szereplőket a gyors reagálásra.

Hatások: Felhasználók, tech-piac és jog

A DSA AI-szigorítása jelentős hatással lesz a digitális ökoszisztéma minden szereplőjére:

Felhasználói Hatás: A szigorúbb szabályozás a felhasználó számára elvileg tisztább és biztonságosabb online környezetet eredményez. A deepfake-ek címkézése segíti a kritikus médiafogyasztást, míg az algoritmusok átláthatósága csökkenti az ún. „filter bubble” hatást. Ugyanakkor felmerülhet a félelem, hogy a túlzott szigor megnövekedett moderációt és esetleges cenzúrát hozhat magával.

Piaci Hatás: A VLOP-oknak masszívan be kell fektetniük a moderációs eszközökbe és az AI-tartalmak észlelésére szolgáló technológiákba. Ez jelentős költségnövekedést okoz, ami előnytelen a kisebb tech-cégekkel szemben, amelyekre a szigorú DSA-szabályok nem vonatkoznak. A szigorítások közvetve felgyorsíthatják a nyílt forráskódú AI-modellek használatát, mivel azokat nehezebb lesz szabályozni.

Jogi és Iparági Hatás: Az EU ezzel a lépéssel tovább erősíti pozícióját mint a digitális etika és jogalkotás globális úttörője. Ez a szigorítás precedenst teremthet más régiók (USA, Ázsia) számára is, és valószínűleg összeolvad a párhuzamosan fejlesztés alatt álló AI-törvénnyel (AI Act), ami egy átfogó, kétpilléres AI-szabályozást hoz létre Európában.

A DSA AI-szigorításának kulcsadatai

A módosított DSA rendkívül specifikus kritériumokat használ a felelősség megállapításához és a szankciók kiszabásához. A kulcspontokat az alábbi táblázat foglalja össze:

Kritérium Kötelezettség Maximális Szankció
Dezinformáció kezelése Rendszeres kockázatelemzés és enyhítő intézkedések bevezetése. A globális bevétel 6%-a.
Deepfake-ek / Manipulált tartalom Kötelező, egyértelmű címkézés és észlelési protokollok. A globális bevétel 6%-a.
Algoritmusok átláthatósága Hozzáférés biztosítása a kutatók és hatóságok számára. Napi bevétel 5%-a (késedelmes teljesítés esetén).
Érintettek (VLOP/VLOSE) Min. 45 millió aktív havi felhasználó az EU-ban. N/A

Magyarország, mint az Európai Unió tagállama, automatikusan implementálja a DSA módosításait. A szigorítások közvetlenül érintik a magyar felhasználókat, akik egyre nagyobb arányban fogyasztanak AI által generált tartalmat a legnagyobb platformokon (Facebook, YouTube, TikTok). Különösen fontos a politikai szereplők szempontjából, hogy a választási kampányok során megjelenő deepfake-ek és félretájékoztatás terjesztése súlyosbító körülménynek számít.

A magyar médiahatóságok feladata is megnő, hiszen az Európai Bizottság mellett ők is kapnak ellenőrzési és felügyeleti jogköröket. Ez a hazai szabályozási szerveknek új kompetenciákat igényel, különösen az AI-vezérelt tartalom auditálása terén. A szigorítások tehát nem csak a tech-óriásokra, hanem a nemzeti szabályozó környezetre is hatással vannak, elősegítve a digitális jogi szakértelem fejlődését az országban.

Kilátások: Következő lépések és az AI Act

A Digitális Szolgáltatások Törvényének AI-val kapcsolatos szigorítása csupán az első lépés egy sokkal átfogóbb európai AI-szabályozási keret felé. A következő nagy jogi kihívás az Európai Unió Mesterséges Intelligencia Törvénye, az úgynevezett AI Act, amely a tervek szerint 2026-ban léphet életbe teljesen.

Míg a DSA a platformok (azaz a tartalom terjesztőinek) felelősségét szabályozza, az AI Act magukra az AI-rendszerekre és azok fejlesztőire (a tartalom létrehozóira) koncentrál, a kockázatalapú megközelítés jegyében. A két törvény, a DSA és az AI Act, együttesen biztosítja majd az Európai Unióban az AI etikus, biztonságos és átlátható használatát. A mostani szigorítás egyértelmű jelzés a tech-világ felé: az EU nem enged a felelősség elvárásából, és a technológiai fejlődéssel párhuzamosan szigorítja a jogi kereteket.