A mesterséges intelligencia szektor az elmúlt napokban olyan rendszerszintű konfliktusokkal szembesült, amelyek alapjaiban rengetik meg a technológiai óriáscégek, a kormányzati szervek és a felhasználói biztonság kapcsolatát. Míg az Anthropic jogi úton támadja az amerikai védelmi minisztériumot a diszkriminatív tiltólistázás miatt, addig a színfalak mögött az OpenAI kulcsemberei távoznak az autonóm fegyverrendszerek és a bírói felügyelet nélküli megfigyelések miatti aggályok okán. Ezzel párhuzamosan a technológiai fölényért folytatott harcban megjelent az ipari méretű adatlopás vádja is, ami rávilágít a globális AI-verseny sötétebb oldalára.
A biztonság és a politika ütközőzónája
Az AI-fejlesztés már régen túllépett a laboratóriumi kereteken, és a nemzetbiztonság kritikus elemévé vált. Az Amerikai Egyesült Államok kormánya és a Pentagon szigorúbb ellenőrzés alá vonta azokat a modelleket, amelyek hozzáférhetnek az állami infrastruktúrához. Azonban ez a szigorú fellépés most jogi ellenállásba ütközött. Az Anthropic szerint a Pentagon indokolatlanul és átláthatatlan módon bélyegzett meg bizonyos technológiákat, miközben a kiberbűnözők és a rivális nagyhatalmak éppen ezeket a vívmányokat használják fel saját céljaikra.
Az Anthropic és a Pentagon konfliktusa: Jogtalan tiltólista?
Az Anthropic két külön pert indított az amerikai védelmi minisztérium (Pentagon) ellen. A vállalat sérelmezi, hogy a Claude névre keresztelt AI-modelljeiket „fekete listára” tették, ami megakadályozza őket a kormányzati tendereken való részvételben. A tech-cég érvelése szerint a Pentagon döntései nélkülözik a technikai megalapozottságot és sértik a tisztességes verseny feltételeit. Az Anthropic álláspontja szerint modelljeik biztonságosabbak és etikusabbak, mint sok, jelenleg engedélyezett konkurens megoldás, így a kizárásuk hátterében politikai vagy adminisztratív hiba állhat.
Ipari kémkedés: A Claude technológia „desztillálása” Kínában
A jogi csatározások mellett az Anthropic súlyos vádakkal illette a kínai AI-fejlesztőket is. A cég jelentése szerint kínai vállalatok – köztük olyan szereplők, mint a DeepSeek – szisztematikusan és ipari méretekben „lopják” a Claude modell tudását. A folyamat lényege a modell-desztilláció: a kínai fejlesztők hatalmas mennyiségű kérdést tesznek fel a Claude-nak, majd az arra adott válaszokkal tanítják be saját, olcsóbb és gyorsabb modelljeiket. Ez a módszer lehetővé teszi, hogy a riválisok az Anthropic milliárdos kutatási költségeit megkerülve jussanak csúcstechnológiához.
Lemondási hullám az OpenAI-nál a megfigyelések miatt
Belső feszültségek feszítik az iparág másik óriását, az OpenAI-t is. A vállalat hardveres részlegének vezetője látványos keretek között távozott posztjáról. Indoklása szerint nem tud tovább azonosulni a cég azon irányvonalával, amely támogatja az amerikai állampolgárok bírói felügyelet nélküli, tömeges megfigyelését az AI segítségével. Emellett komoly aggályokat fogalmazott meg a „halálos autonómia” kapcsán is – vagyis olyan fegyverrendszerek fejlesztése ellen tiltakozott, amelyek emberi jóváhagyás nélkül hozhatnak döntést élet és halál felett.
Biztonsági rések a lakossági szolgáltatásokban
Miközben a nagyvállalatok a Pentagonnal és kémekkel küzdenek, a hétköznapi felhasználóknak szánt eszközök is sebezhetőnek bizonyulnak. Az Amazon Rufus nevű vásárlási asszisztenséről kiderült, hogy egyszerű „jailbreak” módszerekkel könnyedén kijátszható. Megfelelő utasításokkal a bot rávehető, hogy kilépjen a vásárlási tanácsadó szerepéből, és olyan kérdésekre is válaszoljon, amelyeket az Amazon biztonsági irányelvei tiltanak. Ez rávilágít arra, hogy a korlátozott feladatokra szánt (úgynevezett narrow AI) modellek mögött álló nagy nyelvi modellek (LLM) továbbra is nehezen kontrollálhatók.
Technológiai adatok és incidensek összefoglalása
| Érintett vállalat | Esemény típusa | Főbb aggály/Vád |
|---|---|---|
| Anthropic | Jogi eljárás (Pentagon) | Diszkriminatív tiltólistázás |
| OpenAI | Vezetői lemondás | Bírói felügyelet nélküli megfigyelés, autonóm fegyverek |
| Anthropic / DeepSeek | Ipari kémkedés | Modell-desztilláció, Claude technológia ellopása |
| Amazon | Szoftveres sebezhetőség | Rufus asszisztens jailbreakelhetősége |
| OpenAI | Szolgáltatási késés | ChatGPT felnőtt mód (Adult Mode) további csúszása |
Magyar vonatkozás és kiberbiztonság
A magyarországi vállalatok és állami szervek számára a legfontosabb tanulság az AI kiberbűnözésben betöltött szerepének növekedése. A legfrissebb jelentések szerint a kiberbűnözők már rutinszerűen használják az AI-t a támadások optimalizálására, például hitelesebb adathalász levelek generálására vagy sebezhetőségek automatizált keresésére. Magyarországon is megfigyelhető a mesterséges intelligenciával segített csalások számának növekedése, ami fokozott éberséget igényel mind a lakossági, mind a vállalati szektor részéről.
Kilátások: Etikai válaszút előtt
Az OpenAI ChatGPT modelljéhez ígért, szűretlenebb vagy „felnőtt mód” (Adult Mode) körüli bizonytalanság jól jelzi a fejlesztők dilemmáját: hogyan adjanak szabadságot az eszköznek anélkül, hogy az visszaélésekre adna lehetőséget. A következő hónapok meghatározóak lesznek az Anthropic pereinek kimenetele szempontjából, ami precedenst teremthet az állam és a tech-szektor együttműködésében. Amennyiben a bíróság az Anthropicnak ad igazat, az átírhatja az állami beszerzések szabályait, ugyanakkor a biztonsági aggályok és az autonóm fegyverek kérdése továbbra is megoldatlan etikai teher marad az iparágon.