Kiszivárgott belső levelek: aggodalom az OpenAI-nál a ChatGPT hibái miatt

openai

Az OpenAI-nál komoly belső feszültséget váltott ki a ChatGPT működésével és a felhasználói visszajelzésekkel kapcsolatos problémák sora. A The Verge által megszerzett belső levelezések szerint több fejlesztő és kutató aggódik a modell „hallucinációi”, pontatlanságai és adatkezelési hibái miatt, miközben a vezetés továbbra is a gyors iterációra és termékfrissítésekre ösztönzi a csapatokat.

Belső kritikák és figyelmeztetések

A levelekben több mérnök is utal arra, hogy a ChatGPT egyre gyakrabban ad félrevezető vagy téves válaszokat, ami hosszú távon a felhasználói bizalom elvesztéséhez vezethet. Egyes dokumentumokban az is olvasható, hogy a csapaton belül elterjedt az „You are hallucinating” (magyarul: „Te éppen hallucinálsz”) kifejezés, amely a rendszer hibás válaszaira utaló belső figyelmeztetésként szolgál.

Gyors iteráció kontra megbízhatóság

A szivárgások szerint a vállalat vezetése továbbra is nagy hangsúlyt fektet a gyors fejlesztési ciklusokra és a piacra kerülő új funkciók sebességére, ám ez sok dolgozó szerint a minőség és a megbízhatóság rovására megy. A belső viták rávilágítanak arra, hogy a mesterséges intelligencia-fejlesztés nemcsak technológiai, hanem etikai és pszichológiai kihívás is: a fejlesztők egy része attól tart, hogy a túlzott tempó az alapmodellek stabilitását veszélyezteti.

Morál és hitelesség próbatétele

A levelekből kirajzolódó kép szerint az OpenAI-nál a morál és a szakmai hitelesség is nyomás alatt áll. Több dolgozó a belső átláthatóság növelését és a modellhibák őszinte kommunikációját sürgeti, mivel szerintük csak így őrizhető meg a felhasználói bizalom a ChatGPT és más AI-termékek iránt. A helyzet egyben azt is mutatja, hogy az iparág egészében új korszak kezdődik: az átláthatóság és a felelősség kérdése központi témává vált az AI-fejlesztésben.