Az elmúlt időszakban egyre nagyobb érdeklődés övezi az OpenAI működését. Nem véletlenül: az általuk fejlesztett mesterséges intelligencia modellek – például a ChatGPT – széles körben használtak, miközben a mögöttük álló döntéshozatali és tulajdonosi struktúrákról csak töredékes információink vannak. Ebbe a homályba hoz némi világosságot az OpenAI Files nevű jelentés, amelyet két technológiai felügyeleti szervezet, a Midas Project és a Tech Oversight Project készített. A dokumentum nemcsak a vállalat belső működéséről szól, hanem szélesebb társadalmi kérdéseket is érint: milyen mechanizmusokra van szükség, ha egy magáncég a jövő gazdaságának kulcsát tartja a kezében?
A jelentés egyik központi eleme az OpenAI szervezeti átalakulásának részletezése. A vállalat eredetileg nonprofit laboratóriumként indult 2015-ben azzal a deklarált céllal, hogy az AGI – vagyis az általános mesterséges intelligencia – fejlesztése az emberiség egészének javát szolgálja. A működés első éveiben a kutatások nyíltak voltak, és a befektetői érdekeket háttérbe szorították. Ez az alapállás azonban fokozatosan átalakult.
2019-ben az OpenAI egy vegyes modellt vezetett be: létrehozta a nyereségkorlátozott („capped-profit”) leányvállalatát, amely a befektetők számára legfeljebb 100-szoros megtérülést tett lehetővé. Az ezt követő években ez a plafon folyamatosan csökkent: előbb 20-szorosra, majd „egy számjegyű” megtérülésre. Ezzel párhuzamosan a nonprofit szervezet megtartotta a teljes irányítást a technológia felhasználása és fejlesztési irányai felett – legalábbis papíron.
A mostani jelentés azonban azt mutatja, hogy ez a rendszer radikálisan megváltozhat. A tervek szerint az OpenAI a jövőben nemcsak eltörölné a profitplafont, hanem a nonprofit szervezet döntéshozatali szerepét is jelentősen csökkentené. A vállalat egy új típusú struktúra – úgynevezett Public Benefit Corporation – bevezetését tervezi, amely formálisan továbbra is figyelembe veszi a közérdeket, de már nem helyezi azt elsőbbségbe a részvényesi profitokkal szemben. Az ilyen jogi forma eddigi tapasztalatai alapján nem igazolható, hogy hatékonyan érvényesítené a közösségi célokat, különösen akkor, ha azok sértik a befektetők rövid távú érdekeit.
További kérdéseket vet fel, hogy a nyilvánosság csak utólag, harmadik fél riportjaiból értesült arról, hogy 2025-től évente 20%-kal emelhetik a profitplafont – ami hosszú távon teljesen értelmetlenné tenné az eredeti korlátozást. Ez az ütem évente közel hétszerese a globális gazdasági növekedés átlagának, és ha fennmarad, néhány évtizeden belül a korábban „humanitárius biztosítékként” bevezetett rendszer gyakorlatilag megszűnik.
Az OpenAI hivatalos indoklása szerint a korábbi struktúra akkor volt indokolt, amikor úgy tűnt, hogy egyetlen cég – talán az OpenAI – fog dominálni az AGI területén. Mivel most több vállalat is versenyez e célért, szerintük a korlátozás okafogyottá vált. Ugyanakkor a cég saját korábbi nyilatkozatai és 2018-as alapító chartája is arra utalt, hogy már a kezdetektől több versenyzőre számítottak. Ez felveti a kérdést, vajon valóban a körülmények változása indokolja-e az átalakítást, vagy inkább a befektetői nyomás játszik szerepet.
A dokumentum szerint egyes jelentős befektetők – például a SoftBank – konkrétan a korlátozások eltörlését szabták a további finanszírozás feltételéül. Ez újraértelmezi a korábban „az emberiség érdekeit védő” struktúra funkcióját: az immár inkább akadálya, mint biztosítéka a működésnek.
A vállalati átalakítás mellett a jelentés felhívja a figyelmet a belső kultúrára is. Az OpenAI-nál volt alkalmazottak beszámolói szerint olyan munkavállalókat is elbocsátottak, akik információbiztonsági vagy menedzsmentproblémákat jeleztek. Ezek az esetek túlmutatnak egyedi konfliktusokon: egy olyan iparágban, ahol a tudás és az etikus működés létfontosságú, a nyílt véleményformálás lehetősége nem csupán munkajogi kérdés, hanem technológiai biztonsági szempont is.
Az OpenAI Files nem kívánja egyértelműen elítélni a vállalat vezetőit vagy stratégiáját, de világosan jelzi, hogy szükség van egy szélesebb körű, intézményesített kontrollmechanizmusra. Ez nemcsak az állami szabályozás, hanem a civil társadalom, a tudományos közösségek és a média részéről is megvalósulhat. Az AI fejlesztése nem zárható laboratóriumokba: olyan kérdésekről van szó, amelyek hosszú távon hatással lesznek a gazdaságra, a munkaerőpiacra és az emberi kapcsolatokra is.
Az OpenAI fejlődése így egy szélesebb problémára mutat rá: hogyan tud egy technológiai vállalat hosszú távon hű maradni alapértékeihez, ha egyre erősebb pénzügyi nyomás nehezedik rá? Milyen struktúrák biztosítják, hogy a gyors fejlődés ne a társadalmi bizalom rovására történjen?
E kérdések megválaszolása nem kizárólag a mérnökök, befektetők vagy cégvezetők feladata. Az AI jövője társadalmi ügy – és annak irányáról is a társadalomnak kell döntenie. Ha ezt most nem tesszük meg, akkor az elkövetkező évtizedek technológiai újításai nem a közösség javát, hanem a legbefolyásosabb befektetők érdekeit fogják szolgálni.