Az OpenAI átfogó vizsgálatot követően bejelentette, hogy több száz ChatGPT-fiókot tiltott le, melyek kapcsolatba hozhatók voltak államilag támogatott szereplőkkel Oroszországból, Kínából, Iránból és Kambodzsából. Az érintett csoportok mesterséges intelligenciát vetettek be kiberkémkedésre, befolyásolási kampányokra és rosszindulatú kódfejlesztésre. A biztonsági jelentés, amely 2025 júniusában látott napvilágot, tíz különböző, egymással nem összefüggő műveletet dokumentál, amelyek világosan jelzik: a generatív mesterséges intelligenciát egyre szélesebb körben használják fel támadó céllal.
A kínai eredetű műveletek jelentették a fenyegetések legnagyobb részét. Ezek közül kiemelkedik az úgynevezett „Sneer Review” művelet, amely angol és kínai nyelvű közösségi média tartalmakat állított elő, különös figyelemmel Tajvan politikájára és a pakisztáni aktivista, Mahrang Baloch személyére. A kampány során automatizált tartalomgyártást és fiktív személyazonosságokat használtak, az egyik fiók mögött álló felhasználó pedig azt állította, hogy a kínai propagandaminisztériumban dolgozik — ezt az állítást ugyanakkor nem sikerült hitelt érdemlően igazolnia.
Két jól ismert kínai kiberkémkedési csoport, az APT5 (KEYHOLE PANDA) és az APT15 (VIXEN PANDA) technikai célokra vetette be a ChatGPT-t. A vizsgálatok szerint ezeket a nyelvi modelleket többek között Nmap-hálózati vizsgálatok elemzésére és parancssorok iteratív fejlesztésére használták. Továbbá információkat kutattak az amerikai védelmi ipar struktúrájáról, különös tekintettel a különleges műveleti parancsnokságokra és a műholdas kommunikációs rendszerekre.
A „Uncle Spam” nevű kampány különösen az Egyesült Államok belpolitikai törésvonalaira összpontosított. A fenyegetők mindkét oldal álláspontját támogató tartalmakat generáltak – például a vámháború kapcsán –, miközben mesterségesen generált profilképekkel ellátott veterán személyiségeket hoztak létre különböző platformokon, mint az X és a Bluesky. Emellett kódot kértek személyes adatok begyűjtésére közösségi oldalakról, olyan eszközök segítségével, mint a Tweepy és a Nitter.
Az orosz „ScopeCreep” művelet különösen kifinomult technikai eszköztárral dolgozott. A kampány célzott Windows-alapú rosszindulatú programokat fejlesztett Go nyelven, többek között DLL side-loading technikával, Themida alapú kódfájl-elfedéssel és HTTPS-alapú kommunikációval port 80-on keresztül. A kártevőket egy trójai játékeszköz repositoryból terjesztették, és olyan funkciókat tartalmaztak, mint hitelesítő adatgyűjtés, Telegramon keresztüli riasztások a támadóknak, valamint forgalom elfedése SOCKS5 proxyval. A támadók a ChatGPT-t arra használták, hogy SSL/TLS tanúsítványok implementálásában hibát keressenek, és programozottan módosítsák a Windows Defender beállításait.
A német választások előtt aktivizálódott a „Helgoland Bite” művelet, amely az Alternative für Deutschland (AfD) pártot támogató tartalmakat generált német közönség számára.
Irán tovább folytatta a korábban is ismert STORM-2035 befolyásolási kampányát, több nyelven — perzsául, angolul és spanyolul — generált tartalmakat, amelyek az amerikai bevándorláspolitikát, a skót függetlenséget és az ír újraegyesítést célozták. Az ehhez használt fiókok gyakran fiatal nők fotóit mutatták, amelyek részben kitakart arcú képek voltak Pinterest-ről.
Kambodzsa is megjelent az érintettek között az „Operation Wrong Number” nevű átverési kampánnyal, amely hat nyelven, köztük angolul, spanyolul és szuahéliül próbált embereket toborozni hamis álláshirdetésekkel. A háromlépcsős csalási rendszer során kezdeti lelkesedést váltottak ki magas fizetésekkel, majd motivációs üzenetekkel tartották fenn az érdeklődést, végül pedig kriptovaluta-átutalásokat csaltak ki különböző ürügyekkel.
Bár a támadók nem az AI-rendszerek feltörésére, hanem azok funkcionális kihasználására törekedtek, a fenyegetések súlya egyértelmű. Az OpenAI válaszul nemcsak letiltotta a gyanús fiókokat, hanem erősítette biztonsági ellenőrzéseit, és együttműködést épített ki más szereplőkkel a kibervédelem területén. A cég hangsúlyozta, hogy az AI eszközök védelme nem csak technikai, hanem társadalmi és stratégiai kérdés is.
Az esetek világosan mutatják, hogy a mesterséges intelligencia alkalmazása már nem csak a jövő kérdése a kiberfenyegetések világában — hanem aktuális realitás. A támadások változatosak, földrajzilag széles körűek, és egyre szofisztikáltabb módszereket alkalmaznak. Ennek megfelelően sürgető a nemzetközi együttműködés és a felelős technológiahasználat szabályozása.