Az OpenAI feltárt és megszüntetett több állami hátterű fiókot

Az OpenAI átfogó vizsgálatot követően bejelentette, hogy több száz ChatGPT-fiókot tiltott le, melyek kapcsolatba hozhatók voltak államilag támogatott szereplőkkel Oroszországból, Kínából, Iránból és Kambodzsából. Az érintett csoportok mesterséges intelligenciát vetettek be kiberkémkedésre, befolyásolási kampányokra és rosszindulatú kódfejlesztésre. A biztonsági jelentés, amely 2025 júniusában látott napvilágot, tíz különböző, egymással nem összefüggő műveletet dokumentál, amelyek világosan jelzik: a generatív mesterséges intelligenciát egyre szélesebb körben használják fel támadó céllal.

A kínai eredetű műveletek jelentették a fenyegetések legnagyobb részét. Ezek közül kiemelkedik az úgynevezett „Sneer Review” művelet, amely angol és kínai nyelvű közösségi média tartalmakat állított elő, különös figyelemmel Tajvan politikájára és a pakisztáni aktivista, Mahrang Baloch személyére. A kampány során automatizált tartalomgyártást és fiktív személyazonosságokat használtak, az egyik fiók mögött álló felhasználó pedig azt állította, hogy a kínai propagandaminisztériumban dolgozik — ezt az állítást ugyanakkor nem sikerült hitelt érdemlően igazolnia.

Két jól ismert kínai kiberkémkedési csoport, az APT5 (KEYHOLE PANDA) és az APT15 (VIXEN PANDA) technikai célokra vetette be a ChatGPT-t. A vizsgálatok szerint ezeket a nyelvi modelleket többek között Nmap-hálózati vizsgálatok elemzésére és parancssorok iteratív fejlesztésére használták. Továbbá információkat kutattak az amerikai védelmi ipar struktúrájáról, különös tekintettel a különleges műveleti parancsnokságokra és a műholdas kommunikációs rendszerekre.

A „Uncle Spam” nevű kampány különösen az Egyesült Államok belpolitikai törésvonalaira összpontosított. A fenyegetők mindkét oldal álláspontját támogató tartalmakat generáltak – például a vámháború kapcsán –, miközben mesterségesen generált profilképekkel ellátott veterán személyiségeket hoztak létre különböző platformokon, mint az X és a Bluesky. Emellett kódot kértek személyes adatok begyűjtésére közösségi oldalakról, olyan eszközök segítségével, mint a Tweepy és a Nitter.

Az orosz „ScopeCreep” művelet különösen kifinomult technikai eszköztárral dolgozott. A kampány célzott Windows-alapú rosszindulatú programokat fejlesztett Go nyelven, többek között DLL side-loading technikával, Themida alapú kódfájl-elfedéssel és HTTPS-alapú kommunikációval port 80-on keresztül. A kártevőket egy trójai játékeszköz repositoryból terjesztették, és olyan funkciókat tartalmaztak, mint hitelesítő adatgyűjtés, Telegramon keresztüli riasztások a támadóknak, valamint forgalom elfedése SOCKS5 proxyval. A támadók a ChatGPT-t arra használták, hogy SSL/TLS tanúsítványok implementálásában hibát keressenek, és programozottan módosítsák a Windows Defender beállításait.

A német választások előtt aktivizálódott a „Helgoland Bite” művelet, amely az Alternative für Deutschland (AfD) pártot támogató tartalmakat generált német közönség számára.

Irán tovább folytatta a korábban is ismert STORM-2035 befolyásolási kampányát, több nyelven — perzsául, angolul és spanyolul — generált tartalmakat, amelyek az amerikai bevándorláspolitikát, a skót függetlenséget és az ír újraegyesítést célozták. Az ehhez használt fiókok gyakran fiatal nők fotóit mutatták, amelyek részben kitakart arcú képek voltak Pinterest-ről.

Kambodzsa is megjelent az érintettek között az „Operation Wrong Number” nevű átverési kampánnyal, amely hat nyelven, köztük angolul, spanyolul és szuahéliül próbált embereket toborozni hamis álláshirdetésekkel. A háromlépcsős csalási rendszer során kezdeti lelkesedést váltottak ki magas fizetésekkel, majd motivációs üzenetekkel tartották fenn az érdeklődést, végül pedig kriptovaluta-átutalásokat csaltak ki különböző ürügyekkel.

Bár a támadók nem az AI-rendszerek feltörésére, hanem azok funkcionális kihasználására törekedtek, a fenyegetések súlya egyértelmű. Az OpenAI válaszul nemcsak letiltotta a gyanús fiókokat, hanem erősítette biztonsági ellenőrzéseit, és együttműködést épített ki más szereplőkkel a kibervédelem területén. A cég hangsúlyozta, hogy az AI eszközök védelme nem csak technikai, hanem társadalmi és stratégiai kérdés is.

Az esetek világosan mutatják, hogy a mesterséges intelligencia alkalmazása már nem csak a jövő kérdése a kiberfenyegetések világában — hanem aktuális realitás. A támadások változatosak, földrajzilag széles körűek, és egyre szofisztikáltabb módszereket alkalmaznak. Ennek megfelelően sürgető a nemzetközi együttműködés és a felelős technológiahasználat szabályozása. 

Osszd meg ezt a cikket
Mesterséges intelligencia, űr és emberiség
Elon Musk, a SpaceX, Tesla, Neuralink és xAI alapítója és vezetője egy közelmúltbeli interjúban osztotta meg gondolatait a jövő lehetséges irányairól, különös tekintettel a mesterséges intelligenciára, az űrbe való terjeszkedésre és az emberiség fejlődésére.
 Valós idejű zene komponálás a Google Magenta RT modelljével
A mesterséges intelligencia alkalmazása a zene komponálásban nem új keletű törekvés, ám a valós idejű működés sokáig jelentős akadályokba ütközött. A Google Magenta csapata most olyan fejlesztést mutatott be, amely a műfaj technikai és kreatív lehetőségeit egyaránt kiszélesítheti. A Magenta RealTime (röviden: Magenta RT) névre keresztelt új modell valós időben generál zenét, miközben nyitott forráskódjának köszönhetően bárki számára hozzáférhető.
Ufficio Zero egy olasz Linux disztribúció a fenntartható digitális munkavégzésért
Az Ufficio Zero Linux OS egy kevéssé ismert, de egyre komolyabb figyelmet érdemlő olasz fejlesztésű operációs rendszer. Elsősorban irodai és hivatali munkakörnyezetek számára készült, és különösen azoknak lehet érdekes, akik stabil, megbízható és hosszú távon is használható alternatívát keresnek a kereskedelmi rendszerekkel szemben. Az Ufficio Zero sajátos helyet foglal el a nyílt forráskódú rendszerek világában: egyszerre kíván választ adni a digitális infrastruktúra elavulására, valamint a munkavégzéshez nélkülözhetetlen szoftvereszközök elérhetőségének problémáira.
Mit jelentene az Apple számára a Perplexity AI felvásárlása?
Az Apple régóta igyekszik megtalálni a helyét a generatív mesterséges intelligencia gyorsan alakuló piacán. A vállalat évtizedeken át stratégikusan kivárt, mielőtt jelentősebb erőforrásokat irányított volna mesterséges intelligencia-alapú fejlesztésekbe. Most azonban, a legfrissebb hírek szerint, a cupertinói cég egy minden eddiginél nagyobb szabású lépésre készülhet: belső körökben megindultak az egyeztetések a Perplexity AI nevű startup esetleges felvásárlásáról.
Így torzít az LLM
A mesterséges intelligencia (MI) fejlődésével párhuzamosan egyre több figyelem irányul az úgynevezett nagy nyelvi modellekre (LLM-ekre), amelyek már nemcsak a tudományos kutatásban, hanem a mindennapi élet számos területén is jelen vannak – például ügyvédi munkában, egészségügyi adatok elemzésében vagy számítógépes programok kódolásában. E modellek működésének megértése ugyanakkor továbbra is komoly kihívást jelent, különösen akkor, amikor azok látszólag megmagyarázhatatlan módon követnek el hibákat vagy adnak félrevezető válaszokat.
MiniMax-M1 AI modell, célkeresztben a nagy méretű szövegek kezelése
A mesterséges intelligencia rendszerek fejlődésével egyre nagyobb az igény olyan modellekre, amelyek nemcsak a nyelv értelmezésére képesek, hanem összetett, többlépcsős gondolkodási folyamatokat is képesek végigvinni. Az ilyen modellek kulcsfontosságúak lehetnek nemcsak elméleti feladatokban, hanem például szoftverfejlesztés vagy valós idejű döntéshozatal során is. Ezek az alkalmazások azonban különösen érzékenyek a számítási költségekre, amelyeket a hagyományos megközelítések gyakran nehezen tudnak kordában tartani.

Az elmúlt néhány napban megjelent Linux disztribúció frissítések