Elsöpri e az ASIC az NVIDIA GPU-kat, hová vezet a mesterséges intelligencia chipforradalma?

A mesterséges intelligencia fejlődése az elmúlt évtizedben szorosan összefonódott az NVIDIA nevű vállalat nevével, amely grafikus processzorai (GPU) révén a piac domináns szereplőjévé vált. A mai AI-modellek jelentős része ezekre a GPU-kra épül, és az NVIDIA évtizedes szoftveres ökoszisztémája – különösen a CUDA platform – nélkülözhetetlen eszköze lett a kutatásnak, fejlesztésnek és ipari alkalmazásnak. Ugyanakkor az elmúlt néhány évben a technológiai szektor legnagyobb szereplői – köztük a Google, az Amazon, a Meta és a Microsoft – egyre nagyobb lendülettel fordulnak saját fejlesztésű, célzott feladatokra optimalizált AI-chipek, az úgynevezett ASIC-ek felé.

Az ASIC (Application-Specific Integrated Circuit) típusú chipek nem általános célú számításokra készülnek, mint a GPU-k, hanem adott feladatra – például AI-modellek futtatására – vannak hardveresen optimalizálva. Ennek köszönhetően az energiahatékonyságuk, illetve a működtetésükhöz kapcsolódó költségek jelentősen kedvezőbbek lehetnek. A Google például arról számolt be, hogy saját TPU (Tensor Processing Unit) chipjei háromszor kevesebb energiát fogyasztanak, mint az NVIDIA AI GPU-i, és akár 1,7-szer gyorsabbak is lehetnek bizonyos feladatokban. A fejlett ASIC-ek teljesítménysűrűsége már eléri a 142 TOPS/W értéket, miközben energiafogyasztásuk jellemzően nem haladja meg a 350 wattot – ez különösen figyelemre méltó az olyan modellek esetében, amelyek több száz milliárd paraméterrel dolgoznak.

A nagyvállalatok az úgynevezett „teljes tulajdonlási költség” (TCO) jelentős csökkenése miatt is érdeklődnek az ASIC-ek iránt. Az iparági elemzések szerint ezek a chipek akár 30–50 százalékkal csökkenthetik az AI-infrastruktúra költségeit, különösen nagy léptékű alkalmazások esetében. Ez nemcsak a hardverbeszerzésre igaz, hanem az üzemeltetési költségekre – például a hűtésre vagy energiaellátásra – is. Az egyedi fejlesztésű chipek révén ráadásul a vállalatok csökkenthetik külső beszállítóktól való függőségüket, ami hosszú távon stabilabb ellátást és jobban kontrollált költségstruktúrát eredményezhet.

A háttérben gazdasági megfontolások is húzódnak: az úgynevezett „Nvidia-adó” – azaz az NVIDIA chipekhez kapcsolódó, gyakran magas ár – ellensúlyozására a saját fejlesztés egyre vonzóbb alternatíva. A Google és az Amazon már 2025-re összesen több mint hárommillió ASIC chip szállítását tervezi, ami a becslések szerint a NVIDIA éves AI GPU-kínálatának felét is elérheti. 2026-ra, a Meta belépésével, az ASIC chipek szállítási volumene akár meg is haladhatja a GPU-két.

A technológia gyors előretörése ellenére azonban fontos kiemelni, hogy az ASIC-ek nem minden tekintetben helyettesítik a GPU-kat. A legnagyobb korlátot jelenleg a szoftveres ökoszisztéma jelenti. Az NVIDIA CUDA platformja mára több mint 30 millió fejlesztő munkájának alapját képezi. Ez a rendszer olyan mélyen beágyazódott az AI-fejlesztésbe, hogy egy teljes váltás ASIC-re nem csupán hardveres beruházást, hanem teljes szoftveres újratervezést igényel. Az alternatív platformok fejletlensége – például a Google TPU-k esetében – gyakran jelentős akadályt jelent a széles körű adaptáció előtt, különösen kisebb fejlesztői közösségek vagy kutatóintézetek számára.

További kihívás a chipek gyártása is. Az olyan fejlett gyártástechnológiák, mint a TSMC CoWoS csomagolási eljárása, szűk keresztmetszetet jelentenek, és egyes becslések szerint legfeljebb évi 300–400 ezer darab ASIC előállítását teszik lehetővé. A Meta következő generációs chipjei (MTIA T-V1 és T-V2) például már tervezés alatt állnak, de gyártási kapacitás nélkül ezek piaci bevezetése bizonytalan.

Az NVIDIA válasza sem váratott sokáig magára. A vállalat új NVLink protokollja lehetővé teszi más gyártók processzorainak és ASIC-jeinek közvetlen összekapcsolását az NVIDIA GPU-kkal, ezzel egyfajta „nyitott együttműködést” kínálva azok számára, akik nem kívánják teljes egészében elhagyni a GPU-alapú ökoszisztémát. Eközben a vállalat továbbra is évi több mint 16 milliárd dollárt költ kutatás-fejlesztésre, ami messze meghaladja az ASIC-fejlesztésekre szánt összegeket.

Az iparági elemzések egyértelműen jelzik: az ASIC chipek térnyerése nem a GPU-k végét, hanem az AI hardverökoszisztéma specializálódását jelenti. Az ASIC-ek kiemelkedően hatékonyak jól körülhatárolt, stabil feladatok – például AI-modellek inferenciája – során, míg a GPU-k továbbra is megkerülhetetlenek maradnak az új algoritmusok fejlesztésében, tesztelésében és skálázható tanításában.

A jövő tehát sokkal inkább az együttélésről, mint a leváltásról szól. A mesterséges intelligencia fejlődése nem egyetlen technológia, hanem több, egymást kiegészítő megoldás ökoszisztémájának eredménye. Ebben a képletben az ASIC chipek a hatékonyság és célorientált működés szimbólumai, míg az NVIDIA GPU-i a rugalmasságot, szoftveres támogatottságot és fejlesztési szabadságot képviselik. Az iparági szereplők számára a kihívás az, hogy e két világ előnyeit képesek legyenek úgy ötvözni, hogy az mesterséges intelligencia fejlődésének következő szakaszát is megalapozza. 

Osszd meg ezt a cikket
 Google Gemini CLI, erős ajánlat a terminálból elérhető AI-k mezőnyében
A Google által nemrég bejelentett Gemini CLI egy nyílt forráskódú, parancssoros AI-eszköz, amely a Gemini 2.5 Pro nagy nyelvi modellt integrálja közvetlenül a terminálba. A kezdeményezés célja nem kevesebb, mint hogy a természetes nyelvi utasításokat valódi technikai munkafolyamatokká alakítsa, méghozzá egy olyan környezetben, amely sokak számára már eddig is a hatékonyság szinonimája volt.
Satya Nadella gondolatai a mesterséges intelligencia szerepéről jövőjéről és felelősségéről
A technológia világában nem ritkák a gyors váltások, de ezek ritkán érintenek ennyire sok szektort egyszerre, mint napjaink mesterséges intelligencia (AI) forradalma. Satya Nadella, a Microsoft vezérigazgatója a Y Combinatornak adott interjúban nemcsak a technológiai fejleményeket értékelte, hanem tágabb társadalmi és gazdasági összefüggésekbe is helyezte az AI fejlődését. Megközelítése visszafogott, higgadt és céltudatos: az AI nem misztikus entitás, hanem eszköz, amelyet megfelelően kell alkalmazni és értelmezni.
Apple a kínai támogatási programban: piacvédelem árengedményekkel
Az Apple hivatalosan is csatlakozott a kínai kormány által életre hívott fogyasztói elektronikai támogatási programhoz, amely a hazai fogyasztás élénkítését célozza, írja a South China Morning Post. Ez a lépés egyaránt értelmezhető piaci alkalmazkodásként és stratégiai kísérletként arra, hogy az amerikai technológiai óriás erősítse pozícióját egy egyre élesebb versenyhelyzetű környezetben. A program keretében a kínai nagyvárosok – Peking és Sanghaj – vásárlói már közvetlen árkedvezményhez juthatnak bizonyos Apple-termékek esetében.
Intel új 18A chipgyártási eljárása: mérsékelt előrelépés vagy fordulópont a globális félvezetőiparban?
Intel nemrég publikált részletes műszaki elemzést legújabb, 18A néven ismert gyártástechnológiájáról, amely a vállalat szerint jelentős előrelépést képvisel a teljesítmény, fogyasztás és tranzisztorsűrűség terén. A VLSI 2025 szimpóziumon bemutatott anyag alapján az új gyártási csomópont a korábbi, Intel 3 eljáráshoz képest akár 25%-kal nagyobb sebességet, 36%-kal alacsonyabb energiafelhasználást és körülbelül 30%-kal nagyobb tranzisztorsűrűséget ígér. Bár ezek az értékek önmagukban is figyelemre méltók, az eljárás jelentősége leginkább abban áll, hogy ez az első alkalom évek óta, amikor az Intel valóban versenyképes alternatívát kínálhat a világ vezető chipgyártójával, a tajvani TSMC-vel szemben.
 Közeleg az új M5 iPad Pro: mit várhatunk az Apple következő táblagépétől?
Az Apple termékbejelentései mindig jelentős figyelmet kapnak, különösen, ha egy olyan zászlóshajó eszközről van szó, mint az iPad Pro. Bár hivatalos megerősítés még nem született, az iparági szereplők és elemzők szerint 2025 végén vagy legkésőbb 2026 elején várható az M5 chipet használó új iPad Pro megjelenése. A jelek szerint az Apple tartja magát a másfél éves frissítési ciklushoz, amelyet az iPad Pro modellek esetében alkalmaz.
Az AI jövője és az átláthatóság ára – Mit mondanak az OpenAI-akták?
Az elmúlt időszakban egyre nagyobb érdeklődés övezi az OpenAI működését. Nem véletlenül: az általuk fejlesztett mesterséges intelligencia modellek – például a ChatGPT – széles körben használtak, miközben a mögöttük álló döntéshozatali és tulajdonosi struktúrákról csak töredékes információink vannak. Ebbe a homályba hoz némi világosságot az OpenAI Files nevű jelentés, amelyet két technológiai felügyeleti szervezet, a Midas Project és a Tech Oversight Project készített. A dokumentum nemcsak a vállalat belső működéséről szól, hanem szélesebb társadalmi kérdéseket is érint: milyen mechanizmusokra van szükség, ha egy magáncég a jövő gazdaságának kulcsát tartja a kezében?

Az elmúlt néhány napban megjelent Linux disztribúció frissítések