A Google Cloud Run GPU-támogatást biztosít mesterséges intelligencia projektekhez

A Google Cloud hivatalosan is elindította az NVIDIA GPU támogatás általános elérhetőségét a Cloud Run számára, ami jelentős előrelépést jelent a szerver nélküli platformjában. Ez a frissítés célja, hogy a fejlesztőknek költséghatékony, skálázható megoldást nyújtson a GPU-alapú feladatokhoz, különösen az AI-következtetéshez és a kötegelt feldolgozáshoz kapcsolódóakhoz. Ezzel válaszol a felhőben elérhető, GPU-erőforrások iránti növekvő igényre, miközben megőrzi azokat a kulcsfontosságú funkciókat, amelyek a Cloud Run-t népszerűvé tették a fejlesztők körében.

A kiadás kiemelkedő jellemzője a másodpercenkénti fizetési modell, amelynek keretében a felhasználók csak a ténylegesen felhasznált GPU-erőforrásokért fizetnek. Ez segít csökkenteni a pazarlást, és a költségeket szorosan igazítja a tényleges munkaterhelési igényekhez. A Cloud Run támogatja a GPU-instanciák nullára történő lecsökkentését is, amikor azok nem használatban vannak, így elkerülve a felesleges kiadásokat. Ez ideális megoldás az szabálytalan vagy kiszámíthatatlan munkaterhelésekhez.

További előny a gyors indítási idő, mivel a GPU-kompatibilis példányok kevesebb mint öt másodperc alatt elindulnak. Ez a gyors válaszidő elengedhetetlen azoknál az alkalmazásoknál, amelyeknek alkalmazkodniuk kell a változó igényekhez vagy valós idejű kimenetet kell biztosítaniuk, például az interaktív AI-szolgáltatások vagy az élő adatfeldolgozás esetében. A Cloud Run támogatja a HTTP- és WebSocket-streaminget is, így kiválóan alkalmas valós idejű alkalmazásokhoz, beleértve a nagy nyelvi modellekkel (LLM) működőket is.

Az NVIDIA dicsérte a lépést, megjegyezve, hogy a szerver nélküli GPU-hozzáférés csökkenti az AI-fejlesztés belépési korlátját. A fejlesztők könnyedén engedélyezhetik az NVIDIA L4 GPU-kat egy parancssori jelzővel vagy egy jelölőnégyzet bejelölésével a Google Cloud konzolban. Nincs szükség kvótakérelmekre, így a GPU-erőforrások azonnal elérhetők minden felhasználó számára.

A GPU-t támogató Cloud Run a Google Cloud szolgáltatási szintű megállapodása (SLA) által biztosított, amely garantálja a termelési munkaterheléshez szükséges megbízhatóságot és rendelkezésre állást. A szolgáltatás alapértelmezés szerint zónás redundanciát tartalmaz a jobb ellenálló képesség érdekében, ugyanakkor olcsóbb lehetőséget kínál azoknak a felhasználóknak, akik hajlandóak elfogadni a legjobb erőfeszítéssel történő átállást zónás kimaradások esetén.

A bevezetés más felhőalapú platformokkal való összehasonlításokat váltott ki. Megfigyelők rámutatnak, hogy a Google az AWS Lambda és más versenytársak által hagyott rést tölti be, amelyek továbbra is csak CPU-alapú számításokat támogatnak, és 15 perces végrehajtási időkorlátot alkalmaznak. Ez korlátozza a Lambda hasznosságát modern AI-feladatok, például modellek finomhangolása vagy valós idejű videofeldolgozás esetén. Ezzel szemben a Cloud Run GPU-támogatása lehetővé teszi ezeknek a feladatoknak a hatékony végrehajtását automatikus méretezéssel.

Mégis, nem minden visszajelzés volt pozitív. Néhány felhasználó aggodalmát fejezte ki a váratlan költségekkel kapcsolatban, mivel a Cloud Run még nem kínál dollárösszegeken alapuló kemény számlázási korlátokat. Bár lehetséges a példányok korlátozásának beállítása, jelenleg nincs beépített módszer a teljes kiadások korlátozására, ami potenciálisan megnehezíti a költségvetés tervezését. Mások megjegyezték, hogy alternatív szolgáltatások, mint például a Runpod.io, alacsonyabb árakat kínálhatnak hasonló GPU-erőforrásokért.

A valós idejű következtetés mellett a Google bevezette a GPU-támogatást a Cloud Run feladatokhoz, amely jelenleg zártkörű előzetes tesztelés alatt áll. Ez megnyitja az utat további felhasználási esetek előtt, amelyek kötegelt feldolgozást és aszinkron feladatokat tartalmaznak, tovább bővítve a platform potenciálját.

A bevezetéskor a Cloud Run GPU-k öt régióban érhetők el: Iowa (us-central1), Belgium (europe-west1), Hollandia (europe-west4), Szingapúr (asia-southeast1) és Mumbai (asia-south1). További régiók bevezetése várható. A fejlesztőket arra ösztönzik, hogy a bevált gyakorlatok és optimalizálási tippekért keressék fel a Google hivatalos dokumentációját.

Összegzésként elmondható, hogy a szerver nélküli GPU-támogatás hozzáadása a Google Cloud Runhoz stratégiai fejlesztés, amely növeli a platform vonzerejét az AI és a kötegelt feldolgozási feladatok számára. A fejlesztőknek skálázható, rugalmas és termeléskész környezetet kínál a GPU-val gyorsított feladatok futtatásához. 

Osszd meg ezt a cikket
Mesterséges intelligencia, űr és emberiség
Elon Musk, a SpaceX, Tesla, Neuralink és xAI alapítója és vezetője egy közelmúltbeli interjúban osztotta meg gondolatait a jövő lehetséges irányairól, különös tekintettel a mesterséges intelligenciára, az űrbe való terjeszkedésre és az emberiség fejlődésére.
 Valós idejű zene komponálás a Google Magenta RT modelljével
A mesterséges intelligencia alkalmazása a zene komponálásban nem új keletű törekvés, ám a valós idejű működés sokáig jelentős akadályokba ütközött. A Google Magenta csapata most olyan fejlesztést mutatott be, amely a műfaj technikai és kreatív lehetőségeit egyaránt kiszélesítheti. A Magenta RealTime (röviden: Magenta RT) névre keresztelt új modell valós időben generál zenét, miközben nyitott forráskódjának köszönhetően bárki számára hozzáférhető.
Mit jelentene az Apple számára a Perplexity AI felvásárlása?
Az Apple régóta igyekszik megtalálni a helyét a generatív mesterséges intelligencia gyorsan alakuló piacán. A vállalat évtizedeken át stratégikusan kivárt, mielőtt jelentősebb erőforrásokat irányított volna mesterséges intelligencia-alapú fejlesztésekbe. Most azonban, a legfrissebb hírek szerint, a cupertinói cég egy minden eddiginél nagyobb szabású lépésre készülhet: belső körökben megindultak az egyeztetések a Perplexity AI nevű startup esetleges felvásárlásáról.
GitHub-integrációval erősít a Gemini Advanced
A mesterséges intelligencia alapú fejlesztői eszközök terén nincs hiány újabb és újabb fejlesztésekben. A Google ezzel kapcsolatban most bejelentette, hogy közvetlen GitHub-integrációval bővíti Gemini Advanced nevű prémium AI-asszisztensét. A lépés nem csupán válasz a rivális OpenAI hasonló fejlesztéseire, hanem egyben komoly előrelépés is a fejlesztői munkafolyamatok hatékonyságának növelésében.
Az Apple Anthropic-ra támaszkodva kíván saját „Vibe-Coding” platformot létrehozni
Az Apple számos nehézséggel nézett szembe az utóbbi időben saját mesterséges intelligencia megoldásainak kifejlesztése során, ezért talán nem meglepő, hogy a továbbiakban inkább külső AI-szakértelemre támaszkodna a további fejlesztések érdekében. Most úgy döntöttek, hogy az Anthropic-al egyesítik erőiket egy forradalmi „vibe-coding” szoftverplatform létrehozására, amely a generatív mesterséges intelligenciát használja fel a programozók kódjának írására, szerkesztésére és tesztelésére - derül ki a legfrissebb jelentésekből.
A JetBrains Mellum nyílt forráskódúvá vált
2025. április 30-tól a JetBrains jelentős lépést tett az AI-fejlesztés területén azzal, hogy nyílt forráskódúvá tette a Mellumot, a kifejezetten kódkiegészítésre tervezett, célzottan erre a célra kifejlesztett nyelvi modelljét. Ez a speciális 4B paraméteres modell, amely korábban csak a JetBrains kereskedelmi kínálatának részeként volt elérhető, mostantól szabadon hozzáférhető a Hugging Face-en, új lehetőségeket nyitva meg a kutatók, oktatók és fejlesztőcsapatok előtt.

Az elmúlt néhány napban megjelent Linux disztribúció frissítések