A Google Cloud Run GPU-támogatást biztosít mesterséges intelligencia projektekhez

A Google Cloud hivatalosan is elindította az NVIDIA GPU támogatás általános elérhetőségét a Cloud Run számára, ami jelentős előrelépést jelent a szerver nélküli platformjában. Ez a frissítés célja, hogy a fejlesztőknek költséghatékony, skálázható megoldást nyújtson a GPU-alapú feladatokhoz, különösen az AI-következtetéshez és a kötegelt feldolgozáshoz kapcsolódóakhoz. Ezzel válaszol a felhőben elérhető, GPU-erőforrások iránti növekvő igényre, miközben megőrzi azokat a kulcsfontosságú funkciókat, amelyek a Cloud Run-t népszerűvé tették a fejlesztők körében.

A kiadás kiemelkedő jellemzője a másodpercenkénti fizetési modell, amelynek keretében a felhasználók csak a ténylegesen felhasznált GPU-erőforrásokért fizetnek. Ez segít csökkenteni a pazarlást, és a költségeket szorosan igazítja a tényleges munkaterhelési igényekhez. A Cloud Run támogatja a GPU-instanciák nullára történő lecsökkentését is, amikor azok nem használatban vannak, így elkerülve a felesleges kiadásokat. Ez ideális megoldás az szabálytalan vagy kiszámíthatatlan munkaterhelésekhez.

További előny a gyors indítási idő, mivel a GPU-kompatibilis példányok kevesebb mint öt másodperc alatt elindulnak. Ez a gyors válaszidő elengedhetetlen azoknál az alkalmazásoknál, amelyeknek alkalmazkodniuk kell a változó igényekhez vagy valós idejű kimenetet kell biztosítaniuk, például az interaktív AI-szolgáltatások vagy az élő adatfeldolgozás esetében. A Cloud Run támogatja a HTTP- és WebSocket-streaminget is, így kiválóan alkalmas valós idejű alkalmazásokhoz, beleértve a nagy nyelvi modellekkel (LLM) működőket is.

Az NVIDIA dicsérte a lépést, megjegyezve, hogy a szerver nélküli GPU-hozzáférés csökkenti az AI-fejlesztés belépési korlátját. A fejlesztők könnyedén engedélyezhetik az NVIDIA L4 GPU-kat egy parancssori jelzővel vagy egy jelölőnégyzet bejelölésével a Google Cloud konzolban. Nincs szükség kvótakérelmekre, így a GPU-erőforrások azonnal elérhetők minden felhasználó számára.

A GPU-t támogató Cloud Run a Google Cloud szolgáltatási szintű megállapodása (SLA) által biztosított, amely garantálja a termelési munkaterheléshez szükséges megbízhatóságot és rendelkezésre állást. A szolgáltatás alapértelmezés szerint zónás redundanciát tartalmaz a jobb ellenálló képesség érdekében, ugyanakkor olcsóbb lehetőséget kínál azoknak a felhasználóknak, akik hajlandóak elfogadni a legjobb erőfeszítéssel történő átállást zónás kimaradások esetén.

A bevezetés más felhőalapú platformokkal való összehasonlításokat váltott ki. Megfigyelők rámutatnak, hogy a Google az AWS Lambda és más versenytársak által hagyott rést tölti be, amelyek továbbra is csak CPU-alapú számításokat támogatnak, és 15 perces végrehajtási időkorlátot alkalmaznak. Ez korlátozza a Lambda hasznosságát modern AI-feladatok, például modellek finomhangolása vagy valós idejű videofeldolgozás esetén. Ezzel szemben a Cloud Run GPU-támogatása lehetővé teszi ezeknek a feladatoknak a hatékony végrehajtását automatikus méretezéssel.

Mégis, nem minden visszajelzés volt pozitív. Néhány felhasználó aggodalmát fejezte ki a váratlan költségekkel kapcsolatban, mivel a Cloud Run még nem kínál dollárösszegeken alapuló kemény számlázási korlátokat. Bár lehetséges a példányok korlátozásának beállítása, jelenleg nincs beépített módszer a teljes kiadások korlátozására, ami potenciálisan megnehezíti a költségvetés tervezését. Mások megjegyezték, hogy alternatív szolgáltatások, mint például a Runpod.io, alacsonyabb árakat kínálhatnak hasonló GPU-erőforrásokért.

A valós idejű következtetés mellett a Google bevezette a GPU-támogatást a Cloud Run feladatokhoz, amely jelenleg zártkörű előzetes tesztelés alatt áll. Ez megnyitja az utat további felhasználási esetek előtt, amelyek kötegelt feldolgozást és aszinkron feladatokat tartalmaznak, tovább bővítve a platform potenciálját.

A bevezetéskor a Cloud Run GPU-k öt régióban érhetők el: Iowa (us-central1), Belgium (europe-west1), Hollandia (europe-west4), Szingapúr (asia-southeast1) és Mumbai (asia-south1). További régiók bevezetése várható. A fejlesztőket arra ösztönzik, hogy a bevált gyakorlatok és optimalizálási tippekért keressék fel a Google hivatalos dokumentációját.

Összegzésként elmondható, hogy a szerver nélküli GPU-támogatás hozzáadása a Google Cloud Runhoz stratégiai fejlesztés, amely növeli a platform vonzerejét az AI és a kötegelt feldolgozási feladatok számára. A fejlesztőknek skálázható, rugalmas és termeléskész környezetet kínál a GPU-val gyorsított feladatok futtatásához. 

Osszd meg ezt a cikket
Gödel gép az MI, amely saját magát fejleszti
Képzeljük el, hogy egy számítógépes program képes önállóan, emberi beavatkozás nélkül módosítani a saját kódját, hogy még jobbá, okosabbá váljon! Ez a futurisztikusnak hangzó koncepció, a "Gödel gép".
Fejlettebb R1 modellel igyekszik sarokba szorítania DeepSeek az OpenAI o3 modelljét
A DeepSeek R1-0528, a kínai DeepSeek cég legújabb fejlesztése, jelentős előrelépést képvisel a mesterséges intelligencia modell érvelési képességeiben. Az új modell a januári DeepSeek R1-re épül, annak továbbfejlesztett változata. A cég állítása szerint a DeepSeek R1-0528 teljesítménye már vetekszik az OpenAI o3-as modelljével és megközelíti a Google Gemini 2.5 Pro képességeit.
GitHub-integrációval erősít a Gemini Advanced
A mesterséges intelligencia alapú fejlesztői eszközök terén nincs hiány újabb és újabb fejlesztésekben. A Google ezzel kapcsolatban most bejelentette, hogy közvetlen GitHub-integrációval bővíti Gemini Advanced nevű prémium AI-asszisztensét. A lépés nem csupán válasz a rivális OpenAI hasonló fejlesztéseire, hanem egyben komoly előrelépés is a fejlesztői munkafolyamatok hatékonyságának növelésében.
Az Apple Anthropic-ra támaszkodva kíván saját „Vibe-Coding” platformot létrehozni
Az Apple számos nehézséggel nézett szembe az utóbbi időben saját mesterséges intelligencia megoldásainak kifejlesztése során, ezért talán nem meglepő, hogy a továbbiakban inkább külső AI-szakértelemre támaszkodna a további fejlesztések érdekében. Most úgy döntöttek, hogy az Anthropic-al egyesítik erőiket egy forradalmi „vibe-coding” szoftverplatform létrehozására, amely a generatív mesterséges intelligenciát használja fel a programozók kódjának írására, szerkesztésére és tesztelésére - derül ki a legfrissebb jelentésekből.