A Google Cloud Run GPU-támogatást biztosít mesterséges intelligencia projektekhez

A Google Cloud hivatalosan is elindította az NVIDIA GPU támogatás általános elérhetőségét a Cloud Run számára, ami jelentős előrelépést jelent a szerver nélküli platformjában. Ez a frissítés célja, hogy a fejlesztőknek költséghatékony, skálázható megoldást nyújtson a GPU-alapú feladatokhoz, különösen az AI-következtetéshez és a kötegelt feldolgozáshoz kapcsolódóakhoz. Ezzel válaszol a felhőben elérhető, GPU-erőforrások iránti növekvő igényre, miközben megőrzi azokat a kulcsfontosságú funkciókat, amelyek a Cloud Run-t népszerűvé tették a fejlesztők körében.

A kiadás kiemelkedő jellemzője a másodpercenkénti fizetési modell, amelynek keretében a felhasználók csak a ténylegesen felhasznált GPU-erőforrásokért fizetnek. Ez segít csökkenteni a pazarlást, és a költségeket szorosan igazítja a tényleges munkaterhelési igényekhez. A Cloud Run támogatja a GPU-instanciák nullára történő lecsökkentését is, amikor azok nem használatban vannak, így elkerülve a felesleges kiadásokat. Ez ideális megoldás az szabálytalan vagy kiszámíthatatlan munkaterhelésekhez.

További előny a gyors indítási idő, mivel a GPU-kompatibilis példányok kevesebb mint öt másodperc alatt elindulnak. Ez a gyors válaszidő elengedhetetlen azoknál az alkalmazásoknál, amelyeknek alkalmazkodniuk kell a változó igényekhez vagy valós idejű kimenetet kell biztosítaniuk, például az interaktív AI-szolgáltatások vagy az élő adatfeldolgozás esetében. A Cloud Run támogatja a HTTP- és WebSocket-streaminget is, így kiválóan alkalmas valós idejű alkalmazásokhoz, beleértve a nagy nyelvi modellekkel (LLM) működőket is.

Az NVIDIA dicsérte a lépést, megjegyezve, hogy a szerver nélküli GPU-hozzáférés csökkenti az AI-fejlesztés belépési korlátját. A fejlesztők könnyedén engedélyezhetik az NVIDIA L4 GPU-kat egy parancssori jelzővel vagy egy jelölőnégyzet bejelölésével a Google Cloud konzolban. Nincs szükség kvótakérelmekre, így a GPU-erőforrások azonnal elérhetők minden felhasználó számára.

A GPU-t támogató Cloud Run a Google Cloud szolgáltatási szintű megállapodása (SLA) által biztosított, amely garantálja a termelési munkaterheléshez szükséges megbízhatóságot és rendelkezésre állást. A szolgáltatás alapértelmezés szerint zónás redundanciát tartalmaz a jobb ellenálló képesség érdekében, ugyanakkor olcsóbb lehetőséget kínál azoknak a felhasználóknak, akik hajlandóak elfogadni a legjobb erőfeszítéssel történő átállást zónás kimaradások esetén.

A bevezetés más felhőalapú platformokkal való összehasonlításokat váltott ki. Megfigyelők rámutatnak, hogy a Google az AWS Lambda és más versenytársak által hagyott rést tölti be, amelyek továbbra is csak CPU-alapú számításokat támogatnak, és 15 perces végrehajtási időkorlátot alkalmaznak. Ez korlátozza a Lambda hasznosságát modern AI-feladatok, például modellek finomhangolása vagy valós idejű videofeldolgozás esetén. Ezzel szemben a Cloud Run GPU-támogatása lehetővé teszi ezeknek a feladatoknak a hatékony végrehajtását automatikus méretezéssel.

Mégis, nem minden visszajelzés volt pozitív. Néhány felhasználó aggodalmát fejezte ki a váratlan költségekkel kapcsolatban, mivel a Cloud Run még nem kínál dollárösszegeken alapuló kemény számlázási korlátokat. Bár lehetséges a példányok korlátozásának beállítása, jelenleg nincs beépített módszer a teljes kiadások korlátozására, ami potenciálisan megnehezíti a költségvetés tervezését. Mások megjegyezték, hogy alternatív szolgáltatások, mint például a Runpod.io, alacsonyabb árakat kínálhatnak hasonló GPU-erőforrásokért.

A valós idejű következtetés mellett a Google bevezette a GPU-támogatást a Cloud Run feladatokhoz, amely jelenleg zártkörű előzetes tesztelés alatt áll. Ez megnyitja az utat további felhasználási esetek előtt, amelyek kötegelt feldolgozást és aszinkron feladatokat tartalmaznak, tovább bővítve a platform potenciálját.

A bevezetéskor a Cloud Run GPU-k öt régióban érhetők el: Iowa (us-central1), Belgium (europe-west1), Hollandia (europe-west4), Szingapúr (asia-southeast1) és Mumbai (asia-south1). További régiók bevezetése várható. A fejlesztőket arra ösztönzik, hogy a bevált gyakorlatok és optimalizálási tippekért keressék fel a Google hivatalos dokumentációját.

Összegzésként elmondható, hogy a szerver nélküli GPU-támogatás hozzáadása a Google Cloud Runhoz stratégiai fejlesztés, amely növeli a platform vonzerejét az AI és a kötegelt feldolgozási feladatok számára. A fejlesztőknek skálázható, rugalmas és termeléskész környezetet kínál a GPU-val gyorsított feladatok futtatásához. 

Osszd meg ezt a cikket
Mi az a WhoFi?
A vezeték nélküli internet, vagyis a WiFi, ma már életünk szinte mindenütt jelenlévő, nélkülözhetetlen része. Arra használjuk, hogy eszközeinket a világhálóra csatlakoztassuk, kommunikáljunk és információt cseréljünk. Képzeljük el azonban, ha ugyanez a technológia, amely láthatatlanul szövi be otthonainkat és városainkat, képes lenne arra is, hogy kamerák nélkül, akár falakon keresztül is azonosítson és kövessen bennünket. Ez a gondolat nem a távoli jövő sci-fi forgatókönyve, hanem egy újonnan kifejlesztett technológia, a WhoFi valósága, amely a WiFi jelek egy eddig kiaknázatlan tulajdonságát használja fel. A helyzetet bonyolítja, hogy a „WhoFi” név egy teljesen más, közösségi célokat szolgáló szolgáltatást is takar, így a kifejezés hallatán fontos tisztázni, melyik jelentéséről van szó.
Lassan éledezik Kína saját GPU ipara
A „7G” egy rövidítés, amely kínaiul szinte ugyanúgy hangzik, mint a „csoda” szó. Hogy ez pusztán egy ügyes marketingfogás vagy valóban technológiai jóslat, azt csak az idő dönti el. A Lisuan Technology által bemutatott 7G106 – belső nevén G100 – azonban kétségtelenül az első komoly próbálkozás arra, hogy Kína kilépjen az Nvidia és az AMD árnyékából. Nincs licencmegállapodás, nincs nyugati szellemi tulajdonra épülő támasz – egy teljesen saját fejlesztésű GPU, amelyet 6 nm-es DUV technológiával gyártanak egy olyan országban, amely most kezdi lerázni a nyugati technológiai export korlátait.
Felfokozott a várakozás GPT-5 megjelenése kapcsán, de mégis mire kell számítanunk?
Az OpenAI következő nyelvi modellje, a GPT-5, az elmúlt hónapok egyik legjobban várt technológiai fejlesztése lett. A GPT-4o és a speciális o1 modellek megjelenése után a figyelem most a következő generációs nyelvi modellre irányul, amely a pletykák és a vállalat vezetőinek elejtett megjegyzései szerint jelentős előrelépést hozhat a mesterséges intelligencia képességeiben. De mit tudunk eddig, és mi az, ami csupán spekuláció?
Ennyi ‘utálom a CSS-t’ cikk után hogy lehet, hogy a CSS mégis ennyire sikeres?
Ha valaha rákerestél arra, hogy „miért utálják a fejlesztők a CSS-t”, akkor tudod: az interneten a siralmak özöne vár. Fórumposztok, tweetek, mémek és hosszú blogbejegyzések ezrei panaszkodnak a CSS „érthetetlen viselkedésére”, a „nem-igazi programozás” mivoltára vagy a „csak dizájnereknek való vacak” narratívára. Mintha a fejlesztői kultúra egyik csendes alaptétele lenne, hogy a CSS egy szükséges rossz: valami, amit csak akkor használunk, ha muszáj, és lehetőleg minél gyorsabban letudjuk. De ha ennyire sokan utálják — miért nem tűnt még el? Sőt, miért látjuk azt, hogy a CSS szemantikáját egyre több nem-webes UI platform is lemásolja?
A Replit vezérigazgatója szerint emberibb jövő vár a programozókra az MI-nek köszönhetően
A mesterséges intelligencia térnyerése számos iparágat átalakít, és a szoftverfejlesztés sem kivétel. Sokan aggódnak, hogy az MI elveszi majd a munkahelyeket, és disztópikus jövőképeket festenek. Azonban Amjad Masad, a Replit vezérigazgatója szerint a valóság sokkal inkább az, hogy az MI emberibbé, interaktívabbá és sokoldalúbbá teszi a munkát. Ezt a gondolatot fejtette ki a Y Combinator YouTube csatornáján adott interjújában, amelyből a cikk főbb információi is származnak.
A szoftverek fejlődésének új korszaka
Az elmúlt évtizedekben a szoftverfejlesztés alapvetően meghatározta digitális világunkat, de a legújabb technológiai áttörések új korszakot nyitnak meg, ahol a számítógépek programozása gyökeresen átalakul. Andrej Karpathy, a Tesla korábbi mesterséges intelligencia igazgatója szerint a szoftverek fejlődése a korábbi évtizedek lassú változása után az utóbbi években drámai gyorsulást mutatott, ami alapjaiban írja újra a programozásról alkotott képünket.