A Google Cloud Run GPU-támogatást biztosít mesterséges intelligencia projektekhez

A Google Cloud hivatalosan is elindította az NVIDIA GPU támogatás általános elérhetőségét a Cloud Run számára, ami jelentős előrelépést jelent a szerver nélküli platformjában. Ez a frissítés célja, hogy a fejlesztőknek költséghatékony, skálázható megoldást nyújtson a GPU-alapú feladatokhoz, különösen az AI-következtetéshez és a kötegelt feldolgozáshoz kapcsolódóakhoz. Ezzel válaszol a felhőben elérhető, GPU-erőforrások iránti növekvő igényre, miközben megőrzi azokat a kulcsfontosságú funkciókat, amelyek a Cloud Run-t népszerűvé tették a fejlesztők körében.

A kiadás kiemelkedő jellemzője a másodpercenkénti fizetési modell, amelynek keretében a felhasználók csak a ténylegesen felhasznált GPU-erőforrásokért fizetnek. Ez segít csökkenteni a pazarlást, és a költségeket szorosan igazítja a tényleges munkaterhelési igényekhez. A Cloud Run támogatja a GPU-instanciák nullára történő lecsökkentését is, amikor azok nem használatban vannak, így elkerülve a felesleges kiadásokat. Ez ideális megoldás az szabálytalan vagy kiszámíthatatlan munkaterhelésekhez.

További előny a gyors indítási idő, mivel a GPU-kompatibilis példányok kevesebb mint öt másodperc alatt elindulnak. Ez a gyors válaszidő elengedhetetlen azoknál az alkalmazásoknál, amelyeknek alkalmazkodniuk kell a változó igényekhez vagy valós idejű kimenetet kell biztosítaniuk, például az interaktív AI-szolgáltatások vagy az élő adatfeldolgozás esetében. A Cloud Run támogatja a HTTP- és WebSocket-streaminget is, így kiválóan alkalmas valós idejű alkalmazásokhoz, beleértve a nagy nyelvi modellekkel (LLM) működőket is.

Az NVIDIA dicsérte a lépést, megjegyezve, hogy a szerver nélküli GPU-hozzáférés csökkenti az AI-fejlesztés belépési korlátját. A fejlesztők könnyedén engedélyezhetik az NVIDIA L4 GPU-kat egy parancssori jelzővel vagy egy jelölőnégyzet bejelölésével a Google Cloud konzolban. Nincs szükség kvótakérelmekre, így a GPU-erőforrások azonnal elérhetők minden felhasználó számára.

A GPU-t támogató Cloud Run a Google Cloud szolgáltatási szintű megállapodása (SLA) által biztosított, amely garantálja a termelési munkaterheléshez szükséges megbízhatóságot és rendelkezésre állást. A szolgáltatás alapértelmezés szerint zónás redundanciát tartalmaz a jobb ellenálló képesség érdekében, ugyanakkor olcsóbb lehetőséget kínál azoknak a felhasználóknak, akik hajlandóak elfogadni a legjobb erőfeszítéssel történő átállást zónás kimaradások esetén.

A bevezetés más felhőalapú platformokkal való összehasonlításokat váltott ki. Megfigyelők rámutatnak, hogy a Google az AWS Lambda és más versenytársak által hagyott rést tölti be, amelyek továbbra is csak CPU-alapú számításokat támogatnak, és 15 perces végrehajtási időkorlátot alkalmaznak. Ez korlátozza a Lambda hasznosságát modern AI-feladatok, például modellek finomhangolása vagy valós idejű videofeldolgozás esetén. Ezzel szemben a Cloud Run GPU-támogatása lehetővé teszi ezeknek a feladatoknak a hatékony végrehajtását automatikus méretezéssel.

Mégis, nem minden visszajelzés volt pozitív. Néhány felhasználó aggodalmát fejezte ki a váratlan költségekkel kapcsolatban, mivel a Cloud Run még nem kínál dollárösszegeken alapuló kemény számlázási korlátokat. Bár lehetséges a példányok korlátozásának beállítása, jelenleg nincs beépített módszer a teljes kiadások korlátozására, ami potenciálisan megnehezíti a költségvetés tervezését. Mások megjegyezték, hogy alternatív szolgáltatások, mint például a Runpod.io, alacsonyabb árakat kínálhatnak hasonló GPU-erőforrásokért.

A valós idejű következtetés mellett a Google bevezette a GPU-támogatást a Cloud Run feladatokhoz, amely jelenleg zártkörű előzetes tesztelés alatt áll. Ez megnyitja az utat további felhasználási esetek előtt, amelyek kötegelt feldolgozást és aszinkron feladatokat tartalmaznak, tovább bővítve a platform potenciálját.

A bevezetéskor a Cloud Run GPU-k öt régióban érhetők el: Iowa (us-central1), Belgium (europe-west1), Hollandia (europe-west4), Szingapúr (asia-southeast1) és Mumbai (asia-south1). További régiók bevezetése várható. A fejlesztőket arra ösztönzik, hogy a bevált gyakorlatok és optimalizálási tippekért keressék fel a Google hivatalos dokumentációját.

Összegzésként elmondható, hogy a szerver nélküli GPU-támogatás hozzáadása a Google Cloud Runhoz stratégiai fejlesztés, amely növeli a platform vonzerejét az AI és a kötegelt feldolgozási feladatok számára. A fejlesztőknek skálázható, rugalmas és termeléskész környezetet kínál a GPU-val gyorsított feladatok futtatásához. 

Osszd meg ezt a cikket
Történelmi fordulat után az SK Hynix az új piacvezető a memóriaiparban
Három évtizeden keresztül a Samsung neve szinte egyet jelentett a DRAM-piac vezető szerepével. Most azonban fordult a kocka: 2025 első félévében a dél-koreai SK Hynix először előzte meg riválisát a globális memóriaiparban, megszakítva ezzel egy több mint harmincéves sorozatot. A változás nem csupán egy vállalati rangsor átrendeződését jelenti, hanem mélyebb átalakulásra utal az egész félvezetőiparban.
Túl a zajon, avagy mit hoz valójában a GPT-5?
A mesterséges intelligencia fejlődése az utóbbi években különösen gyors ütemet vett, olyannyira hogy már szinte fullasztó mennyiségben jönnek ki a hírek a fejlettebbnél fejlettebb modellekről. Így ebben a nagy zajban nem könnyű egy-egy új fejlesztésnek kitűnnie, hiszen egyre nagyobbat kell gurítani, ahhoz hogy a felhasználó ingerküszöbét átvigye. Az OpenAI duplán terhelt emiatt, mivel valahogyan meg kell őriznie az elsőbbségét a többiek előtt akik szorosan jönnek fel mögötte. Ebbe a feszült térbe érkezett meg az OpenAI által most bemutatott GPT-5 modellcsalád, amely a kritikusok által is nagyon várt, hiszen az előzetes beharangozások alapján nem kevesebbet várnak el tőle minthogy minimum új mérföldkő legyen a mesterséges intelligencia modellek tekintetében. A nagy kérdés tehát az, hogy vajon megfelel e ezeknek az elvárásoknak. A cikk során megvizsgáljuk, hogyan illeszkedik a GPT-5 a mesterséges intelligencia modellek a fejlődési ívébe, milyen újdonságokat hoz, és miképpen hat a jelenlegi technológiai ökoszisztémára.
A legnépszerűbb elméletek az AI munkahelyekre gyakorolt hatásáról
A ChatGPT 2022 év végi megjelenése óta szinte hónapról hónapra újabb lehengerlő fejlesztések jelennek meg az AI területén ezért szinte azonnal beindult a fantáziálás arról, hogy miként is fogja ez megváltoztatni az életünket. Ezen belül is az egyik elsődleges kérdés, hogy milyen hatással lesz a munkahelyekre. Mivel a félelmek nem csillapodnak ezzel kapcsolatban, megjegyzem teljesen jogosan, azt gondolom érdemes időnként újból és újból megvizsgálni ezt a kérdést, hiszen az AI fejlődése drámai, ugyanakkor az idő előrehaladtával mégis talán egyre pontosabb képet kaphatunk az ilyen jellegű kérdésekről, hiszen az empirikus tapasztalatok is egyre gyűlnek és egyre több olyan elmélet lát napvilágot, amely igyekszik megválaszolni a kérdéseket. A cikkben igyekeztem összegyűjteni a legrelevánsabb elméleteket, bár a teljesség igénye nélkül hiszen ezek irodalma napról napra bővül. A kérdés természetes az, hogy látható e már a fény az alagút végén, vagy még mindig befelé haladunk egy olyan új világba, amelyről még mindig túl keveset tudunk.
Megjelent a TypeScript 5.9
A TypeScript 5.9 egyik legfontosabb újítása a halasztott modulkiértékelés (deferred module evaluation) támogatása az import defer szintaxison keresztül, amely az ECMAScript egy jövőbeli szabványjavaslatát ülteti át a gyakorlatba.
Ennyi ‘utálom a CSS-t’ cikk után hogy lehet, hogy a CSS mégis ennyire sikeres?
Ha valaha rákerestél arra, hogy „miért utálják a fejlesztők a CSS-t”, akkor tudod: az interneten a siralmak özöne vár. Fórumposztok, tweetek, mémek és hosszú blogbejegyzések ezrei panaszkodnak a CSS „érthetetlen viselkedésére”, a „nem-igazi programozás” mivoltára vagy a „csak dizájnereknek való vacak” narratívára. Mintha a fejlesztői kultúra egyik csendes alaptétele lenne, hogy a CSS egy szükséges rossz: valami, amit csak akkor használunk, ha muszáj, és lehetőleg minél gyorsabban letudjuk. De ha ennyire sokan utálják — miért nem tűnt még el? Sőt, miért látjuk azt, hogy a CSS szemantikáját egyre több nem-webes UI platform is lemásolja?
A Replit vezérigazgatója szerint emberibb jövő vár a programozókra az MI-nek köszönhetően
A mesterséges intelligencia térnyerése számos iparágat átalakít, és a szoftverfejlesztés sem kivétel. Sokan aggódnak, hogy az MI elveszi majd a munkahelyeket, és disztópikus jövőképeket festenek. Azonban Amjad Masad, a Replit vezérigazgatója szerint a valóság sokkal inkább az, hogy az MI emberibbé, interaktívabbá és sokoldalúbbá teszi a munkát. Ezt a gondolatot fejtette ki a Y Combinator YouTube csatornáján adott interjújában, amelyből a cikk főbb információi is származnak.