A Google bemutatta az Agent2Agent (A2A) nyílt forráskódú protokollt

Jensen Huang (az NVIDIA CEO-ja) nemrégiben elmondott beszédében a mesterséges intelligencia fejlődését több szakaszra osztotta és a jelenlegi szakaszra az Agentic AI korszakaként hivatkozott. Bár előadásában már a főként a következő szakaszra fókuszált a fizikai AI korszakára, nem szabad elfelejtenünk, hogy az Agentic AI korszaka is még csak idén indult el, így annak kifejlett érett formáját nem láthattuk. Hogy milyen lesz majd ez a fejlettebb forma abba enged betekintést a Google legújabb bejelentése amelyben bemutatták a nyílt forráskódú Agener2Agent protokollt. A protokoll célja, hogy hidat képezzen a különböző platformok, keretrendszerek és gyártók által létrehozott MI ágensek között, elősegítve ezzel a zökkenőmentes kommunikációt és együttműködést.

A közelmúltban tartott Google Cloud Next konferencián bemutatott A2A protokoll, az Anthropic által tervezett MCP egyfajta „kiegészítőjeként” funkcionál. Az MCP célja az LLM-ek (nagy nyelvi modellek) és az azokhoz kapcsolódó eszközök közötti integrációs problémák megoldása. Az A2A ezzel szemben a teljesen autonóm ágensek közötti kommunikációs csatornát kívánja megteremteni. Ez a két megközelítés lehetőséget ad arra, hogy a fejlesztők egyaránt kihasználhassák az eszköz- és ágens integráció előnyeit, ami hosszú távon növelheti az MI alapú megoldások hatékonyságát.

Az A2A protokoll lényege egy szabványosított kommunikációs réteg kialakítása, amely lehetővé teszi az MI ügynökök számára, hogy gyártófüggetlenül, bármilyen rendszerkörnyezetben strukturált adatok formájában kommunikálhassanak. A protokoll alapját olyan internetes szabványok adják, mint a HTTP és a JSON, illetve az olyan kommunikációs eljárások, mint a JSON-RPC, amelyek biztosítják a kérések és válaszok szabványos kezelését.

Az A2A háromféle szereplőt definiál:

  • Távoli ágensek: Ezek olyan egymás számára „fekete doboz”-ként viselkedő ágensek, amelyek egy A2A szerveren keresztül kommunikálnak.

  • Kliensek: Olyan entitások, melyek feladatok indításával kérik a távoli ágensek segítségét.

  • Felhasználók: Legyen szó emberi felhasználóról vagy szolgáltatásról, akik az ágnesek segítségével kívánnak összetett feladatokat végrehajtani.

Az A2A specifikációja kiemelt szerepet tulajdonít a feladat fogalmának: egy ügyfél által létrehozott feladatot egy távoli ágensnek kell feldolgoznia – mindezt úgy hogy az információcsere strukturált módon kell hogy végbemenjen, itt főként JSON formátumra kell gondolni.

Az A2A protokoll működési modellje egy hagyományos kliens-szerver architektúrán alapul, de jelentős újdonságot képvisel abban, hogy lehetővé teszi az ágensek autonóm kommunikációját. Ennek során az alábbi komponensek játszanak kulcsszerepet:

  • Ágenskártya: Egy metaadatfájl (például a /.well-known/agent.json elérési útvonalon), amely az ágensek képességeit, végpontjait és hitelesítési követelményeit tartalmazza.

  • A2A szerver: Ez a komponens fogadja a bejövő kéréseket, végrehajtja a feladatokat, és kezeli a hosszú távú műveleteket, mint például a folyamatban lévő jelentések generálását.

  • A2A kliens: Ez a komponens felelős az ágensek felkutatásáért, a kommunikációs kérelmek előkészítéséért, valamint a válaszok feldolgozásáért.

A kommunikáció során az ügyfelek JSON-RPC protokollon keresztül küldik a kéréseket, míg a szerver az adott ágens logikájának meghívásával, Server-Sent Events (SSE) használatával biztosítja a folyamatos, aszinkron adatfolyamot.

A Google által bemutatott protokoll ígéretes különösen annak nyílforráskódú mivolta miatt, amely hamarosan felválthatja a különböző gyártók által fejlesztett egyedi megoldásokat, vagy ha valamiért mégsem ez a megoldás terjed el, akkor mindenképpen inspirálhatja azt a megoldást, amely törvényszerűen be kell, hogy töltse ezt a küldetést, hiszen a szoftverfejlesztésben mindig a szabványosítás irányába hatnak ez erők, mert általában ez garantálja, hogy az alkalmazás fejlesztők a saját egyedi üzleti logikájukra tudjanak fókuszálni és ne a kommunikáció implementálása vigye el az erőforrásokat. A nyílforráskódú megközelítésről elmondható, hogy általában ösztönzően hat a különböző fejlesztői közösségekre, akik hamarosan új innovatív eszközökkel bővítik majd a protokollt, vagy az a köré épülő megoldásokat. Márpedig tennivaló lesz bőven, hiszen gondoljunk arra, hogy szükség lesz különböző hitelesítési mechanizmusokra, amikor olyan ágenseket kell elérni amelyek nem publikusak, vagy mindenképpen szükség lesz majd a feladatok nyomon követésére monitorozására, különös tekintettel arra, hogy itt nem determinisztikus elemek aszinkron kommunikációjáról beszélünk. Még az olyan szoftverek üzemeltetése is komoly kihívásokat jelent és külön szakember gárdát igényel, amikor hagyományos szoftverek bonyolult hálózata épít fel egy rendszert. Képzeljük el a jövőt amelyet ez a protokoll vázol fel elénk, a mesterséges intelligencia ágensek hálózata nem csak soha nem látott problémákra jelentenek majd megoldást, de üzemeltetésük is új kihívások elé állítja majd a szakembereket.  

Osszd meg ezt a cikket
Hol tart ma valójában a mesterséges intelligencia?
A mesterséges intelligencia fejlesztése az elmúlt években látványos és gyakran lenyűgöző eredményeket produkált. Az olyan rendszerek, mint a ChatGPT, képesek természetes nyelvű szövegeket generálni, problémákat megoldani és sokszor az emberi teljesítményt is meghaladni különféle feladatokban. Ugyanakkor egyre több neves kutató és technológiai vezető – köztük John Carmack és François Chollet – hívja fel a figyelmet arra, hogy ezek az eredmények nem feltétlenül jelentik az általános mesterséges intelligencia (AGI) közeledtét. A színfalak mögött most új típusú problémák és kérdések kerültek a figyelem középpontjába, amelyek messze túlmutatnak a puszta teljesítményen.
SEAL az önmagát tanító mesterséges intelligencia előhírnöke
Hosszú évek óta tartja magát az elképzelés, hogy a mesterséges intelligencia fejlesztésének kulcsa az emberi tanítás: adatok, címkék, finomhangolás, gondosan megtervezett beavatkozások. Most azonban egy új megközelítés látott napvilágot. Az MIT kutatóinak legújabb munkája, a SEAL (Self-Adapting Language Models) névre keresztelt rendszer olyan nyelvi modelleket mutat be, amelyek képessé válnak saját maguk tanítására. Az eredmények nemcsak technológiai újdonságot jelentenek, hanem felvetik a kérdést: vajon milyen szerepet szánunk a jövőben az embernek az intelligens rendszerek képzésében?
Elég egy fotó és egy hang – az Alibaba új mesterséges intelligenciája teljes testű avatárt készít belőle
Egyetlen hangfelvétel és egy fotó is elegendő ahhoz, hogy élethű, teljes testtel mozgó, arcjátékkal és érzelmekkel teli virtuális karaktereket hozzunk létre – stúdió, színész vagy zöld háttér nélkül. Az Alibaba legújabb fejlesztése, az OmniAvatar nevű nyílt forráskódú mesterséges intelligencia-modell legalábbis éppen ezt ígéri. Bár a technológia még formálódik, már most is érdemes figyelmet szentelni annak, amit lehetővé tesz – és annak is, hogy mindez milyen új kérdéseket vet fel.
A szoftverek fejlődésének új korszaka
Az elmúlt évtizedekben a szoftverfejlesztés alapvetően meghatározta digitális világunkat, de a legújabb technológiai áttörések új korszakot nyitnak meg, ahol a számítógépek programozása gyökeresen átalakul. Andrej Karpathy, a Tesla korábbi mesterséges intelligencia igazgatója szerint a szoftverek fejlődése a korábbi évtizedek lassú változása után az utóbbi években drámai gyorsulást mutatott, ami alapjaiban írja újra a programozásról alkotott képünket.
A Google Cloud Run GPU-támogatást biztosít mesterséges intelligencia projektekhez
A Google Cloud hivatalosan is elindította az NVIDIA GPU támogatás általános elérhetőségét a Cloud Run számára, ami jelentős előrelépést jelent a szerver nélküli platformjában. Ez a frissítés célja, hogy a fejlesztőknek költséghatékony, skálázható megoldást nyújtson a GPU-alapú feladatokhoz, különösen az AI-következtetéshez és a kötegelt feldolgozáshoz kapcsolódóakhoz. Ezzel válaszol a felhőben elérhető, GPU-erőforrások iránti növekvő igényre, miközben megőrzi azokat a kulcsfontosságú funkciókat, amelyek a Cloud Run-t népszerűvé tették a fejlesztők körében.
GitHub-integrációval erősít a Gemini Advanced
A mesterséges intelligencia alapú fejlesztői eszközök terén nincs hiány újabb és újabb fejlesztésekben. A Google ezzel kapcsolatban most bejelentette, hogy közvetlen GitHub-integrációval bővíti Gemini Advanced nevű prémium AI-asszisztensét. A lépés nem csupán válasz a rivális OpenAI hasonló fejlesztéseire, hanem egyben komoly előrelépés is a fejlesztői munkafolyamatok hatékonyságának növelésében.

Az elmúlt néhány napban megjelent Linux disztribúció frissítések