TxGemma – Új nyílt modell a gyógyszerfejlesztében

A gyógyszerfejlesztés egyik legnagyobb kihívása a klinikai fázisokon túl vezető készítmények megtalálása, hiszen a jelöltek 90%-a már az első vizsgálati szakaszban kudarcot vall. Ebben a kontextusban jelent áttörést a TxGemma, egy olyan nyílt modellgyűjtemény, melyet a Google DeepMind Gemmájára és a modern, könnyű nyílt modellek családjára építve fejlesztettek ki. A TxGemma célja, hogy a nagy nyelvi modellek erejét kihasználva javítsa a terápiás felfedezés hatékonyságát, az ígéretes célpontok azonosításától egészen a klinikai vizsgálatok kimenetelének előrejelzéséig.

A TxGemma a Tx-LLM utódja

Tavaly októberben mutatták be a Tx-LLM-et, mely számos terápiás feladatra lett kiképezve a gyógyszerfejlesztési folyamatban. A modell nagy érdeklődést váltott ki, ezért a fejlesztők azonnal nyitottak voltak a felhasználói visszajelzések alapján történő finomhangolásra, ebből született meg a TxGemma. A modell három különböző méretben érhető el – 2B, 9B és 27B –, mindegyik esetében megtalálható a „predict” verzió, mely kifejezetten szűk körű terápiás feladatokhoz lett optimalizálva, például egy molekula toxikusságának előrejelzésére vagy annak, hogy képes-e áthaladni a vér-agy gáton.

A TxGemma több millió gyakorlati példán alapszik, amelyek lehetővé teszik a modell számára, hogy különféle feladatokban – osztályozás, regresszió és generálás – kimagasló teljesítményt nyújtson. A legnagyobb, 27B méretű predict verziója szinte minden vizsgált feladatban felülmúlja, vagy legalábbis lépést tart a korábbi Tx-LLM modellel, sőt, számos speciális feladatra optimalizált modellel szemben is jobb eredményt ér el. A részletes teljesítményadatok alapján a TxGemma 66 feladatból 64 esetében hasonló vagy jobb eredményt produkált, 45 feladatban pedig jobb volt mint a korábbi modell.

Chat képességek és további finomhangolási lehetőségek

A fejlesztők nemcsak a nyers előrejelző képességekre helyezték a hangsúlyt, hanem chat képességeket is integráltak a modellekbe. Így lehetővé teszik a modellek számára, hogy összetett kérdésekre válaszoljanak, megindokolják döntéseiket, és többlépcsős beszélgetések során adják vissza a szükséges információkat. Egy kutató akár azt is megkérdezheti a rendszertől, hogy egy adott molekula miért lett mérgezőnek osztályozva, és a modell a molekula szerkezetére hivatkozva alátámaszthatja a válaszát.

A TxGemma kiadása nem csak egy végterméket, hanem egy testre szabható platformot kínál a fejlesztők és kutatók számára. A mellékelt Colab notebook segítségével könnyedén finomhangolható a modell a saját terápiás adatok és feladatok alapján – például a klinikai vizsgálatok során előforduló nemkívánatos események előrejelzésére. Továbbá, a TxGemma integrálható az Agentic-Tx rendszerrel, amely 18 speciális eszközt foglal magába, beleértve a PubMed, Wikipedia keresést, valamint molekuláris, gén- és fehérjeeszközöket. Ez a megoldás segít összekapcsolni a hétköznapi kutatási munkafolyamatokat az ágensrendszerek által nyújtott, több lépcsős következtetés lehetőségeivel.

Elérhetőség

A TxGemma a Vertex AI Model Gardenben és a Hugging Face platformon érhető el, így minden érdeklődő betekintést nyerhet a rendszer működésébe, kipróbálhatja a következtetési és finomhangolási funkciókat, illetve az Agentic-Tx által kínált komplex munkafolyamatokat. Nyílt modellként a TxGemma további fejlesztésre ad lehetőséget, hiszen a kutatók saját adataik felhasználásával alakíthatják azt az adott terápiás fejlesztési igényeknek megfelelően.

A TxGemma megjelenése új fejezetet nyithat a gyógyszerkészítmények fejlesztésében, jelentősen lerövidítve a laboratóriumtól a betegágyig tartó folyamatot és csökkentve a fejlesztési költségeket. 

Osszd meg ezt a cikket
 A Google bemutatta az Agent2Agent (A2A) nyílt forráskódú protokollt
Jensen Huang (az NVIDIA CEO-ja) nemrégiben elmondott beszédében a mesterséges intelligencia fejlődését több szakaszra osztotta és a jelenlegi szakaszra az Agentic AI korszakaként hivatkozott. Bár előadásában már a főként a következő szakaszra fókuszált a fizikai AI korszakára, nem szabad elfelejtenünk, hogy az Agentic AI korszaka is még csak idén indult el, így annak kifejlett érett formáját nem láthattuk. Hogy milyen lesz majd ez a fejlettebb forma abba enged betekintést a Google legújabb bejelentése amelyben bemutatták a nyílt forráskódú Agener2Agent protokollt. A protokoll célja, hogy hidat képezzen a különböző platformok, keretrendszerek és gyártók által létrehozott MI ágensek között, elősegítve ezzel a zökkenőmentes kommunikációt és együttműködést.
Bajban az Apple a mesterséges intelligencia fejlesztések terén?
Trump vámjainak hatására úgy tűnik egyre több gonddal kell az Apple-nek megküzdenie. Ennek egyik oka, hogy a vámokon túl, amik eléggé megtépázták az Apple részvényeit, belső konfliktusok is vannak, különösen az AI integrációért felelős részlegnél. Tripp Mickle a The New Yourk Times újságírója egyenesen arról ír, hogy az Apple nem képes semmilyen új innovatív dologgal előrukkolni mostanában. Bár ez valószínűleg nincs így, hiszen hosszas huzavona után az Apple Intelligence-t végül sikerült elindítania a cégnek, de az kétségtelen, hogy a mesterséges intelligencia területén vannak lemaradásai a versenytársakhoz képest.
Új együttműködés a Netflix és az OpenAI között
A Netflix nemrégiben kezdte el tesztelni az új, mesterséges intelligencia alapú keresési funkciót, amely az OpenAI technológiáját használja a tartalomkeresés javítására. Ez a funkció jelentős változást jelent a hagyományos keresési módszerekhez képest, mivel lehetővé teszi a felhasználók számára, hogy filmeket és tévéműsorokat találjanak konkrét kifejezések, például hangulatuk vagy szituációs preferenciáik alapján, nem pedig csak címek, műfajok vagy színésznevek alapján.
Erős turbulencia a Meta Llama modelljei körül
Még egy hete sincs a piacon a Llama 4 máris erős kritikákat kapott a felhasználóktól. Mint korábban írtam a Llama 4 egyik újdonsága, hogy egy olyan architektúrát használ, amely különböző modulokból épül fel ezért lehetővé teszi, hogy sokkal nagyobb tényleges paraméterrel rendelkezzen, mint amennyit aktívan használ, ezért elméletileg jóval jobb teljesítményt kellene nyújtania. Több független felhasználói teszt alapján azonban, mégsem hozza az elvárt eredményeket főleg matematikai és kódolási feladatok esetében. Egyesek szerint a Meta erősen manipulálta a benchmarkokat, hogy minél jobb eredményeket tudjon felmutatni. Míg mások úgy vélik, hogy elképzelhető, hogy valamilyen belső modellverziót futtattak a benchmarkokon és a piacra már egy jóval szerényebb képességű modellt dobtak.