Forradalmi AI memóriarendszer MemOS

A nagy nyelvi modellek (LLM-ek) központi szerepet játszanak az általános mesterséges intelligencia (AGI) fejlesztésében, azonban jelenleg jelentős korlátokkal szembesülnek a memóriakezelés terén. A mai LLM-ek működésük során általában a rögzített súlyokba ágyazott tudásra és egy korlátozott kontextusablakra támaszkodnak, ami gátolja őket abban, hogy hosszabb ideig megőrizzék vagy frissítsék az információkat. Bár az olyan megközelítések, mint a visszakereséssel kiegészített generálás (RAG), integrálják a külső tudást, gyakran hiányzik belőlük a memóriára vonatkozó strukturált megközelítés. Ez gyakran olyan problémákhoz vezet, mint a korábbi interakciók elfelejtése, a csökkent alkalmazkodóképesség és a különböző platformok közötti elszigetelt memória. Lényegében a jelenlegi LLM-ek nem kezelik a memóriát tartós, kezelhető vagy megosztható erőforrásként, ami korlátozza gyakorlati hasznosságukat.

Ezekre a kihívásokra válaszul a MemTensor (Shanghai) Technology Co., Ltd., a Shanghai Jiao Tong University, a Renmin University of China és a China Telecom Kutatóintézet kutatói közösen fejlesztették ki a MemOS-t. Ez az újszerű memóriaoperációs rendszer a memóriát alapvető erőforrásként kezeli a nyelvi modellekben. A MemOS egyik kulcsfontosságú eleme a MemCube, egy egységes absztrakció, amely felügyeli a paraméteres, aktivációs és szöveges memóriát. A MemOS elősegíti a strukturált, nyomon követhető és feladatok közötti memóriakezelést, lehetővé téve a modellek folyamatos alkalmazkodását, a felhasználói preferenciák internalizálását és a konzisztens viselkedés fenntartását. Ez jelentős változást jelent, amely az LLM-eket statikus generátorokból dinamikus, fejlődő rendszerekké alakítja, amelyek képesek hosszú távú tanulásra és koordinációra különböző platformokon.

Ahogy az AI-rendszerek egyre összetettebbé válnak, és egyre többféle feladatot, szerepet és adattípust kezelnek, a nyelvi modelleknek túl kell lépniük a puszta szövegértésen, és magukba kell foglalniuk a memória megtartását és a folyamatos tanulást is. A jelenlegi LLM-ek strukturált memóriakezelés terén mutatkozó hiányosságai korlátozzák alkalmazkodási és növekedési képességüket az idő múlásával. A MemOS ezt úgy oldja meg, hogy a memóriát alapvető, ütemezhető erőforrásként kezeli, lehetővé téve a hosszú távú tanulást strukturált tárolás, verziókezelés és egységes memóriahozzáférés révén. A hagyományos képzési módszerekkel ellentétben a MemOS támogatja a folyamatos „memória-képzés” paradigmát, amely elmosja a tanulás és a következtetés közötti különbséget. Ezenkívül irányítási funkciókat is tartalmaz, amelyek biztosítják a nyomon követhetőséget, a hozzáférés-ellenőrzést és a biztonságos felhasználást a fejlődő AI-rendszerekben.

A MemOS-t memóriaközpontú operációs rendszerként tervezték nyelvi modellek számára, amely a memóriát nem csupán tárolt adatokként, hanem a modell kognitív folyamatainak aktív, fejlődő elemeként fogja fel. A memóriát három különálló típusba sorolja: a paraméteres memóriát, amely a modellek súlyaiba előzetes képzés vagy finomhangolás révén kódolt tudást foglalja magában; az aktivációs memóriát, amely az ideiglenes belső állapotokra utal, mint például a KV-cache-ek és a következtetés során használt figyelem-minták; valamint a sima szöveges memóriát, amely szerkeszthető és visszakereshető külső adatokból áll, beleértve a dokumentumokat és a promptokat. Ezek a memóriatípusok egy MemoryCube (MemCube) nevű egységes keretrendszerben működnek együtt, amely mind a tartalmat, mind a metaadatokat magában foglalja. Ez lehetővé teszi a dinamikus ütemezést, verziókezelést, hozzáférés-vezérlést és a memóriatípusok közötti átalakításokat. Ez a strukturált rendszer lehetővé teszi az LLM-ek számára, hogy alkalmazkodjanak, releváns információkat idézzenek fel és hatékonyan fejlesszék képességeiket, túllépve statikus generátorok szerepén.

A MemOS háromrétegű architektúrán működik: az interfészréteg feldolgozza a felhasználói beviteleket és memóriával kapcsolatos feladatokká alakítja őket; az operációs réteg kezeli a különböző memóriatípusok ütemezését, szervezését és fejlődését; az infrastruktúra réteg pedig biztosítja a biztonságos tárolást, a hozzáférés-irányítást és az ügynökök közötti együttműködést. A MemOS-on belüli összes interakciót a MemCubes segíti elő, biztosítva a nyomon követhető, szabályalapú memória műveleteket.

Összefoglalva, a MemOS egy memóriaoperációs rendszer, amely a memóriát az LLM-ek központi és kezelhető komponenseként pozícionálja. A hagyományos modellekkel ellentétben, amelyek elsősorban statikus modell súlyokra és rövid távú futási állapotokra támaszkodnak, a MemOS egységes keretrendszert vezet be a paraméteres, aktivációs és sima szöveges memória kezelésére. Központi eleme a MemCube, egy szabványosított memóriaegység, amely támogatja a strukturált tárolást, az életciklus-kezelést és a feladat-érzékeny memória-bővítést. Ez a rendszer elősegíti a koherensebb érvelést, a jobb alkalmazkodóképességet és a jobb ügynökök közötti együttműködést. A MemOS jövőbeli céljai között szerepel a modellek közötti memóriamegosztás lehetővé tétele, az önfejlődő memóriablokkok fejlesztése és egy decentralizált memóriapiac létrehozása a folyamatos tanulás és az intelligens fejlődés támogatása érdekében. 

Osszd meg ezt a cikket
Hol tart ma valójában a mesterséges intelligencia?
A mesterséges intelligencia fejlesztése az elmúlt években látványos és gyakran lenyűgöző eredményeket produkált. Az olyan rendszerek, mint a ChatGPT, képesek természetes nyelvű szövegeket generálni, problémákat megoldani és sokszor az emberi teljesítményt is meghaladni különféle feladatokban. Ugyanakkor egyre több neves kutató és technológiai vezető – köztük John Carmack és François Chollet – hívja fel a figyelmet arra, hogy ezek az eredmények nem feltétlenül jelentik az általános mesterséges intelligencia (AGI) közeledtét. A színfalak mögött most új típusú problémák és kérdések kerültek a figyelem középpontjába, amelyek messze túlmutatnak a puszta teljesítményen.
A Rhino Linux új kiadással jelentkezik: 2025.3
A Linux disztribúciók körében főként kétféle szemléletmód terjedt el, vannak a stabil, ritkán frissülő rendszerek biztonságos kiszámíthatósággal, és a naprakész, de időnként kényes egyensúlyon balanszírozó, gördülő kiadású disztribúciók. A Rhino Linux ezt a két ellenpontot próbálja áthidalni, azaz egyszerre próbál naprakész lenni gördülő disztribúcióként, de alapként az Ubuntura épül, hogy megfelelő stabilitást is biztosítson.
SEAL az önmagát tanító mesterséges intelligencia előhírnöke
Hosszú évek óta tartja magát az elképzelés, hogy a mesterséges intelligencia fejlesztésének kulcsa az emberi tanítás: adatok, címkék, finomhangolás, gondosan megtervezett beavatkozások. Most azonban egy új megközelítés látott napvilágot. Az MIT kutatóinak legújabb munkája, a SEAL (Self-Adapting Language Models) névre keresztelt rendszer olyan nyelvi modelleket mutat be, amelyek képessé válnak saját maguk tanítására. Az eredmények nemcsak technológiai újdonságot jelentenek, hanem felvetik a kérdést: vajon milyen szerepet szánunk a jövőben az embernek az intelligens rendszerek képzésében?
Elég egy fotó és egy hang – az Alibaba új mesterséges intelligenciája teljes testű avatárt készít belőle
Egyetlen hangfelvétel és egy fotó is elegendő ahhoz, hogy élethű, teljes testtel mozgó, arcjátékkal és érzelmekkel teli virtuális karaktereket hozzunk létre – stúdió, színész vagy zöld háttér nélkül. Az Alibaba legújabb fejlesztése, az OmniAvatar nevű nyílt forráskódú mesterséges intelligencia-modell legalábbis éppen ezt ígéri. Bár a technológia még formálódik, már most is érdemes figyelmet szentelni annak, amit lehetővé tesz – és annak is, hogy mindez milyen új kérdéseket vet fel.
ALT Linux 11.0 Education az orosz oktatási intézmények fundamentuma
Az ALT Linux egy orosz gyökerekkel rendelkező, RPM csomagkezelőre épülő Linux disztribúció, amelynek alapjait a Sisyphus csomagtár képezi. Kezdetben orosz lokalizációs erőfeszítésekből nőtte ki magát, együttműködve olyan nemzetközi disztribúciókkal, mint a Mandrake és a SUSE Linux, különös tekintettel a cirill betűs írás támogatására.
A térbeli intelligencia a következő leküzdendő akadály az AGI előtt
Az LLM megszületésével a gépek lenyűgöző képességekre tettek szert. Ráadásul fejlődési sebességük is nagyobb tempóra kapcsolt, nap mint nap jelennek meg újabb modellek, amelyek még hatékonyabbak még jobb képességekkel ruházzák fel a gépeket. Ha azonban közelebbről megvizsgáljuk, ezzel a technológiával még csak most értük el, hogy a gépek képesek egy dimenzióban gondolkodni. A világ amelyben élünk azonban az emberi érzékelés alapján három dimenziós. Egy ember számára nem okoz gondot, hogy megállapítsa, hogy valami egy szék alatt van, vagy mögött, vagy egy felénk repülő labda körülbelül hová fog érkezni. Számos mesterséges intelligencia kutató szerint az AGI azaz a mesterséges általános intelligencia megszületéséhez el kell érni, hogy a gépek három dimenzióban gondolkodjanak, ehhez pedig ki kell fejleszteni a térbeli intelligenciát.

Az elmúlt néhány napban megjelent Linux disztribúció frissítések