Az agy beszédközpontjának feltérképezése visz közelebb az AMI-hoz

    Az agykutatás, egyik fontos területe a beszédközpont működésének feltérképezése. Ennek egyik oka, hogy évente emberek milliói szenvednek olyan agyi elváltozásokban, amelyek megakadályozhatják őket a kommunikációban. A beszédközpont feltérképezése azonban rendkívül lassan haladt az elmúlt időszakban, mivel az agyhullámok rögzítését nehezíti az a tény, hogy a szájmozgás torzítja a jeleket. A zaj kiszűrésének eddigi legjobb módszere az volt, hogy sebészeti úton elektródákat ültettek az agyba, amivel az a probléma, hogy rendkívül korlátossá teszi a vizsgálatokat és a költségfaktor is jóval magasabb egy ilyen invazív beavatkozásnál.

A Meta (korábban Facebook), rendkívüli erőfeszítéséket tesz a mesterséges intelligencia kutatás területén, mivel a nagy cégek között verseny egyre élesebb ezen a területen. Ezen erőfeszítések egyik eszköze a Fundamental Artificial Intelligence Research (FAIR) laboratóriumok, amelyeket a Meta azzal a céllal hozott létre, hogy megalkossák a fejlett gépi intelligenciát (advanced machine intelligence, AMI). Ez alatt azt értik, hogy egy olyan mesterséges intelligenciát szeretnének létrehozni, ami úgy gondolkodik, úgy lát dolgokat mint egy ember. Ezen a ponton kapcsolódott össze FAIR párizsi laboratóriumának és a spanyolországi Baszk Agykutató Központ munkája.

Az agykutatásban korábban már történtek előrelépések a nem invazív eljárások területén, például EEG segítségével próbálták rögzíteni a koponyán átszűrődő agyi jeleket, amelyeket képpé vagy szöveggé alakítottak. Ez ez eljárás rendkívül pontatlan volt, mivel az így elfogott jelek rendkívül gyengék és a számos torzító faktor miatt zajosak. Körülbelül 40% pontossággal lehetett dekódolni a jeleket. A FAIR által biztosított mesterséges intelligencia eljárásokkal ezt sikerült feltornázni 80%-ra. Ez azt jelenti, hogy akár teljes mondatok rekonstrukciója is sikeres volt a kutatások során.

Nyilván itt még, bőven van tere a fejlődésnek és ezt az is fokozza, hogy továbbra is leárnyékolt szobában tudják csak ezt a pontosságot biztosítani és a tesztalanyoknak továbbra is végig mozdulatlannak kell lenniük. Azonban már ez az előrelépés is elegendőnek mutatkozott ahhoz, hogy feltérképezzék hogyan állítja elő az agy a beszédet. A kutatók másodpercenként 1000 pillanatképet készítettek az agyról beszéd közben, majd erre ráengedték a mesterséges intelligencia szoftvert, amely pontosan azonosította azokat a pillanatokat amikor az agy a gondolatokat szavakká, szótagokká, sőt betűkké alakítja. Rájöttek arra, hogy az agy reprezentáció sorozatot hoz létre, amely reprezentációk egy absztrakt szintről indulnak, például egy mondat jelentésétől, és ezt fokozatosan követik azok amelyek ezt cselekedetté formálják, például parancs az ujjaknak egy billentyű leütésére a billentyűzeten. A sorozatban lévő reprezentációkat az agy egy neurális mechanizmus segítségével összeláncolja, gyakorlatilag a programozásban ismert láncolt listát hozva létre. A kutatások azt engedik sejtetni, hogy az agy mindehhez egy dinamikus neurális kódot használ. Ezen neurális kód feltörése azonban még továbbra is folyamatban van.

A Meta kutatói úgy nyilatkoztak, hogy a nyelvi képesség az amely lehetővé tette fajunk számára, hogy olyan képességekre tegyen szert mint az érvélés, tanulás és a tudás felhalmozása, ezért a mögötte meghúzódó idegi és számítási folyamatok megértése kulcsfontosságú az AMI eléréshez.   

Osszd meg ezt a cikket
 A Google bemutatta az Agent2Agent (A2A) nyílt forráskódú protokollt
Jensen Huang (az NVIDIA CEO-ja) nemrégiben elmondott beszédében a mesterséges intelligencia fejlődését több szakaszra osztotta és a jelenlegi szakaszra az Agentic AI korszakaként hivatkozott. Bár előadásában már a főként a következő szakaszra fókuszált a fizikai AI korszakára, nem szabad elfelejtenünk, hogy az Agentic AI korszaka is még csak idén indult el, így annak kifejlett érett formáját nem láthattuk. Hogy milyen lesz majd ez a fejlettebb forma abba enged betekintést a Google legújabb bejelentése amelyben bemutatták a nyílt forráskódú Agener2Agent protokollt. A protokoll célja, hogy hidat képezzen a különböző platformok, keretrendszerek és gyártók által létrehozott MI ágensek között, elősegítve ezzel a zökkenőmentes kommunikációt és együttműködést.
Bajban az Apple a mesterséges intelligencia fejlesztések terén?
Trump vámjainak hatására úgy tűnik egyre több gonddal kell az Apple-nek megküzdenie. Ennek egyik oka, hogy a vámokon túl, amik eléggé megtépázták az Apple részvényeit, belső konfliktusok is vannak, különösen az AI integrációért felelős részlegnél. Tripp Mickle a The New Yourk Times újságírója egyenesen arról ír, hogy az Apple nem képes semmilyen új innovatív dologgal előrukkolni mostanában. Bár ez valószínűleg nincs így, hiszen hosszas huzavona után az Apple Intelligence-t végül sikerült elindítania a cégnek, de az kétségtelen, hogy a mesterséges intelligencia területén vannak lemaradásai a versenytársakhoz képest.
Új együttműködés a Netflix és az OpenAI között
A Netflix nemrégiben kezdte el tesztelni az új, mesterséges intelligencia alapú keresési funkciót, amely az OpenAI technológiáját használja a tartalomkeresés javítására. Ez a funkció jelentős változást jelent a hagyományos keresési módszerekhez képest, mivel lehetővé teszi a felhasználók számára, hogy filmeket és tévéműsorokat találjanak konkrét kifejezések, például hangulatuk vagy szituációs preferenciáik alapján, nem pedig csak címek, műfajok vagy színésznevek alapján.
Erős turbulencia a Meta Llama modelljei körül
Még egy hete sincs a piacon a Llama 4 máris erős kritikákat kapott a felhasználóktól. Mint korábban írtam a Llama 4 egyik újdonsága, hogy egy olyan architektúrát használ, amely különböző modulokból épül fel ezért lehetővé teszi, hogy sokkal nagyobb tényleges paraméterrel rendelkezzen, mint amennyit aktívan használ, ezért elméletileg jóval jobb teljesítményt kellene nyújtania. Több független felhasználói teszt alapján azonban, mégsem hozza az elvárt eredményeket főleg matematikai és kódolási feladatok esetében. Egyesek szerint a Meta erősen manipulálta a benchmarkokat, hogy minél jobb eredményeket tudjon felmutatni. Míg mások úgy vélik, hogy elképzelhető, hogy valamilyen belső modellverziót futtattak a benchmarkokon és a piacra már egy jóval szerényebb képességű modellt dobtak.