Az agykutatás, egyik fontos területe a beszédközpont működésének feltérképezése. Ennek egyik oka, hogy évente emberek milliói szenvednek olyan agyi elváltozásokban, amelyek megakadályozhatják őket a kommunikációban. A beszédközpont feltérképezése azonban rendkívül lassan haladt az elmúlt időszakban, mivel az agyhullámok rögzítését nehezíti az a tény, hogy a szájmozgás torzítja a jeleket. A zaj kiszűrésének eddigi legjobb módszere az volt, hogy sebészeti úton elektródákat ültettek az agyba, amivel az a probléma, hogy rendkívül korlátossá teszi a vizsgálatokat és a költségfaktor is jóval magasabb egy ilyen invazív beavatkozásnál.
A Meta (korábban Facebook), rendkívüli erőfeszítéséket tesz a mesterséges intelligencia kutatás területén, mivel a nagy cégek között verseny egyre élesebb ezen a területen. Ezen erőfeszítések egyik eszköze a Fundamental Artificial Intelligence Research (FAIR) laboratóriumok, amelyeket a Meta azzal a céllal hozott létre, hogy megalkossák a fejlett gépi intelligenciát (advanced machine intelligence, AMI). Ez alatt azt értik, hogy egy olyan mesterséges intelligenciát szeretnének létrehozni, ami úgy gondolkodik, úgy lát dolgokat mint egy ember. Ezen a ponton kapcsolódott össze FAIR párizsi laboratóriumának és a spanyolországi Baszk Agykutató Központ munkája.
Az agykutatásban korábban már történtek előrelépések a nem invazív eljárások területén, például EEG segítségével próbálták rögzíteni a koponyán átszűrődő agyi jeleket, amelyeket képpé vagy szöveggé alakítottak. Ez ez eljárás rendkívül pontatlan volt, mivel az így elfogott jelek rendkívül gyengék és a számos torzító faktor miatt zajosak. Körülbelül 40% pontossággal lehetett dekódolni a jeleket. A FAIR által biztosított mesterséges intelligencia eljárásokkal ezt sikerült feltornázni 80%-ra. Ez azt jelenti, hogy akár teljes mondatok rekonstrukciója is sikeres volt a kutatások során.
Nyilván itt még, bőven van tere a fejlődésnek és ezt az is fokozza, hogy továbbra is leárnyékolt szobában tudják csak ezt a pontosságot biztosítani és a tesztalanyoknak továbbra is végig mozdulatlannak kell lenniük. Azonban már ez az előrelépés is elegendőnek mutatkozott ahhoz, hogy feltérképezzék hogyan állítja elő az agy a beszédet. A kutatók másodpercenként 1000 pillanatképet készítettek az agyról beszéd közben, majd erre ráengedték a mesterséges intelligencia szoftvert, amely pontosan azonosította azokat a pillanatokat amikor az agy a gondolatokat szavakká, szótagokká, sőt betűkké alakítja. Rájöttek arra, hogy az agy reprezentáció sorozatot hoz létre, amely reprezentációk egy absztrakt szintről indulnak, például egy mondat jelentésétől, és ezt fokozatosan követik azok amelyek ezt cselekedetté formálják, például parancs az ujjaknak egy billentyű leütésére a billentyűzeten. A sorozatban lévő reprezentációkat az agy egy neurális mechanizmus segítségével összeláncolja, gyakorlatilag a programozásban ismert láncolt listát hozva létre. A kutatások azt engedik sejtetni, hogy az agy mindehhez egy dinamikus neurális kódot használ. Ezen neurális kód feltörése azonban még továbbra is folyamatban van.
A Meta kutatói úgy nyilatkoztak, hogy a nyelvi képesség az amely lehetővé tette fajunk számára, hogy olyan képességekre tegyen szert mint az érvélés, tanulás és a tudás felhalmozása, ezért a mögötte meghúzódó idegi és számítási folyamatok megértése kulcsfontosságú az AMI eléréshez.