Fázisátmenet figyelhető meg a nyelvi modellek tanulásában

Mi történik a mesterséges intelligencia „elméjében”, amikor megtanulja megérteni a nyelvet? Hogyan jut el oda, hogy nem csupán a szavak sorrendjét, hanem azok jelentését is képes követni? Egy nemrég megjelent kutatás a mesterséges intelligencia e belső folyamataiba enged elméleti betekintést, és olyan átváltozást azonosít, amely a fizikából ismert fázisátmenetekhez hasonlítható.

A modern nyelvi modellek, például a ChatGPT vagy a Gemini működésének alapját képező úgynevezett transformer hálózatok önfigyelő (self-attention) rétegekkel dolgoznak. Ezek az egységek azt segítik elő, hogy a rendszer az egyes szavak között kapcsolatot tudjon teremteni – figyelembe véve azok helyét a mondatban, valamint jelentésüket. A mostani kutatás e kétféle figyelmi stratégia – a pozicionális és a szemantikus – közötti váltás természetét vizsgálja matematikai és fizikai eszközökkel, elméleti keretben.

A kutatás legfőbb megállapítása, hogy a nyelvi modell tanulása során nem fokozatos átmenet, hanem egy éles, hirtelen váltás történik: a rendszer egy adott pontig elsősorban a szavak helyzetére épít, majd egy kritikus adatmennyiség elérése után hirtelen áttér a jelentés alapú feldolgozásra. Ezt a fordulatot a szerzők – Hugo Cui és kollégái – fázisátmenetként írják le, hasonlóan ahhoz, ahogy a víz például hirtelen forráspontjára érve gázzá alakul. A tanulmány matematikai szempontból elemzi ezt az átmenetet, és kimutatja, hogy az önfigyelő rétegek működésében ez a váltás pontosan lokalizálható.

A jelenség megértéséhez a szerzők egy leegyszerűsített modellt használtak, amelyben a mondatok véletlenszerűen generált, független szavakból álltak, és a tanulást egyetlen figyelmi rétegre korlátozták. Ez lehetővé tette, hogy nagy pontosságú matematikai elemzést végezzenek, és zárt formájú kifejezéseket adjanak a modell tanulási hibáira. A vizsgálat során azt tapasztalták, hogy kis mennyiségű tanulóadat esetén a modell a szavak sorrendjét tekinti meghatározónak, azonban ahogy nő az adatmennyiség, egy éles határon túl kizárólag a szavak jelentése alapján tájékozódik. Ezzel a váltással a modell teljesítménye is javul, feltéve, hogy elegendő tanulási adat áll rendelkezésre.

Fontos azonban megjegyezni, hogy a vizsgált modell a valós rendszerekhez képest egyszerűsített. A kutatás célja nem az volt, hogy teljes körűen leírja a ChatGPT-hez hasonló modellek működését, hanem hogy egy elméleti alapot adjon a megfigyelt tanulási mintázatok értelmezéséhez. Az eredmények mégis értékesek: rámutatnak arra, hogy a mesterséges neurális hálózatok nemcsak adaptívan, hanem akár diszkrét módon is képesek stratégiát váltani a tanulás során. Ez a tudás hosszabb távon segíthet abban, hogy hatékonyabb és kiszámíthatóbb rendszerek szülessenek.

A tanulmány nemcsak az MI-kutatás elméleti oldalához járul hozzá, hanem kapcsolatot teremt a fizika és az adatfeldolgozás világa között is. A szerzők analógiát vonnak a részecskefizika és a neurális hálózatok között: mindkét területre jellemző, hogy az összetett viselkedések statisztikai szinten megragadhatók, és hogy az egyszerű elemek közötti kölcsönhatásokból új, kollektív viselkedésformák jelennek meg.

Összességében ez a kutatás egy fontos lépés a nyelvi modellek belső működésének elméleti megértésében. Nem kínál végső válaszokat, de értékes alapot nyújt annak feltérképezéséhez, hogyan és miért változtat stratégiát egy mesterséges intelligencia rendszer a tanulás során – és ez a tudás előbb-utóbb hatással lehet arra is, hogyan fejlesztjük, értelmezzük és szabályozzuk ezeket a technológiákat. 

Osszd meg ezt a cikket
 Hogyan segít az MI a cementipar szén-dioxid-kibocsátásának csökkentésében
A globális szén-dioxid-kibocsátás mintegy nyolc százalékáért egyetlen iparág felelős: a cementgyártás. Ez több, mint amennyit az egész légi közlekedési szektor kibocsát világszerte. Miközben a világ egyre több betont használ — lakóházakhoz, infrastruktúrához, ipari létesítményekhez —, a cement előállítása továbbra is rendkívül energiaigényes és szennyező marad. Ezen a helyzeten kíván változtatni a svájci Paul Scherrer Intézet (PSI) kutatócsoportja, amely mesterséges intelligencia segítségével dolgozik ki új, környezetbarát cementrecepteket.
Hol tart ma valójában a mesterséges intelligencia?
A mesterséges intelligencia fejlesztése az elmúlt években látványos és gyakran lenyűgöző eredményeket produkált. Az olyan rendszerek, mint a ChatGPT, képesek természetes nyelvű szövegeket generálni, problémákat megoldani és sokszor az emberi teljesítményt is meghaladni különféle feladatokban. Ugyanakkor egyre több neves kutató és technológiai vezető – köztük John Carmack és François Chollet – hívja fel a figyelmet arra, hogy ezek az eredmények nem feltétlenül jelentik az általános mesterséges intelligencia (AGI) közeledtét. A színfalak mögött most új típusú problémák és kérdések kerültek a figyelem középpontjába, amelyek messze túlmutatnak a puszta teljesítményen.
A Rhino Linux új kiadással jelentkezik: 2025.3
A Linux disztribúciók körében főként kétféle szemléletmód terjedt el, vannak a stabil, ritkán frissülő rendszerek biztonságos kiszámíthatósággal, és a naprakész, de időnként kényes egyensúlyon balanszírozó, gördülő kiadású disztribúciók. A Rhino Linux ezt a két ellenpontot próbálja áthidalni, azaz egyszerre próbál naprakész lenni gördülő disztribúcióként, de alapként az Ubuntura épül, hogy megfelelő stabilitást is biztosítson.
SEAL az önmagát tanító mesterséges intelligencia előhírnöke
Hosszú évek óta tartja magát az elképzelés, hogy a mesterséges intelligencia fejlesztésének kulcsa az emberi tanítás: adatok, címkék, finomhangolás, gondosan megtervezett beavatkozások. Most azonban egy új megközelítés látott napvilágot. Az MIT kutatóinak legújabb munkája, a SEAL (Self-Adapting Language Models) névre keresztelt rendszer olyan nyelvi modelleket mutat be, amelyek képessé válnak saját maguk tanítására. Az eredmények nemcsak technológiai újdonságot jelentenek, hanem felvetik a kérdést: vajon milyen szerepet szánunk a jövőben az embernek az intelligens rendszerek képzésében?
Elég egy fotó és egy hang – az Alibaba új mesterséges intelligenciája teljes testű avatárt készít belőle
Egyetlen hangfelvétel és egy fotó is elegendő ahhoz, hogy élethű, teljes testtel mozgó, arcjátékkal és érzelmekkel teli virtuális karaktereket hozzunk létre – stúdió, színész vagy zöld háttér nélkül. Az Alibaba legújabb fejlesztése, az OmniAvatar nevű nyílt forráskódú mesterséges intelligencia-modell legalábbis éppen ezt ígéri. Bár a technológia még formálódik, már most is érdemes figyelmet szentelni annak, amit lehetővé tesz – és annak is, hogy mindez milyen új kérdéseket vet fel.
ALT Linux 11.0 Education az orosz oktatási intézmények fundamentuma
Az ALT Linux egy orosz gyökerekkel rendelkező, RPM csomagkezelőre épülő Linux disztribúció, amelynek alapjait a Sisyphus csomagtár képezi. Kezdetben orosz lokalizációs erőfeszítésekből nőtte ki magát, együttműködve olyan nemzetközi disztribúciókkal, mint a Mandrake és a SUSE Linux, különös tekintettel a cirill betűs írás támogatására.

Az elmúlt néhány napban megjelent Linux disztribúció frissítések