Erős turbulencia a Meta Llama modelljei körül

Még egy hete sincs a piacon a Llama 4 máris erős kritikákat kapott a felhasználóktól. Mint korábban írtam a Llama 4 egyik újdonsága, hogy egy olyan architektúrát használ, amely különböző modulokból épül fel ezért lehetővé teszi, hogy sokkal nagyobb tényleges paraméterrel rendelkezzen, mint amennyit aktívan használ, ezért elméletileg jóval jobb teljesítményt kellene nyújtania. Több független felhasználói teszt alapján azonban, mégsem hozza az elvárt eredményeket főleg matematikai és kódolási feladatok esetében. Egyesek szerint a Meta erősen manipulálta a benchmarkokat, hogy minél jobb eredményeket tudjon felmutatni. Míg mások úgy vélik, hogy elképzelhető, hogy valamilyen belső modellverziót futtattak a benchmarkokon és a piacra már egy jóval szerényebb képességű modellt dobtak.

A Llama 4 másik nagy újdonsága a 10 millió token nagyságú kontextus ablak, amely lehetővé tenné hogy nagyobb kódbázisokat is kezelni tudjon a modell. A kritikusok megjegyzik, hogy a modell betanítása során 256 ezer tokennél nagyobb adatsorokat nem használtak, így az egyáltalán nem bizonyos, hogy ez a 10 milliós tokenszám valós. Azt állítják, hogy az ígért méretű bemeneti adatok esetében, a modell kimenetének minősége erősen kérdéses.

A Meta egyelőre azzal hárítja a kritikákat, hogy a kezdeti szakaszban hibák előfordulhatnak. Valamint azt mondják, hogy ezek egy része a felhasználói finomhangolások miatt adódnak, ezért láthatunk ennyire eltérő eredményeket. A szakmai közösségeket ez nem igazán nyugtatta meg, többen aggodalmukat fejezték ki az iránt, hogy nem átlátható módon kezeli a Meta a benchmarkokat.

Miközben a Llama 4 körül továbbra is erős turbulencia tapasztalható, két új modell is megjelent a Llama korábbi verziójának továbbfejlesztéseként. Mindkét új modell törekvése, hogy csökkentsék a modellek számítási igényét. Az NVIDIA Llama 3.1 Nemotron Ultra modellt mutatta be, amely 253 milliárd paraméteres, fejlett következtetési képességekkel rendelkezik és kifejezetten AI asszisztensi munkafolyamatok támogatására tervezték.

Az eredeti Llama 3.1 modellt többfázisú utótanítási műveletekkel sikerült úgy módosítani, hogy az lényegesen kevesebb memórián is elfusson, valamint a számítási igény is csökkent. Az NVIDIA azt állítja hogy az eredmény fele annyi paraméter mellett jobb eredményt mutat mint a DeepSeek R1.

A modell nyílt forráskódú és bárki számára elérhető a Hugging Face oldalon. Futtatásához elegendő egyetlen 8x H100 GPU node, így letöltése is annak javasolt akinek H100-as szerver node-ok állnak rendelkezésére. Ez nyilván továbbra is korlátozott számú otthoni felhasználást sejtet.

A másik fejlesztés a Deep Cogito által kiadott Cogito v1 modell, mely a Meta Llama 3.2 modelljéből lett finomhangolva. Az új modell célja, hogy a hibrid következtetési képességeken túl az önreflexiót is lehetővé tegye, így a modell iteratív módon képes finomítani saját érvelési stratégiáit. A modell több változatban is elérhető (3B, 8B, 14B, 32B és 70B paraméteres változatok), amelyek már több nemzetközi benchmarkon is kimagasló eredményeket produkáltak, például az MMLU, ARC és a különböző eszközhívási feladatok terén. Ugyanakkor bizonyos matematikai értékelésekben a Cogito egyelőre nem hozza a remélt eredményeket. 

Osszd meg ezt a cikket
Történelmi fordulat után az SK Hynix az új piacvezető a memóriaiparban
Három évtizeden keresztül a Samsung neve szinte egyet jelentett a DRAM-piac vezető szerepével. Most azonban fordult a kocka: 2025 első félévében a dél-koreai SK Hynix először előzte meg riválisát a globális memóriaiparban, megszakítva ezzel egy több mint harmincéves sorozatot. A változás nem csupán egy vállalati rangsor átrendeződését jelenti, hanem mélyebb átalakulásra utal az egész félvezetőiparban.
Riasztó ütemben nő a szervezett tudományos csalások száma
A tudomány világa a kíváncsiságra, együttműködésre és közös fejlődésre épül – legalábbis az eszmény szerint. A valóságban azonban mindig is jelen volt benne a verseny, az egyenlőtlenség és a hibázás lehetősége. Régóta tartott attól a tudományos közösség, hogy ezek a nyomások néhány kutatót eltérítenek a tudomány alapvető küldetésétől: a hiteles tudás létrehozásától. Sokáig úgy tűnt, hogy a csalás főként magányos elkövetők műve. Az utóbbi években azonban egy aggasztó fordulat bontakozott ki: egyre több bizonyíték utal arra, hogy a csalás immár nem elszigetelt botlások sorozata, hanem szervezett, ipari méreteket öltő tevékenység, állítja egy nemrég megjelent tanulmány.
Túl a zajon, avagy mit hoz valójában a GPT-5?
A mesterséges intelligencia fejlődése az utóbbi években különösen gyors ütemet vett, olyannyira hogy már szinte fullasztó mennyiségben jönnek ki a hírek a fejlettebbnél fejlettebb modellekről. Így ebben a nagy zajban nem könnyű egy-egy új fejlesztésnek kitűnnie, hiszen egyre nagyobbat kell gurítani, ahhoz hogy a felhasználó ingerküszöbét átvigye. Az OpenAI duplán terhelt emiatt, mivel valahogyan meg kell őriznie az elsőbbségét a többiek előtt akik szorosan jönnek fel mögötte. Ebbe a feszült térbe érkezett meg az OpenAI által most bemutatott GPT-5 modellcsalád, amely a kritikusok által is nagyon várt, hiszen az előzetes beharangozások alapján nem kevesebbet várnak el tőle minthogy minimum új mérföldkő legyen a mesterséges intelligencia modellek tekintetében. A nagy kérdés tehát az, hogy vajon megfelel e ezeknek az elvárásoknak. A cikk során megvizsgáljuk, hogyan illeszkedik a GPT-5 a mesterséges intelligencia modellek a fejlődési ívébe, milyen újdonságokat hoz, és miképpen hat a jelenlegi technológiai ökoszisztémára.
A legnépszerűbb elméletek az AI munkahelyekre gyakorolt hatásáról
A ChatGPT 2022 év végi megjelenése óta szinte hónapról hónapra újabb lehengerlő fejlesztések jelennek meg az AI területén ezért szinte azonnal beindult a fantáziálás arról, hogy miként is fogja ez megváltoztatni az életünket. Ezen belül is az egyik elsődleges kérdés, hogy milyen hatással lesz a munkahelyekre. Mivel a félelmek nem csillapodnak ezzel kapcsolatban, megjegyzem teljesen jogosan, azt gondolom érdemes időnként újból és újból megvizsgálni ezt a kérdést, hiszen az AI fejlődése drámai, ugyanakkor az idő előrehaladtával mégis talán egyre pontosabb képet kaphatunk az ilyen jellegű kérdésekről, hiszen az empirikus tapasztalatok is egyre gyűlnek és egyre több olyan elmélet lát napvilágot, amely igyekszik megválaszolni a kérdéseket. A cikkben igyekeztem összegyűjteni a legrelevánsabb elméleteket, bár a teljesség igénye nélkül hiszen ezek irodalma napról napra bővül. A kérdés természetes az, hogy látható e már a fény az alagút végén, vagy még mindig befelé haladunk egy olyan új világba, amelyről még mindig túl keveset tudunk.
Gondolkodásra tanít az OpenAI Study Mode
Az utóbbi években a mesterséges intelligenciának köszönhetően forradalmi változások indultak be az oktatásban, ahol a hangsúly egyre inkább a passzív információbefogadásról az aktív, mélyebb megértést célzó tanulási folyamatokra helyeződik át.
 Megjelent a Linux Kernel 6.16
Megjelent a Linux kernel 6.16-os verziója. Bár a kiadási folyamat a fejlesztők szerint a lehető legjobb értelemben vett „eseménytelenséggel” zajlott le, a felszín alatt jelentős fejlesztések történtek, amelyek biztonsági, teljesítménybeli és rendszerkezelési szempontból is előrelépést jelentenek. Eközben a soron következő 6.17-es verzió fejlesztése a megszokottnál kissé zavarosabban indult – ennek hátterében olyan emberi tényezők állnak, amelyek ritkán kerülnek reflektorfénybe egy ilyen méretű nyílt forráskódú projekt esetében.