Fejlettebb R1 modellel igyekszik sarokba szorítania DeepSeek az OpenAI o3 modelljét

A DeepSeek R1-0528, a kínai DeepSeek cég legújabb fejlesztése, jelentős előrelépést képvisel a mesterséges intelligencia modell érvelési képességeiben. Az új modell a januári DeepSeek R1-re épül, annak továbbfejlesztett változata. A cég állítása szerint a DeepSeek R1-0528 teljesítménye már vetekszik az OpenAI o3-as modelljével és megközelíti a Google Gemini 2.5 Pro képességeit.

A modell jelentősen javított az érvelési és a következtetési képességein. Ezt a megnövelt számítási erőforrások felhasználásával, algoritmikus optimalizálással és a kérdésenkénti tokenhasználat átlagosan 12 000-ről 23 000-re növelésével érték el. Ennek eredményeként a modell jelentős teljesítménynövekedést mutatott különböző teszteken. Például az AIME 2025 teszten a pontossága a korábbi 70%-ról 87,5%-ra nőtt.

A DeepSeek R1-0528 architektúrája 685 milliárd paramétert tartalmaz (a korábbi R1-ben 671 milliárd volt), és egy Mixture-of-Experts (MoE) kialakítást használ, ahol tokenenként csak 37 milliárd paraméter aktív. A modell kontextusablaka 128K token, és maximálisan 64K tokent képes generálni. Támogatja a funkciós hívásokat és a JSON kimeneti formátumokat. Emellett csökkent a hallucinációs arány, különösen a tartalom átírásakor és összefoglalásakor. Javult a kódgenerálási képessége is.

A modell figyelemre méltó eredményeket ért el különböző benchmarkokon. A matematikai feladatokban a teljesítménye eléri vagy meghaladja a vezető modellek, például az OpenAI o3-as és a Google Gemini 2.5 Pro szintjét. A programozási és kódolási feladatokban a LiveCodeBench-en az OpenAI o4-mini és o3 érvelési modellek mögött foglal helyet. Az általános érvelési képességei is javultak, amit a GPQA-Diamond teszten elért jelentős pontszámnövekedés (71,5%-ról 81,0%-ra) is bizonyít.

A DeepSeek a fő R1-0528 modell mellett kiadott egy kisebb, desztillált verziót is, a DeepSeek-R1-0528-Qwen3-8B-t. Ez a modell a Qwen3-8B-re épül, és a DeepSeek-R1-0528-ból desztillált érvelési tudást tartalmaz. A nyílt forráskódú modellek között kiemelkedő teljesítményt nyújt. A Qwen3-8B-t +10,0%-kal felülmúlja, és megegyezik a Qwen3-235B-thinking teljesítményével. Egyetlen, legalább 40 GB VRAM-mal rendelkező GPU-n is futtatható. 

Osszd meg ezt a cikket
 Megjelent a Linux Kernel 6.16
Megjelent a Linux kernel 6.16-os verziója. Bár a kiadási folyamat a fejlesztők szerint a lehető legjobb értelemben vett „eseménytelenséggel” zajlott le, a felszín alatt jelentős fejlesztések történtek, amelyek biztonsági, teljesítménybeli és rendszerkezelési szempontból is előrelépést jelentenek. Eközben a soron következő 6.17-es verzió fejlesztése a megszokottnál kissé zavarosabban indult – ennek hátterében olyan emberi tényezők állnak, amelyek ritkán kerülnek reflektorfénybe egy ilyen méretű nyílt forráskódú projekt esetében.
Mi az a WhoFi?
A vezeték nélküli internet, vagyis a WiFi, ma már életünk szinte mindenütt jelenlévő, nélkülözhetetlen része. Arra használjuk, hogy eszközeinket a világhálóra csatlakoztassuk, kommunikáljunk és információt cseréljünk. Képzeljük el azonban, ha ugyanez a technológia, amely láthatatlanul szövi be otthonainkat és városainkat, képes lenne arra is, hogy kamerák nélkül, akár falakon keresztül is azonosítson és kövessen bennünket. Ez a gondolat nem a távoli jövő sci-fi forgatókönyve, hanem egy újonnan kifejlesztett technológia, a WhoFi valósága, amely a WiFi jelek egy eddig kiaknázatlan tulajdonságát használja fel. A helyzetet bonyolítja, hogy a „WhoFi” név egy teljesen más, közösségi célokat szolgáló szolgáltatást is takar, így a kifejezés hallatán fontos tisztázni, melyik jelentéséről van szó.
Lassan éledezik Kína saját GPU ipara
A „7G” egy rövidítés, amely kínaiul szinte ugyanúgy hangzik, mint a „csoda” szó. Hogy ez pusztán egy ügyes marketingfogás vagy valóban technológiai jóslat, azt csak az idő dönti el. A Lisuan Technology által bemutatott 7G106 – belső nevén G100 – azonban kétségtelenül az első komoly próbálkozás arra, hogy Kína kilépjen az Nvidia és az AMD árnyékából. Nincs licencmegállapodás, nincs nyugati szellemi tulajdonra épülő támasz – egy teljesen saját fejlesztésű GPU, amelyet 6 nm-es DUV technológiával gyártanak egy olyan országban, amely most kezdi lerázni a nyugati technológiai export korlátait.
Felfokozott a várakozás GPT-5 megjelenése kapcsán, de mégis mire kell számítanunk?
Az OpenAI következő nyelvi modellje, a GPT-5, az elmúlt hónapok egyik legjobban várt technológiai fejlesztése lett. A GPT-4o és a speciális o1 modellek megjelenése után a figyelem most a következő generációs nyelvi modellre irányul, amely a pletykák és a vállalat vezetőinek elejtett megjegyzései szerint jelentős előrelépést hozhat a mesterséges intelligencia képességeiben. De mit tudunk eddig, és mi az, ami csupán spekuláció?
Mit hoz a DiffuCoder és a diffúziós nyelvi modellek térnyerése?
Egy új megközelítés azonban most alapjaiban kérdőjelezi meg ezt a lineáris gondolkodást: a diffúziós nyelvi modellek (dLLM-ek) nem sorban, hanem globálisan, iteratív finomítással generálnak tartalmat. De vajon valóban alkalmasabbak-e a programkód előállítására, mint a jól bevált AR modellek? És mit mutat az első komoly nyílt forráskódú kísérlet ezen a területen, a DiffuCoder?
Az Apple új mesterséges intelligencia modelljei megérti mi látható a képernyőn
A telefonunk kijelzőjét nézve magától értetődőnek tűnik, mit látunk: ikonokat, szövegeket, gombokat, amelyekhez hozzászoktunk. De vajon egy mesterséges intelligencia hogyan értelmezi ugyanezt a felületet? Ez a kérdés áll az Apple és a finn Aalto Egyetem közös kutatásának középpontjában, amelynek eredményeként megszületett az ILuvUI nevű modell. A fejlesztés célja nem csupán technológiai bravúr: sokatmondó lépés abba az irányba, ahol a digitális rendszerek képesek lesznek valóban megérteni, hogyan használjuk az alkalmazásokat – és hogyan segíthetnének bennünket még hatékonyabban.