Fejlettebb R1 modellel igyekszik sarokba szorítania DeepSeek az OpenAI o3 modelljét

A DeepSeek R1-0528, a kínai DeepSeek cég legújabb fejlesztése, jelentős előrelépést képvisel a mesterséges intelligencia modell érvelési képességeiben. Az új modell a januári DeepSeek R1-re épül, annak továbbfejlesztett változata. A cég állítása szerint a DeepSeek R1-0528 teljesítménye már vetekszik az OpenAI o3-as modelljével és megközelíti a Google Gemini 2.5 Pro képességeit.

A modell jelentősen javított az érvelési és a következtetési képességein. Ezt a megnövelt számítási erőforrások felhasználásával, algoritmikus optimalizálással és a kérdésenkénti tokenhasználat átlagosan 12 000-ről 23 000-re növelésével érték el. Ennek eredményeként a modell jelentős teljesítménynövekedést mutatott különböző teszteken. Például az AIME 2025 teszten a pontossága a korábbi 70%-ról 87,5%-ra nőtt.

A DeepSeek R1-0528 architektúrája 685 milliárd paramétert tartalmaz (a korábbi R1-ben 671 milliárd volt), és egy Mixture-of-Experts (MoE) kialakítást használ, ahol tokenenként csak 37 milliárd paraméter aktív. A modell kontextusablaka 128K token, és maximálisan 64K tokent képes generálni. Támogatja a funkciós hívásokat és a JSON kimeneti formátumokat. Emellett csökkent a hallucinációs arány, különösen a tartalom átírásakor és összefoglalásakor. Javult a kódgenerálási képessége is.

A modell figyelemre méltó eredményeket ért el különböző benchmarkokon. A matematikai feladatokban a teljesítménye eléri vagy meghaladja a vezető modellek, például az OpenAI o3-as és a Google Gemini 2.5 Pro szintjét. A programozási és kódolási feladatokban a LiveCodeBench-en az OpenAI o4-mini és o3 érvelési modellek mögött foglal helyet. Az általános érvelési képességei is javultak, amit a GPQA-Diamond teszten elért jelentős pontszámnövekedés (71,5%-ról 81,0%-ra) is bizonyít.

A DeepSeek a fő R1-0528 modell mellett kiadott egy kisebb, desztillált verziót is, a DeepSeek-R1-0528-Qwen3-8B-t. Ez a modell a Qwen3-8B-re épül, és a DeepSeek-R1-0528-ból desztillált érvelési tudást tartalmaz. A nyílt forráskódú modellek között kiemelkedő teljesítményt nyújt. A Qwen3-8B-t +10,0%-kal felülmúlja, és megegyezik a Qwen3-235B-thinking teljesítményével. Egyetlen, legalább 40 GB VRAM-mal rendelkező GPU-n is futtatható. 

Osszd meg ezt a cikket
Hol tart ma valójában a mesterséges intelligencia?
A mesterséges intelligencia fejlesztése az elmúlt években látványos és gyakran lenyűgöző eredményeket produkált. Az olyan rendszerek, mint a ChatGPT, képesek természetes nyelvű szövegeket generálni, problémákat megoldani és sokszor az emberi teljesítményt is meghaladni különféle feladatokban. Ugyanakkor egyre több neves kutató és technológiai vezető – köztük John Carmack és François Chollet – hívja fel a figyelmet arra, hogy ezek az eredmények nem feltétlenül jelentik az általános mesterséges intelligencia (AGI) közeledtét. A színfalak mögött most új típusú problémák és kérdések kerültek a figyelem középpontjába, amelyek messze túlmutatnak a puszta teljesítményen.
A Rhino Linux új kiadással jelentkezik: 2025.3
A Linux disztribúciók körében főként kétféle szemléletmód terjedt el, vannak a stabil, ritkán frissülő rendszerek biztonságos kiszámíthatósággal, és a naprakész, de időnként kényes egyensúlyon balanszírozó, gördülő kiadású disztribúciók. A Rhino Linux ezt a két ellenpontot próbálja áthidalni, azaz egyszerre próbál naprakész lenni gördülő disztribúcióként, de alapként az Ubuntura épül, hogy megfelelő stabilitást is biztosítson.
SEAL az önmagát tanító mesterséges intelligencia előhírnöke
Hosszú évek óta tartja magát az elképzelés, hogy a mesterséges intelligencia fejlesztésének kulcsa az emberi tanítás: adatok, címkék, finomhangolás, gondosan megtervezett beavatkozások. Most azonban egy új megközelítés látott napvilágot. Az MIT kutatóinak legújabb munkája, a SEAL (Self-Adapting Language Models) névre keresztelt rendszer olyan nyelvi modelleket mutat be, amelyek képessé válnak saját maguk tanítására. Az eredmények nemcsak technológiai újdonságot jelentenek, hanem felvetik a kérdést: vajon milyen szerepet szánunk a jövőben az embernek az intelligens rendszerek képzésében?
Elég egy fotó és egy hang – az Alibaba új mesterséges intelligenciája teljes testű avatárt készít belőle
Egyetlen hangfelvétel és egy fotó is elegendő ahhoz, hogy élethű, teljes testtel mozgó, arcjátékkal és érzelmekkel teli virtuális karaktereket hozzunk létre – stúdió, színész vagy zöld háttér nélkül. Az Alibaba legújabb fejlesztése, az OmniAvatar nevű nyílt forráskódú mesterséges intelligencia-modell legalábbis éppen ezt ígéri. Bár a technológia még formálódik, már most is érdemes figyelmet szentelni annak, amit lehetővé tesz – és annak is, hogy mindez milyen új kérdéseket vet fel.
ALT Linux 11.0 Education az orosz oktatási intézmények fundamentuma
Az ALT Linux egy orosz gyökerekkel rendelkező, RPM csomagkezelőre épülő Linux disztribúció, amelynek alapjait a Sisyphus csomagtár képezi. Kezdetben orosz lokalizációs erőfeszítésekből nőtte ki magát, együttműködve olyan nemzetközi disztribúciókkal, mint a Mandrake és a SUSE Linux, különös tekintettel a cirill betűs írás támogatására.
A térbeli intelligencia a következő leküzdendő akadály az AGI előtt
Az LLM megszületésével a gépek lenyűgöző képességekre tettek szert. Ráadásul fejlődési sebességük is nagyobb tempóra kapcsolt, nap mint nap jelennek meg újabb modellek, amelyek még hatékonyabbak még jobb képességekkel ruházzák fel a gépeket. Ha azonban közelebbről megvizsgáljuk, ezzel a technológiával még csak most értük el, hogy a gépek képesek egy dimenzióban gondolkodni. A világ amelyben élünk azonban az emberi érzékelés alapján három dimenziós. Egy ember számára nem okoz gondot, hogy megállapítsa, hogy valami egy szék alatt van, vagy mögött, vagy egy felénk repülő labda körülbelül hová fog érkezni. Számos mesterséges intelligencia kutató szerint az AGI azaz a mesterséges általános intelligencia megszületéséhez el kell érni, hogy a gépek három dimenzióban gondolkodjanak, ehhez pedig ki kell fejleszteni a térbeli intelligenciát.

Az elmúlt néhány napban megjelent Linux disztribúció frissítések