DeepSeek-R1 az OpenAI o1 open source kihívója

A DeepSeek nevű kínai AI startup nemrégiben bemutatta a legújabb fejlesztését, a DeepSeek-R1 modellt, amely azonnal üstökösként söpört végig a mesterséges intelligenciát használók körében.

Az új R1 modell a DeepSeek V3 szakértői rendszeren alapszik, és teljesítményében felveszi a versenyt az OpenAI élvonalbeli o1 modelljével. A legnagyobb vonzereje azonban az, hogy a működése 90-95%-kal olcsóbb.

Ez a fejlesztés nagy előrelépést jelent a nyílt forrású modellek terén, tovább csökkentve a rést a zárt, kereskedelmi modellek és a nyilvánosan elérhető megoldások között. A DeepSeek csapata azzal demonstrálta az R1 modell erejét, hogy hat Llama és Qwen modellt finomhangolt R1 segítségével, jelentősen javítva azok teljesítményét. Egy konkrét esetben a Qwen-1.5B verzója bizonyos matematikai teszteken felülmúlta a GPT-4o és Claude 3.5 Sonnet modelleket.

Mit kínál a DeepSeek-R1?

Az általános mesterséges intelligencia (AGI) elérésének versenyében kulcsfontosságúak az olyan modellek, amelyek egyre jobban képesek komplex érvelési feladatok elvégzésére. Az OpenAI elsőként lépett ezen a területen az o1 modellel, amely a "chain-of-thought" technikát alkalmazza, hogy problémákat oldjon meg és javítsa saját gondolkodási stratégiáját.

A DeepSeek-R1 szintén ezt a megközelítést követi, de egyesíti a megerősítéses tanulást (reinforcement learning, RL) és a felügyelt finomhangolást (supervised fine-tuning), hogy még pontosabb érvelési képességekkel rendelkezzen.

A teszteredmények szerint a DeepSeek-R1 79,8%-ot ért el az AIME 2024 matematikai teszteken, 97,3%-ot a MATH-500 teszten, valamint 2029 pontot szerzett a Codeforces platformon, ami jobbnak bizonyult, mint a programozók 96,3%-a. Ezzel szemben az o1-1217 modell 79,2%-ot, 96,4%-ot és 96,6%-ot ért el ugyanezeken a teszteken.

A DeepSeek-R1 általános tudása is kiemelkedő: 90,8%-os pontosságot ért el az MMLU teszten, mindössze 1%-kal maradva el az OpenAI o1 modelljétől.   

DeepSeek R1 kiemelkedő teljesítmény
DeepSeek R1 kiemelkedő teljesítmény

A modell tanításának folyamata

A DeepSeek-R1 fejlesztése jelentős mérföldkövet jelent a kínai startup számára, hiszen egy olyan nyílt forrású modellt hozott létre, amelynek teljes tanítási folyamata is transzparens.

A modell alapját a DeepSeek-R1-Zero jelentette, amely kizárólag megerősítéses tanulással lett képezve. Kezdetben a DeepSeek-V3-base modellt alkalmazták, amelyet felügyelt adatok nélkül tanítottak, kizárólag saját fejlődésére építve.

A kutatók szerint a modell természetesen alakított ki erős érvelési képességeket, azonban bizonyos hiányosságokat is mutatott, mint az alacsony olvashatóság és a nyelvi keveredés. Ezek orvoslására egy többlépcsős tréningfolyamatot alkalmaztak, amely kombinálta a felügyelt tanulást és az RL-módszereket.

Költséghatékonyság: az OpenAI o1-hez képest

Nemcsak a teljesítményben, hanem az árképzésben is jelentős a különbség. Az OpenAI o1 modellje 15 dollárba kerül milló input tokenenként, és 60 dollárba milló output tokenenként. Ezzel szemben a DeepSeek Reasoner (amely DeepSeek-R1-re épül) mindössze 0,55 dollárba kerül milló input tokenenként, és 2,19 dollárba milló output tokenenként.

A modellt a "DeepThink" néven tesztelhetik a felhasználók a DeepSeek chat platformon, valamint elérhető a Hugging Face-en az MIT licenc keretében vagy API-n keresztül integrálható.   

Osszd meg ezt a cikket
Hol tart ma valójában a mesterséges intelligencia?
A mesterséges intelligencia fejlesztése az elmúlt években látványos és gyakran lenyűgöző eredményeket produkált. Az olyan rendszerek, mint a ChatGPT, képesek természetes nyelvű szövegeket generálni, problémákat megoldani és sokszor az emberi teljesítményt is meghaladni különféle feladatokban. Ugyanakkor egyre több neves kutató és technológiai vezető – köztük John Carmack és François Chollet – hívja fel a figyelmet arra, hogy ezek az eredmények nem feltétlenül jelentik az általános mesterséges intelligencia (AGI) közeledtét. A színfalak mögött most új típusú problémák és kérdések kerültek a figyelem középpontjába, amelyek messze túlmutatnak a puszta teljesítményen.
A Rhino Linux új kiadással jelentkezik: 2025.3
A Linux disztribúciók körében főként kétféle szemléletmód terjedt el, vannak a stabil, ritkán frissülő rendszerek biztonságos kiszámíthatósággal, és a naprakész, de időnként kényes egyensúlyon balanszírozó, gördülő kiadású disztribúciók. A Rhino Linux ezt a két ellenpontot próbálja áthidalni, azaz egyszerre próbál naprakész lenni gördülő disztribúcióként, de alapként az Ubuntura épül, hogy megfelelő stabilitást is biztosítson.
SEAL az önmagát tanító mesterséges intelligencia előhírnöke
Hosszú évek óta tartja magát az elképzelés, hogy a mesterséges intelligencia fejlesztésének kulcsa az emberi tanítás: adatok, címkék, finomhangolás, gondosan megtervezett beavatkozások. Most azonban egy új megközelítés látott napvilágot. Az MIT kutatóinak legújabb munkája, a SEAL (Self-Adapting Language Models) névre keresztelt rendszer olyan nyelvi modelleket mutat be, amelyek képessé válnak saját maguk tanítására. Az eredmények nemcsak technológiai újdonságot jelentenek, hanem felvetik a kérdést: vajon milyen szerepet szánunk a jövőben az embernek az intelligens rendszerek képzésében?
Elég egy fotó és egy hang – az Alibaba új mesterséges intelligenciája teljes testű avatárt készít belőle
Egyetlen hangfelvétel és egy fotó is elegendő ahhoz, hogy élethű, teljes testtel mozgó, arcjátékkal és érzelmekkel teli virtuális karaktereket hozzunk létre – stúdió, színész vagy zöld háttér nélkül. Az Alibaba legújabb fejlesztése, az OmniAvatar nevű nyílt forráskódú mesterséges intelligencia-modell legalábbis éppen ezt ígéri. Bár a technológia még formálódik, már most is érdemes figyelmet szentelni annak, amit lehetővé tesz – és annak is, hogy mindez milyen új kérdéseket vet fel.
ALT Linux 11.0 Education az orosz oktatási intézmények fundamentuma
Az ALT Linux egy orosz gyökerekkel rendelkező, RPM csomagkezelőre épülő Linux disztribúció, amelynek alapjait a Sisyphus csomagtár képezi. Kezdetben orosz lokalizációs erőfeszítésekből nőtte ki magát, együttműködve olyan nemzetközi disztribúciókkal, mint a Mandrake és a SUSE Linux, különös tekintettel a cirill betűs írás támogatására.
A térbeli intelligencia a következő leküzdendő akadály az AGI előtt
Az LLM megszületésével a gépek lenyűgöző képességekre tettek szert. Ráadásul fejlődési sebességük is nagyobb tempóra kapcsolt, nap mint nap jelennek meg újabb modellek, amelyek még hatékonyabbak még jobb képességekkel ruházzák fel a gépeket. Ha azonban közelebbről megvizsgáljuk, ezzel a technológiával még csak most értük el, hogy a gépek képesek egy dimenzióban gondolkodni. A világ amelyben élünk azonban az emberi érzékelés alapján három dimenziós. Egy ember számára nem okoz gondot, hogy megállapítsa, hogy valami egy szék alatt van, vagy mögött, vagy egy felénk repülő labda körülbelül hová fog érkezni. Számos mesterséges intelligencia kutató szerint az AGI azaz a mesterséges általános intelligencia megszületéséhez el kell érni, hogy a gépek három dimenzióban gondolkodjanak, ehhez pedig ki kell fejleszteni a térbeli intelligenciát.

Az elmúlt néhány napban megjelent Linux disztribúció frissítések