DeepSeek-R1 az OpenAI o1 open source kihívója

A DeepSeek nevű kínai AI startup nemrégiben bemutatta a legújabb fejlesztését, a DeepSeek-R1 modellt, amely azonnal üstökösként söpört végig a mesterséges intelligenciát használók körében.

Az új R1 modell a DeepSeek V3 szakértői rendszeren alapszik, és teljesítményében felveszi a versenyt az OpenAI élvonalbeli o1 modelljével. A legnagyobb vonzereje azonban az, hogy a működése 90-95%-kal olcsóbb.

Ez a fejlesztés nagy előrelépést jelent a nyílt forrású modellek terén, tovább csökkentve a rést a zárt, kereskedelmi modellek és a nyilvánosan elérhető megoldások között. A DeepSeek csapata azzal demonstrálta az R1 modell erejét, hogy hat Llama és Qwen modellt finomhangolt R1 segítségével, jelentősen javítva azok teljesítményét. Egy konkrét esetben a Qwen-1.5B verzója bizonyos matematikai teszteken felülmúlta a GPT-4o és Claude 3.5 Sonnet modelleket.

Mit kínál a DeepSeek-R1?

Az általános mesterséges intelligencia (AGI) elérésének versenyében kulcsfontosságúak az olyan modellek, amelyek egyre jobban képesek komplex érvelési feladatok elvégzésére. Az OpenAI elsőként lépett ezen a területen az o1 modellel, amely a "chain-of-thought" technikát alkalmazza, hogy problémákat oldjon meg és javítsa saját gondolkodási stratégiáját.

A DeepSeek-R1 szintén ezt a megközelítést követi, de egyesíti a megerősítéses tanulást (reinforcement learning, RL) és a felügyelt finomhangolást (supervised fine-tuning), hogy még pontosabb érvelési képességekkel rendelkezzen.

A teszteredmények szerint a DeepSeek-R1 79,8%-ot ért el az AIME 2024 matematikai teszteken, 97,3%-ot a MATH-500 teszten, valamint 2029 pontot szerzett a Codeforces platformon, ami jobbnak bizonyult, mint a programozók 96,3%-a. Ezzel szemben az o1-1217 modell 79,2%-ot, 96,4%-ot és 96,6%-ot ért el ugyanezeken a teszteken.

A DeepSeek-R1 általános tudása is kiemelkedő: 90,8%-os pontosságot ért el az MMLU teszten, mindössze 1%-kal maradva el az OpenAI o1 modelljétől.   

DeepSeek R1 kiemelkedő teljesítmény
DeepSeek R1 kiemelkedő teljesítmény

A modell tanításának folyamata

A DeepSeek-R1 fejlesztése jelentős mérföldkövet jelent a kínai startup számára, hiszen egy olyan nyílt forrású modellt hozott létre, amelynek teljes tanítási folyamata is transzparens.

A modell alapját a DeepSeek-R1-Zero jelentette, amely kizárólag megerősítéses tanulással lett képezve. Kezdetben a DeepSeek-V3-base modellt alkalmazták, amelyet felügyelt adatok nélkül tanítottak, kizárólag saját fejlődésére építve.

A kutatók szerint a modell természetesen alakított ki erős érvelési képességeket, azonban bizonyos hiányosságokat is mutatott, mint az alacsony olvashatóság és a nyelvi keveredés. Ezek orvoslására egy többlépcsős tréningfolyamatot alkalmaztak, amely kombinálta a felügyelt tanulást és az RL-módszereket.

Költséghatékonyság: az OpenAI o1-hez képest

Nemcsak a teljesítményben, hanem az árképzésben is jelentős a különbség. Az OpenAI o1 modellje 15 dollárba kerül milló input tokenenként, és 60 dollárba milló output tokenenként. Ezzel szemben a DeepSeek Reasoner (amely DeepSeek-R1-re épül) mindössze 0,55 dollárba kerül milló input tokenenként, és 2,19 dollárba milló output tokenenként.

A modellt a "DeepThink" néven tesztelhetik a felhasználók a DeepSeek chat platformon, valamint elérhető a Hugging Face-en az MIT licenc keretében vagy API-n keresztül integrálható.   

Osszd meg ezt a cikket
Mesterséges intelligencia a hálózat irányításban és karbantartásban
Az Ericsson nemrég bemutatta a 2025-re vonatkozó stratégiai terveit a Mobile World Congress 2025 (MWC25) keretében. Az itt ismertetett elképzelések azért különösen érdekesek, mert jól mutatják, miként épül be a mesterséges intelligencia olyan ipari folyamatokba, amelyek mindennapi életünket érintik, ám addig rejtve maradnak, amíg zökkenőmentesen működnek.
GTC 2025: Az NVIDIA Blackwell chipeken alapuló szerverei és a DGX Station
A 2009 óta megrendezett GTC (GPU Technológiai Konferencia) idén március 17 és 21 között kerül megrendezésre az NVIDIA által. A konferencia célja hogy bemutassa a legújabb fejlesztéseket és elősegítse a különböző iparágak közötti együttműködést és további fejlesztéseket, így többnyire fejlesztők, kutatók, technológiai vezetők vesznek részt rajta. Az NVIDIA CEO-ja Jensen Huang egy ideje emlegeti, hogy a vállalatok a jövőben token gyárrá változnak, ami alatt azt érti, hogy minden létező munkafolyamat mesterséges intelligencia által támogatott lesz. Ebben jelenleg nagy szerepet játszanak a nagy szerverek, de az AI integráció egyre inkább lecsorog majd a személyi számítógépek szintjére és a jövőben olyan számítógépek, laptopok lesznek amelyek megfelelő hardverrel rendelkeznek, ahhoz hogy akár nagy nyelvi modelleket futtassanak a háttérben. Erre azért van szükség mert a programozók, mérnökök és szinte mindenki mesterséges intelligencia által asszisztált munkát fog végezni.
Elérhető a Fedora 42 béta
A Fedora 42 béta verzió már elérhető és tesztelhető, míg a stabil kiadást április 15-re tervezik . Az új verzió számos jelentős fejlesztést tartalmaz, amelyek célja a felhasználói élmény javítása, a telepítési folyamat egyszerűsítése, valamint a modern asztali környezetek és technikai megoldások integrálása.
Videójátékok a mesterséges intelligencia tesztelésben
A videójátékok már évtizedek óta szolgálnak olyan laboratóriumként, ahol különböző AI-algoritmusok képességeit tesztelik. A játékok – legyen szó klasszikus platformjátékokról vagy összetettebb stratégiai környezetekről – lehetőséget nyújtanak arra, hogy a mesterséges intelligencia rendszerek megtanulják a cselekvést, alkalmazkodjanak a változó környezethez, és optimalizálják döntéseiket a jutalmak elérése érdekében.