DeepSeek-R1 az OpenAI o1 open source kihívója

A DeepSeek nevű kínai AI startup nemrégiben bemutatta a legújabb fejlesztését, a DeepSeek-R1 modellt, amely azonnal üstökösként söpört végig a mesterséges intelligenciát használók körében.

Az új R1 modell a DeepSeek V3 szakértői rendszeren alapszik, és teljesítményében felveszi a versenyt az OpenAI élvonalbeli o1 modelljével. A legnagyobb vonzereje azonban az, hogy a működése 90-95%-kal olcsóbb.

Ez a fejlesztés nagy előrelépést jelent a nyílt forrású modellek terén, tovább csökkentve a rést a zárt, kereskedelmi modellek és a nyilvánosan elérhető megoldások között. A DeepSeek csapata azzal demonstrálta az R1 modell erejét, hogy hat Llama és Qwen modellt finomhangolt R1 segítségével, jelentősen javítva azok teljesítményét. Egy konkrét esetben a Qwen-1.5B verzója bizonyos matematikai teszteken felülmúlta a GPT-4o és Claude 3.5 Sonnet modelleket.

Mit kínál a DeepSeek-R1?

Az általános mesterséges intelligencia (AGI) elérésének versenyében kulcsfontosságúak az olyan modellek, amelyek egyre jobban képesek komplex érvelési feladatok elvégzésére. Az OpenAI elsőként lépett ezen a területen az o1 modellel, amely a "chain-of-thought" technikát alkalmazza, hogy problémákat oldjon meg és javítsa saját gondolkodási stratégiáját.

A DeepSeek-R1 szintén ezt a megközelítést követi, de egyesíti a megerősítéses tanulást (reinforcement learning, RL) és a felügyelt finomhangolást (supervised fine-tuning), hogy még pontosabb érvelési képességekkel rendelkezzen.

A teszteredmények szerint a DeepSeek-R1 79,8%-ot ért el az AIME 2024 matematikai teszteken, 97,3%-ot a MATH-500 teszten, valamint 2029 pontot szerzett a Codeforces platformon, ami jobbnak bizonyult, mint a programozók 96,3%-a. Ezzel szemben az o1-1217 modell 79,2%-ot, 96,4%-ot és 96,6%-ot ért el ugyanezeken a teszteken.

A DeepSeek-R1 általános tudása is kiemelkedő: 90,8%-os pontosságot ért el az MMLU teszten, mindössze 1%-kal maradva el az OpenAI o1 modelljétől.   

DeepSeek R1 kiemelkedő teljesítmény
DeepSeek R1 kiemelkedő teljesítmény

A modell tanításának folyamata

A DeepSeek-R1 fejlesztése jelentős mérföldkövet jelent a kínai startup számára, hiszen egy olyan nyílt forrású modellt hozott létre, amelynek teljes tanítási folyamata is transzparens.

A modell alapját a DeepSeek-R1-Zero jelentette, amely kizárólag megerősítéses tanulással lett képezve. Kezdetben a DeepSeek-V3-base modellt alkalmazták, amelyet felügyelt adatok nélkül tanítottak, kizárólag saját fejlődésére építve.

A kutatók szerint a modell természetesen alakított ki erős érvelési képességeket, azonban bizonyos hiányosságokat is mutatott, mint az alacsony olvashatóság és a nyelvi keveredés. Ezek orvoslására egy többlépcsős tréningfolyamatot alkalmaztak, amely kombinálta a felügyelt tanulást és az RL-módszereket.

Költséghatékonyság: az OpenAI o1-hez képest

Nemcsak a teljesítményben, hanem az árképzésben is jelentős a különbség. Az OpenAI o1 modellje 15 dollárba kerül milló input tokenenként, és 60 dollárba milló output tokenenként. Ezzel szemben a DeepSeek Reasoner (amely DeepSeek-R1-re épül) mindössze 0,55 dollárba kerül milló input tokenenként, és 2,19 dollárba milló output tokenenként.

A modellt a "DeepThink" néven tesztelhetik a felhasználók a DeepSeek chat platformon, valamint elérhető a Hugging Face-en az MIT licenc keretében vagy API-n keresztül integrálható.   

Osszd meg ezt a cikket
Történelmi fordulat után az SK Hynix az új piacvezető a memóriaiparban
Három évtizeden keresztül a Samsung neve szinte egyet jelentett a DRAM-piac vezető szerepével. Most azonban fordult a kocka: 2025 első félévében a dél-koreai SK Hynix először előzte meg riválisát a globális memóriaiparban, megszakítva ezzel egy több mint harmincéves sorozatot. A változás nem csupán egy vállalati rangsor átrendeződését jelenti, hanem mélyebb átalakulásra utal az egész félvezetőiparban.
Riasztó ütemben nő a szervezett tudományos csalások száma
A tudomány világa a kíváncsiságra, együttműködésre és közös fejlődésre épül – legalábbis az eszmény szerint. A valóságban azonban mindig is jelen volt benne a verseny, az egyenlőtlenség és a hibázás lehetősége. Régóta tartott attól a tudományos közösség, hogy ezek a nyomások néhány kutatót eltérítenek a tudomány alapvető küldetésétől: a hiteles tudás létrehozásától. Sokáig úgy tűnt, hogy a csalás főként magányos elkövetők műve. Az utóbbi években azonban egy aggasztó fordulat bontakozott ki: egyre több bizonyíték utal arra, hogy a csalás immár nem elszigetelt botlások sorozata, hanem szervezett, ipari méreteket öltő tevékenység, állítja egy nemrég megjelent tanulmány.
Túl a zajon, avagy mit hoz valójában a GPT-5?
A mesterséges intelligencia fejlődése az utóbbi években különösen gyors ütemet vett, olyannyira hogy már szinte fullasztó mennyiségben jönnek ki a hírek a fejlettebbnél fejlettebb modellekről. Így ebben a nagy zajban nem könnyű egy-egy új fejlesztésnek kitűnnie, hiszen egyre nagyobbat kell gurítani, ahhoz hogy a felhasználó ingerküszöbét átvigye. Az OpenAI duplán terhelt emiatt, mivel valahogyan meg kell őriznie az elsőbbségét a többiek előtt akik szorosan jönnek fel mögötte. Ebbe a feszült térbe érkezett meg az OpenAI által most bemutatott GPT-5 modellcsalád, amely a kritikusok által is nagyon várt, hiszen az előzetes beharangozások alapján nem kevesebbet várnak el tőle minthogy minimum új mérföldkő legyen a mesterséges intelligencia modellek tekintetében. A nagy kérdés tehát az, hogy vajon megfelel e ezeknek az elvárásoknak. A cikk során megvizsgáljuk, hogyan illeszkedik a GPT-5 a mesterséges intelligencia modellek a fejlődési ívébe, milyen újdonságokat hoz, és miképpen hat a jelenlegi technológiai ökoszisztémára.
A legnépszerűbb elméletek az AI munkahelyekre gyakorolt hatásáról
A ChatGPT 2022 év végi megjelenése óta szinte hónapról hónapra újabb lehengerlő fejlesztések jelennek meg az AI területén ezért szinte azonnal beindult a fantáziálás arról, hogy miként is fogja ez megváltoztatni az életünket. Ezen belül is az egyik elsődleges kérdés, hogy milyen hatással lesz a munkahelyekre. Mivel a félelmek nem csillapodnak ezzel kapcsolatban, megjegyzem teljesen jogosan, azt gondolom érdemes időnként újból és újból megvizsgálni ezt a kérdést, hiszen az AI fejlődése drámai, ugyanakkor az idő előrehaladtával mégis talán egyre pontosabb képet kaphatunk az ilyen jellegű kérdésekről, hiszen az empirikus tapasztalatok is egyre gyűlnek és egyre több olyan elmélet lát napvilágot, amely igyekszik megválaszolni a kérdéseket. A cikkben igyekeztem összegyűjteni a legrelevánsabb elméleteket, bár a teljesség igénye nélkül hiszen ezek irodalma napról napra bővül. A kérdés természetes az, hogy látható e már a fény az alagút végén, vagy még mindig befelé haladunk egy olyan új világba, amelyről még mindig túl keveset tudunk.
Gondolkodásra tanít az OpenAI Study Mode
Az utóbbi években a mesterséges intelligenciának köszönhetően forradalmi változások indultak be az oktatásban, ahol a hangsúly egyre inkább a passzív információbefogadásról az aktív, mélyebb megértést célzó tanulási folyamatokra helyeződik át.
 Megjelent a Linux Kernel 6.16
Megjelent a Linux kernel 6.16-os verziója. Bár a kiadási folyamat a fejlesztők szerint a lehető legjobb értelemben vett „eseménytelenséggel” zajlott le, a felszín alatt jelentős fejlesztések történtek, amelyek biztonsági, teljesítménybeli és rendszerkezelési szempontból is előrelépést jelentenek. Eközben a soron következő 6.17-es verzió fejlesztése a megszokottnál kissé zavarosabban indult – ennek hátterében olyan emberi tényezők állnak, amelyek ritkán kerülnek reflektorfénybe egy ilyen méretű nyílt forráskódú projekt esetében.