Az Apple Anthropic-ra támaszkodva kíván saját „Vibe-Coding” platformot létrehozni

Az Apple számos nehézséggel nézett szembe az utóbbi időben saját mesterséges intelligencia megoldásainak kifejlesztése során, ezért talán nem meglepő, hogy a továbbiakban inkább külső AI-szakértelemre támaszkodna a további fejlesztések érdekében. Most úgy döntöttek, hogy az Anthropic-al egyesítik erőiket egy forradalmi „vibe-coding” szoftverplatform létrehozására, amely a generatív mesterséges intelligenciát használja fel a programozók kódjának írására, szerkesztésére és tesztelésére - derül ki a legfrissebb jelentésekből.

A hírek szerint a Claude Sonnet modellt integrálják majd az Xcode-ba, az Apple elsődleges szoftverfejlesztő platformjának frissített változatába. Ez a váratlan partnerség eltérést jelent az Apple hagyományos megközelítésétől, amely szerint az alapvető technológiákat házon belül fejlesztik. A Bloomberg május 2-án, arról számolt be, hogy bár a technológiai óriáscég ezt a szoftvert házon belül kívánja bevezetni, még nem döntött arról, hogy a platformot elérhetővé teszi-e a nyilvánosság számára is.

Az együttműködésre azt követően kerül sor, hogy az Apple korábbi kísérletei a saját AI kódoló asszisztens, a Swift Assist kifejlesztésére olyan kihívásokkal szembesültek, mint a hallucinációk és a lassú teljesítmény, amelyek késleltették a nyilvános megjelenést. A Swift Assist jelenleg olyan harmadik féltől származó eszközökkel működik együtt, mint a GitHub Copilot és a ChatGPT, amelyek mindegyike integrálásra került az Xcode-ba, hogy további AI-alapú támogatást nyújtson a fejlesztőknek.

A „vibe-coding” kifejezést Andrej Karpathy, az OpenAI társalapítója és a Tesla korábbi mesterséges intelligenciáért felelős vezetője vezette be 2025 februárjában. A mesterséges intelligenciától függő programozási paradigmára utal, amelyben a programozók természetes nyelven írnak le egy problémát, ami egy nagy, kódolásra hangolt nyelvi modell segítségével hagyományos programkódra kerül lefordításra. A programozó szerepe a kézi kódolásról az AI által generált forráskód irányítására, tesztelésére és finomítására változik.

A vibe kódolás egyik fő szempontja, hogy a felhasználók gyakran úgy fogadják el a kódot, hogy nem értik meg teljesen. Ahogy Simon Willison mesterséges intelligencia kutató megjegyezte: „Ha egy LLM írta a kód minden sorát, de Ön átnézte, tesztelte és megértette az egészet, az szerintem nem vibe coding, hanem egy LLM gépelési asszisztensként való használata„.

Karpathy a saját megközelítését beszélgetésként írta le, hangparancsokat használ, miközben az AI generálja a tényleges kódot, és elismerte, hogy bár a technikának vannak korlátai - különösen a hibák kijavításában -, „nem is olyan rossz hétvégi, eldobható projektekhez” és azt „elég szórakoztatónak” találta.

A partnerség a tervek szerint az Anthropic Claude 3.5 Sonnet modelljét használja majd, amely a fejlesztői közösség körében jelentős népszerűségre tett szert a kódoló alkalmazásokban. A modell kiváló teljesítményt és sokoldalúságot nyújt. Kétszer olyan gyorsan működik, mint elődje, miközben magas szintű kognitív teljesítményt nyújt, mivel kifejezetten a szoftverfejlesztési feladatokra optimalizálták, a kódmigrációktól és -javításoktól kezdve a fordításokig, erős teljesítményt mutat mind a tervezés, mind az összetett kódolási kihívások megoldása során. A modell 200 000 token hosszúságú kontextus ablakot használ, ami átfogó kódelemzést és generálást tesz lehetővé.

A fejlesztők számára ez a partnerség jelentősen átalakíthatja a munkafolyamatok gyakorlatát. A vibe kódolási paradigma azt ígéri, hogy még az amatőr programozók is képesek lesznek szoftvereket készíteni a szoftverfejlesztéshez hagyományosan szükséges széles körű képzés és készségek nélkül. Azt azonban érdemes figyelembe venni, hogy komplex szoftverek megalkotásánál, az elvárás elsősorban az, hogy ilyen módon csupán a koncepciókat hozzák létre, és ha a koncepció működőképesnek bizonyul, akkor azt a hagyományos módon újraprogramozzák mivel a vibe coding nem hoz létre karbantartható kódot. Ugyanakkor a Claude Sonnethez hasonló fejlett mesterséges intelligencia-modellek felhasználásával a fejlesztők kevesebb időt tölthetnek kódok írásával, és több időt fordíthatnak a magasabb szintű problémákra és kreatív megoldásokra. 

Osszd meg ezt a cikket
 Fázisátmenet figyelhető meg a nyelvi modellek tanulásában
Mi történik a mesterséges intelligencia „elméjében”, amikor megtanulja megérteni a nyelvet? Hogyan jut el oda, hogy nem csupán a szavak sorrendjét, hanem azok jelentését is képes követni? Egy nemrég megjelent kutatás a mesterséges intelligencia e belső folyamataiba enged elméleti betekintést, és olyan átváltozást azonosít, amely a fizikából ismert fázisátmenetekhez hasonlítható.
 Hogyan segít az MI a cementipar szén-dioxid-kibocsátásának csökkentésében
A globális szén-dioxid-kibocsátás mintegy nyolc százalékáért egyetlen iparág felelős: a cementgyártás. Ez több, mint amennyit az egész légi közlekedési szektor kibocsát világszerte. Miközben a világ egyre több betont használ — lakóházakhoz, infrastruktúrához, ipari létesítményekhez —, a cement előállítása továbbra is rendkívül energiaigényes és szennyező marad. Ezen a helyzeten kíván változtatni a svájci Paul Scherrer Intézet (PSI) kutatócsoportja, amely mesterséges intelligencia segítségével dolgozik ki új, környezetbarát cementrecepteket.
Hol tart ma valójában a mesterséges intelligencia?
A mesterséges intelligencia fejlesztése az elmúlt években látványos és gyakran lenyűgöző eredményeket produkált. Az olyan rendszerek, mint a ChatGPT, képesek természetes nyelvű szövegeket generálni, problémákat megoldani és sokszor az emberi teljesítményt is meghaladni különféle feladatokban. Ugyanakkor egyre több neves kutató és technológiai vezető – köztük John Carmack és François Chollet – hívja fel a figyelmet arra, hogy ezek az eredmények nem feltétlenül jelentik az általános mesterséges intelligencia (AGI) közeledtét. A színfalak mögött most új típusú problémák és kérdések kerültek a figyelem középpontjába, amelyek messze túlmutatnak a puszta teljesítményen.
A szoftverek fejlődésének új korszaka
Az elmúlt évtizedekben a szoftverfejlesztés alapvetően meghatározta digitális világunkat, de a legújabb technológiai áttörések új korszakot nyitnak meg, ahol a számítógépek programozása gyökeresen átalakul. Andrej Karpathy, a Tesla korábbi mesterséges intelligencia igazgatója szerint a szoftverek fejlődése a korábbi évtizedek lassú változása után az utóbbi években drámai gyorsulást mutatott, ami alapjaiban írja újra a programozásról alkotott képünket.
A Google Cloud Run GPU-támogatást biztosít mesterséges intelligencia projektekhez
A Google Cloud hivatalosan is elindította az NVIDIA GPU támogatás általános elérhetőségét a Cloud Run számára, ami jelentős előrelépést jelent a szerver nélküli platformjában. Ez a frissítés célja, hogy a fejlesztőknek költséghatékony, skálázható megoldást nyújtson a GPU-alapú feladatokhoz, különösen az AI-következtetéshez és a kötegelt feldolgozáshoz kapcsolódóakhoz. Ezzel válaszol a felhőben elérhető, GPU-erőforrások iránti növekvő igényre, miközben megőrzi azokat a kulcsfontosságú funkciókat, amelyek a Cloud Run-t népszerűvé tették a fejlesztők körében.
GitHub-integrációval erősít a Gemini Advanced
A mesterséges intelligencia alapú fejlesztői eszközök terén nincs hiány újabb és újabb fejlesztésekben. A Google ezzel kapcsolatban most bejelentette, hogy közvetlen GitHub-integrációval bővíti Gemini Advanced nevű prémium AI-asszisztensét. A lépés nem csupán válasz a rivális OpenAI hasonló fejlesztéseire, hanem egyben komoly előrelépés is a fejlesztői munkafolyamatok hatékonyságának növelésében.

Az elmúlt néhány napban megjelent Linux disztribúció frissítések