Kredit alapú Windows Notepad használat a Copilot integrációval

A Microsoft új funkciót vezet be a Windows Notepad-ba, amely segítségével elérhető a Microsoft Copilot, azaz mesterséges intelligencia segítségével javíthatjuk az írásainkat a jegyzettömbben. A funkció segítségével újrafogalmaztathatjuk az írásainkat, összefoglalót generálhatunk, vagy egyéb szöveg finomításokat végezhetünk, úgy mint például kiigazíthatjuk a hangnemet, vagy módosíthatunk a szöveg stílusán.

Az új funkciókért cserébe a szöveget a Jegyzettömb egy Microsoft Azure szerverre tölti fel, hogy a mesterséges intelligencia ott feldogozhassa, ami nincs ingyen. A Microsoft 365 Personal és Family előfizetők 60 AI kreditet kapnak havonta, akik nem előfizetők azok 15 kreditet kapnak, a Copilot Pro előfizetők pedig korlátlan kredittel rendelkeznek. A nem felhasznált kreditek természetesen elvesznek, nem lehet őket átvinni a következő hónapra.

A Microsoft a kreditekért cserébe azon túl hogy elvégzi a kívánt stilisztikai átalakítást tartalom szűrést is végez. A szűrésre azért van szüksége, hogy megóvja a felhasználót attól, hogy nehogy véletlenül olyat gépeljen ami nem lenne helyénvaló, esetleg nem etikus, vagy sértő valakire nézve. A felhasználó olyan szöveget gépelhet ami tükrözi a Microsoft értékeit, legyen az bármi. Ha szűrés nem lenne teljes mértékben tökéletes és a felhasználónak mégis valahogy sikerül becsempészni a saját szövegébe némi szarkazmust vagy oda nem illő dolgot, azt a Microsoft lehetséges jogi következményekkel kecsegteti.

A Jegyzettömb AI-funkciói jelenleg a Windows Insiderek számára a Canary és a Dev csatornákon érhetőek el a Windows 11-en. A funkció azonban nem elérhető Kínában és Oroszországban. Ezekben az országokban a Microsoft egyelőre nem tartja jó ötletnek stílus felügyeletét.

További részletek és lehetséges jogi következmények a Microsoft eredeti bejelentésében

Osszd meg ezt a cikket
 A Google bemutatta az Agent2Agent (A2A) nyílt forráskódú protokollt
Jensen Huang (az NVIDIA CEO-ja) nemrégiben elmondott beszédében a mesterséges intelligencia fejlődését több szakaszra osztotta és a jelenlegi szakaszra az Agentic AI korszakaként hivatkozott. Bár előadásában már a főként a következő szakaszra fókuszált a fizikai AI korszakára, nem szabad elfelejtenünk, hogy az Agentic AI korszaka is még csak idén indult el, így annak kifejlett érett formáját nem láthattuk. Hogy milyen lesz majd ez a fejlettebb forma abba enged betekintést a Google legújabb bejelentése amelyben bemutatták a nyílt forráskódú Agener2Agent protokollt. A protokoll célja, hogy hidat képezzen a különböző platformok, keretrendszerek és gyártók által létrehozott MI ágensek között, elősegítve ezzel a zökkenőmentes kommunikációt és együttműködést.
Bajban az Apple a mesterséges intelligencia fejlesztések terén?
Trump vámjainak hatására úgy tűnik egyre több gonddal kell az Apple-nek megküzdenie. Ennek egyik oka, hogy a vámokon túl, amik eléggé megtépázták az Apple részvényeit, belső konfliktusok is vannak, különösen az AI integrációért felelős részlegnél. Tripp Mickle a The New Yourk Times újságírója egyenesen arról ír, hogy az Apple nem képes semmilyen új innovatív dologgal előrukkolni mostanában. Bár ez valószínűleg nincs így, hiszen hosszas huzavona után az Apple Intelligence-t végül sikerült elindítania a cégnek, de az kétségtelen, hogy a mesterséges intelligencia területén vannak lemaradásai a versenytársakhoz képest.
Új együttműködés a Netflix és az OpenAI között
A Netflix nemrégiben kezdte el tesztelni az új, mesterséges intelligencia alapú keresési funkciót, amely az OpenAI technológiáját használja a tartalomkeresés javítására. Ez a funkció jelentős változást jelent a hagyományos keresési módszerekhez képest, mivel lehetővé teszi a felhasználók számára, hogy filmeket és tévéműsorokat találjanak konkrét kifejezések, például hangulatuk vagy szituációs preferenciáik alapján, nem pedig csak címek, műfajok vagy színésznevek alapján.
Erős turbulencia a Meta Llama modelljei körül
Még egy hete sincs a piacon a Llama 4 máris erős kritikákat kapott a felhasználóktól. Mint korábban írtam a Llama 4 egyik újdonsága, hogy egy olyan architektúrát használ, amely különböző modulokból épül fel ezért lehetővé teszi, hogy sokkal nagyobb tényleges paraméterrel rendelkezzen, mint amennyit aktívan használ, ezért elméletileg jóval jobb teljesítményt kellene nyújtania. Több független felhasználói teszt alapján azonban, mégsem hozza az elvárt eredményeket főleg matematikai és kódolási feladatok esetében. Egyesek szerint a Meta erősen manipulálta a benchmarkokat, hogy minél jobb eredményeket tudjon felmutatni. Míg mások úgy vélik, hogy elképzelhető, hogy valamilyen belső modellverziót futtattak a benchmarkokon és a piacra már egy jóval szerényebb képességű modellt dobtak.