Japán digitális valuta táplálná adatokkal az AI modelleket

Japán a digitális jen bevezetésén gondolkodik, ami egy olyan digitális valuta lenne, amelyet a betétekhez hasonlóan, az egyéni felhasználókhoz kötve lehetne használni. Ennek bevezetése számos előnnyel járna, különösen az adatok felhasználása terén.

A digitális jen használata során az átutalásokat végző intézmények várhatóan marketing elemzésekre és egyéb célokra is felhasználnák a felhasználók adatait. Emellett a Pénzügyminisztérium szerint a felhasználói információk a „közérdekű követelmények” teljesítésére is szolgálnának, mint például a pénzmosás és a terrorizmus finanszírozása elleni küzdelem (AML/CFT) és a jogosulatlan felhasználás nyomon követhetősége.

A személyes adatok felhasználása során a Japán Központi Bank kiemelten foglalkozik az adatvédelmet biztosító technológiákkal, amelyeket összefoglalóan PETs (Privacy-Enhancing Technologies) néven emlegetnek. Natsuki Tsuda, a Pénzügyminisztérium kincstári irodájának igazgatója és a digitális valuta tervezéséért felelős tisztviselője szerint a PETs az adatvédelem hatékony eszköze.

A PETs-hez tartozik például a „federált tanulás”, amely lehetővé teszi a gépi tanulást anélkül, hogy több intézmény ügyféladatait egy központi helyre kellene gyűjteni. Ez a technológia hasznos lehet a pénzmosás és terrorizmus finanszírozása elleni tranzakciók AI-alapú ellenőrzésében, valamint több vállalkozás közös AI-modellek fejlesztésében. Egy másik PETs technológia, a „szintetikus adatgenerálás” lehetővé teszi az adatok elemzését úgy, hogy megőrizze az eredeti adatok statisztikai jellemzőit, anélkül, hogy közvetlenül kezelné az ügyféladatokat. Ez különösen hasznos, amikor az átutalásokat végző intézmények marketing elemzésekre használják fel az ügyféladatokat.

A PETs bevezetését a Személyes Adatvédelmi Törvény várható felülvizsgálata is támogatja, amely 2025 őszén vagy 2026 tavaszán léphet életbe. Az adatvédelmi törekvéseknek némileg ellentmond az, hogy fontolóra veszik azt a javaslatot, amely lehetővé tenné a személyes adatok harmadik felek részére történő átadását az egyén beleegyezése nélkül, valamint a nyilvánosan hozzáférhető érzékeny személyes adatok megszerzését, feltéve, hogy azokat kizárólag statisztikai információk, beleértve az AI-modellek létrehozására használják. A PETs várhatóan hatékonyan segíti majd a felülvizsgált szabályozásnak megfelelő irányítás kialakítását.

Fontos megjegyezni, hogy a PETs pénzügyi ágazatban történő alkalmazása jelenleg még kísérleti fázisban van. Ennek oka, hogy nincsenek nyilvános iránymutatások a technológia biztonságosságáról vagy bevezetéséről, sem iparági szövetségi szabályok. Ez megnehezíti a vállalkozások számára annak felmérését, hogy a bevezetésből elvárható-e a kívánt hatás. Wakamata szerint nem az egyes pénzintézeteknek kellene egyénileg bevezetniük a PETs-t, hanem iparági szintű, együttműködési kezdeményezésként kellene kezelni. 

Osszd meg ezt a cikket
 Megjelent a Linux Kernel 6.16
Megjelent a Linux kernel 6.16-os verziója. Bár a kiadási folyamat a fejlesztők szerint a lehető legjobb értelemben vett „eseménytelenséggel” zajlott le, a felszín alatt jelentős fejlesztések történtek, amelyek biztonsági, teljesítménybeli és rendszerkezelési szempontból is előrelépést jelentenek. Eközben a soron következő 6.17-es verzió fejlesztése a megszokottnál kissé zavarosabban indult – ennek hátterében olyan emberi tényezők állnak, amelyek ritkán kerülnek reflektorfénybe egy ilyen méretű nyílt forráskódú projekt esetében.
Mi az a WhoFi?
A vezeték nélküli internet, vagyis a WiFi, ma már életünk szinte mindenütt jelenlévő, nélkülözhetetlen része. Arra használjuk, hogy eszközeinket a világhálóra csatlakoztassuk, kommunikáljunk és információt cseréljünk. Képzeljük el azonban, ha ugyanez a technológia, amely láthatatlanul szövi be otthonainkat és városainkat, képes lenne arra is, hogy kamerák nélkül, akár falakon keresztül is azonosítson és kövessen bennünket. Ez a gondolat nem a távoli jövő sci-fi forgatókönyve, hanem egy újonnan kifejlesztett technológia, a WhoFi valósága, amely a WiFi jelek egy eddig kiaknázatlan tulajdonságát használja fel. A helyzetet bonyolítja, hogy a „WhoFi” név egy teljesen más, közösségi célokat szolgáló szolgáltatást is takar, így a kifejezés hallatán fontos tisztázni, melyik jelentéséről van szó.
Lassan éledezik Kína saját GPU ipara
A „7G” egy rövidítés, amely kínaiul szinte ugyanúgy hangzik, mint a „csoda” szó. Hogy ez pusztán egy ügyes marketingfogás vagy valóban technológiai jóslat, azt csak az idő dönti el. A Lisuan Technology által bemutatott 7G106 – belső nevén G100 – azonban kétségtelenül az első komoly próbálkozás arra, hogy Kína kilépjen az Nvidia és az AMD árnyékából. Nincs licencmegállapodás, nincs nyugati szellemi tulajdonra épülő támasz – egy teljesen saját fejlesztésű GPU, amelyet 6 nm-es DUV technológiával gyártanak egy olyan országban, amely most kezdi lerázni a nyugati technológiai export korlátait.
Felfokozott a várakozás GPT-5 megjelenése kapcsán, de mégis mire kell számítanunk?
Az OpenAI következő nyelvi modellje, a GPT-5, az elmúlt hónapok egyik legjobban várt technológiai fejlesztése lett. A GPT-4o és a speciális o1 modellek megjelenése után a figyelem most a következő generációs nyelvi modellre irányul, amely a pletykák és a vállalat vezetőinek elejtett megjegyzései szerint jelentős előrelépést hozhat a mesterséges intelligencia képességeiben. De mit tudunk eddig, és mi az, ami csupán spekuláció?
Kettős játszma a chipek körül
A mesterséges intelligencia globális fejlődésének egyik kulcsterülete a csúcstechnológiás chipek gyártása és exportja. Az utóbbi években az Egyesült Államok és Kína között ezen a területen egyre inkább kibontakozó versengés nem csupán technológiai, hanem geopolitikai jelentőséggel is bír. A közelmúltban az amerikai kormány részben feloldotta a korábban bevezetett korlátozásokat az NVIDIA által gyártott H20 típusú AI-chipek kínai exportjára vonatkozóan. Bár ez a döntés első ránézésre enyhülésnek tűnhet a technológiai blokád szorításában, valójában jóval árnyaltabb képet mutat.
Mit hoz a DiffuCoder és a diffúziós nyelvi modellek térnyerése?
Egy új megközelítés azonban most alapjaiban kérdőjelezi meg ezt a lineáris gondolkodást: a diffúziós nyelvi modellek (dLLM-ek) nem sorban, hanem globálisan, iteratív finomítással generálnak tartalmat. De vajon valóban alkalmasabbak-e a programkód előállítására, mint a jól bevált AR modellek? És mit mutat az első komoly nyílt forráskódú kísérlet ezen a területen, a DiffuCoder?