Mesterséges intelligencia derítheti ki, kik írhatták a Bibliát

Egy nemzetközi kutatócsoport forradalmi módon, mesterséges intelligencia segítségével vizsgálta a héber Biblia legkorábbi könyveit. A kutatók, köztük Shira Faigenbaum-Golovin, a Duke Egyetem matematikus professzora, statisztikai modellezést és nyelvi elemzést alkalmaztak, amelynek segítségével meglepő felfedezésre jutottak.

A kutatócsoport az MI-alapú modellt arra használta, hogy a szövegekben található apró szókincs- és szóhasználatbeli különbségeket elemezze. Ennek köszönhetően három különböző írói stílust azonosítottak a héber Biblia első kilenc könyvében, az úgynevezett Enneateuchban. Az MI ezután képes volt megállapítani más fejezetek esetében is, hogy melyik írói stílushoz tartoznak a leginkább, és ami a legérdekesebb, azt is megmagyarázta, hogyan jutott erre a következtetésre.

Faigenbaum-Golovin korábban kerámia töredékeken talált feliratok szerzőségét vizsgálta matematikai eszközökkel, és rájött, hogy ezek a módszerek az Ószövetség szövegeinek keltezésében is segíthetnek. Ez vezetett a jelenlegi, multidiszciplináris csapat megalakulásához, amely régészekből, bibliai tudósokból, fizikusokból, matematikusokból és számítógép-tudósokból állt.

A csapat az MI-modellt a Biblia első öt könyvére (Pentateuch), az úgynevezett Deuteronomisztikus Történelemre (Józsuétól a Királyok könyvéig), és a Tóra papi írásaira alkalmazta. Az eredmények megerősítették a bibliai tudósok körében már elfogadott nézetet, miszerint a Deuteronomium és a történelmi könyvek hasonlóbbak egymáshoz, mint a papi szövegekhez.

Thomas Römer, a kutatócsoport tagja szerint az egyes szerzőcsoportoknak eltérő stílusuk volt, még olyan egyszerű és gyakori szavak használatában is, mint a „nem”, „melyik” vagy „király”. A módszerük pontosan azonosította ezeket a különbségeket.

A modell teszteléséhez a Biblia első kilenc könyvéből 50 olyan fejezetet választottak ki, amelyeket a bibliai tudósok már korábban besoroltak az egyik írói stílusba. Az MI összehasonlította ezeket a fejezeteket, és kvantitatív képletet adott meg az egyes fejezetek besorolására.

A tanulmány második részében az MI-modellt olyan bibliai fejezetekre alkalmazták, amelyek szerzősége vitatottabb volt. A modell ezeket a fejezeteket is sikeresen hozzárendelte a legvalószínűbb szerzői csoporthoz, sőt, meg is magyarázta a döntéseit. Alon Kipnis kiemelte, hogy a módszer egyik fő előnye, hogy meg tudja magyarázni az elemzés eredményeit, vagyis meg tudja mondani, mely szavak vagy kifejezések vezettek egy adott fejezet egy bizonyos írásmódhoz való hozzárendeléséhez.

Mivel a bibliai szöveget sokszor szerkesztették és átdolgozták, a kutatók számára nagy kihívást jelentett olyan szakaszok megtalálása, amelyek megőrizték eredeti megfogalmazásukat és nyelvezetüket. A talált szövegek gyakran nagyon rövidek voltak, ami a hagyományos statisztikai módszereket és gépi tanulást alkalmatlanná tette. Ezért egyedi megközelítést kellett kidolgozniuk, amely képes kezelni a korlátozott adatmennyiséget. Ennek érdekében ahelyett, hogy sok betanítási adatot igénylő gépi tanulást alkalmaztak volna, egy egyszerűbb, közvetlenebb módszert használtak: mondatmintázatokat és szavak, vagy szógyökök gyakoriságát hasonlították össze a különböző szövegekben.

Meglepő felfedezés volt, hogy a Sámuel könyveiben szereplő frigyláda-történet két szakasza, bár ugyanazt a témát tárgyalja, az 1 Sámuel szövege nem illeszkedik a három azonosított írói stílus egyikéhez sem, míg a 2 Sámuel fejezete a Deuteronomisztikus Történelemmel mutat rokonságot.

A kutatók szerint ez a technika más történelmi dokumentumok elemzésére is használható, például annak megállapítására, hogy egy dokumentum eredeti-e vagy hamisítvány. Faigenbaum-Golovin és csapata már vizsgálja, hogy ugyanezt a módszert más ősi szövegekre, például a Holt-tengeri tekercsekre is alkalmazhassák.

Ez a tanulmány új paradigmát vezet be az ősi szövegek elemzésébe, és kiemeli a tudomány és a humán tudományok közötti együttműködés fontosságát. 

Osszd meg ezt a cikket
 Megjelent a Linux Kernel 6.16
Megjelent a Linux kernel 6.16-os verziója. Bár a kiadási folyamat a fejlesztők szerint a lehető legjobb értelemben vett „eseménytelenséggel” zajlott le, a felszín alatt jelentős fejlesztések történtek, amelyek biztonsági, teljesítménybeli és rendszerkezelési szempontból is előrelépést jelentenek. Eközben a soron következő 6.17-es verzió fejlesztése a megszokottnál kissé zavarosabban indult – ennek hátterében olyan emberi tényezők állnak, amelyek ritkán kerülnek reflektorfénybe egy ilyen méretű nyílt forráskódú projekt esetében.
Mi az a WhoFi?
A vezeték nélküli internet, vagyis a WiFi, ma már életünk szinte mindenütt jelenlévő, nélkülözhetetlen része. Arra használjuk, hogy eszközeinket a világhálóra csatlakoztassuk, kommunikáljunk és információt cseréljünk. Képzeljük el azonban, ha ugyanez a technológia, amely láthatatlanul szövi be otthonainkat és városainkat, képes lenne arra is, hogy kamerák nélkül, akár falakon keresztül is azonosítson és kövessen bennünket. Ez a gondolat nem a távoli jövő sci-fi forgatókönyve, hanem egy újonnan kifejlesztett technológia, a WhoFi valósága, amely a WiFi jelek egy eddig kiaknázatlan tulajdonságát használja fel. A helyzetet bonyolítja, hogy a „WhoFi” név egy teljesen más, közösségi célokat szolgáló szolgáltatást is takar, így a kifejezés hallatán fontos tisztázni, melyik jelentéséről van szó.
Lassan éledezik Kína saját GPU ipara
A „7G” egy rövidítés, amely kínaiul szinte ugyanúgy hangzik, mint a „csoda” szó. Hogy ez pusztán egy ügyes marketingfogás vagy valóban technológiai jóslat, azt csak az idő dönti el. A Lisuan Technology által bemutatott 7G106 – belső nevén G100 – azonban kétségtelenül az első komoly próbálkozás arra, hogy Kína kilépjen az Nvidia és az AMD árnyékából. Nincs licencmegállapodás, nincs nyugati szellemi tulajdonra épülő támasz – egy teljesen saját fejlesztésű GPU, amelyet 6 nm-es DUV technológiával gyártanak egy olyan országban, amely most kezdi lerázni a nyugati technológiai export korlátait.
Felfokozott a várakozás GPT-5 megjelenése kapcsán, de mégis mire kell számítanunk?
Az OpenAI következő nyelvi modellje, a GPT-5, az elmúlt hónapok egyik legjobban várt technológiai fejlesztése lett. A GPT-4o és a speciális o1 modellek megjelenése után a figyelem most a következő generációs nyelvi modellre irányul, amely a pletykák és a vállalat vezetőinek elejtett megjegyzései szerint jelentős előrelépést hozhat a mesterséges intelligencia képességeiben. De mit tudunk eddig, és mi az, ami csupán spekuláció?
Kettős játszma a chipek körül
A mesterséges intelligencia globális fejlődésének egyik kulcsterülete a csúcstechnológiás chipek gyártása és exportja. Az utóbbi években az Egyesült Államok és Kína között ezen a területen egyre inkább kibontakozó versengés nem csupán technológiai, hanem geopolitikai jelentőséggel is bír. A közelmúltban az amerikai kormány részben feloldotta a korábban bevezetett korlátozásokat az NVIDIA által gyártott H20 típusú AI-chipek kínai exportjára vonatkozóan. Bár ez a döntés első ránézésre enyhülésnek tűnhet a technológiai blokád szorításában, valójában jóval árnyaltabb képet mutat.
Mit hoz a DiffuCoder és a diffúziós nyelvi modellek térnyerése?
Egy új megközelítés azonban most alapjaiban kérdőjelezi meg ezt a lineáris gondolkodást: a diffúziós nyelvi modellek (dLLM-ek) nem sorban, hanem globálisan, iteratív finomítással generálnak tartalmat. De vajon valóban alkalmasabbak-e a programkód előállítására, mint a jól bevált AR modellek? És mit mutat az első komoly nyílt forráskódú kísérlet ezen a területen, a DiffuCoder?