Miért is adták az idei fizikai Nobel-díjat? – Csabai István fizikus válaszol

John Hopfield és Geoffrey Hinton a mesterséges intelligencia történetének kulcsfigurái, ősatyjai, akik a fizika tudományából vett megközelítéssel olyan módszereket dolgoztak ki, amelyek a mai gépi tanulás alapjait adják, és amelyek eredményeként gyökeresen átalakult az életünk – mondta az MTI-nek Csabai István fizikus, egyetemi tanár, a Magyar Tudományos Akadémia (MTA) levelező tagja.

A mesterséges intelligencia az utóbbi években gyökeresen átalakított számos dolgot a világban, jól látható, hogy ez akkora találmány az emberiség történetében, ami méltó arra, hogy kiemelt elismerést kapjon – hangsúlyozta Csabai István annak kapcsán, hogy idén a fizikai Nobel-díjat olyan alapvető felfedezésekért és találmányokért ítélték oda, amelyek lehetővé teszik a mesterséges neurális hálózatokat használó gépi tanulást.

A két kutató a 80-as években kezdett el ezzel a területtel foglalkozni. Kutatásai során John Hopfield egy fizikai analógiával próbálta meg az idegrendszer működését leírni.

A kutató a statisztikus fizika keretrendszerét használva egy olyan egyszerű asszociatív memória modellt hozott létre, amelyben nagyon leegyszerűsített, úgynevezett mesterséges neuronhálózatokban ahhoz hasonlót reprodukált, mint amire az idegrendszer képes – magyarázta a fizikus, hozzátéve, hogy a Hopfield-hálózatra később számos kutatás épült, így Geoffrey Hinton munkássága is.

Kitért arra, hogy ezt követően összetettebb hálózatot hoztak létre a kutatók és később ennek a folyamatos finomításából jöttek létre azok az úgynevezett mesterséges neuronhálók, amelyekkel először a 80-as, 90-es években értek el eredményeket.

Később, kisebb szünet után, a 2010-es, 2020-as években futott fel a terület és jelentek meg először képfelismerő modellek, majd a nagy nyelvi modellek, így például a ChatGPT, amely sok tekintetben hasonló kapacitással rendelkezik, mint az emberi agy. A 2010 utáni modellek tulajdonképpen mind azokon az elveken alapultak, amelyeket az „ősatyák” kitaláltak – hangsúlyozta.

A mostani a robbanásszerű fejlődés okairól szólva rámutatott, hogy bár az algoritmusok már régóta léteztek, a 80-as években nem voltak olyan nagy kapacitású számítógépek, illetve nem állt rendelkezésre annyi adat digitális formában, mint most.

„Az emberiség tudása könyvekben volt, most pedig szinte már minden digitálisan elérhetővé vált. Ezek a modellek valamilyen formában ezt az információhalmazt tudják összefogni. A ChatGPT-t nem úgy kell elképzelni, mint egy entitást, hanem mint az évezredek alatt összegyűlt és az interneten keresztül digitálisan elérhetővé vált emberi tudás integrálását”

– fejtette ki.

Hozzátette: Hopfield és Hinton úttörők voltak abban, hogy felfedező fizikai kutatásaik során olyan megközelítést találtak ki, amellyel el lehetett indulni és amely aztán nagyon gyümölcsözővé vált később, amikor az erőforrások, az adatok és a számítógép-kapacitás már rendelkezésre állt.

„Amikor az első modell megjelent, már akkor sokan mondták, hogy nagy hatással lesz az emberiség történetére. Ez akkor még nagyon távolinak tűnt, de kicsit még a témával foglalkozó kutatókat is meglepő hirtelenséggel most már a bőrünkön érezzük” – fogalmazott a fizikus, aki az atomok működésének megértéséhez hasonlította a mesterséges intelligencia megjelenésének jelentőségét.

„Az atombombával iszonyatos erő szabadult fel, és kicsit ez is ilyen pillanat”

– vélte, hozzátéve, hogy ez az erő több szempontból nagyobb is lehet, mint ami az atombombában rejlik, mivel sokkal gyökeresebben át tudja alakítani az emberi létet és sokkal könnyebben fejleszthető.

A Nobel-bizottság döntése is jól mutatja a terület jelentőségét – jegyezte meg, rámutatva, hogy a fizika meg tudta találni azt a kezelhetően egyszerű modelljét a kezelhetetlenül komplex idegrendszernek, amely kiindulásként szolgálhatott a mesterséges intelligencia fejlődése számára, amely nélkül nem létezhetnének a ma már világszerte elterjedt gépi tanulási eljárások.

A tudomány legfrissebb hírei

Megosztás: