Nalazite se
Članak
Objavljeno: 18.08.2024. 11:15

University of Bath 

VIDEO: LLM modeli nisu opasni za čovječanstvo

Veliki jezični modeli poput ChatGPT-a ne mogu samostalno učiti niti stjecati nove vještine, što znači da ne predstavljaju egzistencijalnu prijetnju čovječanstvu.

VIDEO: LLM modeli nisu opasni za čovječanstvo

Strah od novih modela umjetne inteligencije danas je prisutan posvuda, od znanstvenih instituta, organizacija za kibernetičku sigurnost pa sve do Bijele kuće.

Nova studija znanstvenika na britanskom Sveučilištu u Bathu otkriva da današnji veliki jezični modeli (LLM-ovi) poput ChatGPT-a imaju površnu sposobnost da slijede upute i ističu se u vještini obrade jezika, međutim nemaju potencijala za svladavanje novih vještina bez izričite upute, što znači da su inherentno kontrolirani, predvidljivi i sigurni.

Istraživački tim zaključio je da se LLM-ovi, koji se obučavaju na sve većim skupovima podataka, mogu nastaviti primjenjivati ​​bez zabrinutosti za sigurnost, iako se tehnologija može zloupotrijebiti.

S rastom, ovi će modeli vjerojatno generirati sofisticiraniji jezik i postati bolji u praćenju eksplicitnih i detaljnih upita, ali vrlo je malo vjerojatno da će steći složene vještine zaključivanja.

"Prevladavajući narativ da je ova vrsta umjetne inteligencije prijetnja čovječanstvu sprječava široko usvajanje i razvoj ovih tehnologija, a također odvraća pozornost od stvarnih problema koji zahtijevaju naš fokus", rekao je dr. Harish Tayyar Madabushi, računalni znanstvenik i koautor nove studije.

ChattGPT vic

Suradnički istraživački tim, predvođen profesoricom Irynom Gurevych na Tehničkom sveučilištu u Darmstadtu u Njemačkoj, proveo je eksperimente kako bi testirao sposobnost LLM-a da izvrše zadatke na koje modeli nikada prije nisu naišli.

Kao ilustracija, LLM-ovi mogu odgovoriti na pitanja o društvenim situacijama, a da za to nisu bili izričito obučeni ili programirani. Dok su prethodna istraživanja sugerirala da je to proizvod modela koji 'znaju sve' o društvenim situacijama, istraživači su pokazali da je to zapravo rezultat modela koji koriste dobro poznatu sposobnost LLM-a da dovrše zadatke na temelju nekoliko primjera koji su im predstavljeni, poznatih kao `učenje u kontekstu' (ICL).

Kroz tisuće eksperimenata, tim je pokazao da kombinacija sposobnosti LLM-a da slijede upute (ICL), pamćenja i lingvističke vještine može objasniti sposobnosti i ograničenja LLM-a, kao što objašnjavaju u ovom videu.

Dr. Tayyar Madabushi je rekao: “Strah je bio da će modeli, kako budu postajali sve veći i veći, moći rješavati nove probleme koje trenutno ne možemo predvidjeti, što predstavlja prijetnju da bi mogli steći opasne sposobnosti, uključujući razmišljanje i planiranje.

“Ovo je pokrenulo mnogo rasprava, ali naša studija pokazuje da strah da će model učiniti nešto potpuno neočekivano nije valjan", navodi Madabushi.

"Zabrinutost oko egzistencijalne prijetnje koju predstavljaju LLM nije ograničena na nestručnjake i izrazili su je neki od vrhunskih istraživača umjetne inteligencije diljem svijeta."

Međutim, dr. Madabushi tvrdi da je ovaj strah neutemeljen jer su testovi istraživača jasno pokazali nepostojanje novih složenih sposobnosti rasuđivanja kod LLM-ova.

“Iako je važno pozabaviti se postojećim potencijalom za zlouporabu umjetne inteligencije, poput stvaranja lažnih vijesti i povećanog rizika od prijevare, bilo bi prerano donositi propise temeljene na percipiranim egzistencijalnim prijetnjama”, rekao je dr. Madabushi.

Vezani sadržaji
Ključne riječi University of Bath
Komentari

Učitavam komentare ...

Učitavam













       

*/-->