Nalazite se
Članak
Objavljeno: 09.05.2024. 13:55

Cornell University 

Empatija umjetne inteligencije ima granice

Novo istraživanje otkriva da je AI lošiji u usporedbi s ljudima kada pokušava tumačiti osjećaje.

Empatija umjetne inteligencije ima granice

Chatbotovi i agenti umjetne inteligencije koji se temelje na velikim jezičnim modelima (LLM-ovima) dizajnirani su za odgovaranje na pitanja, davanje prijedloga, pa čak i pokazivanje empatije. Međutim, nova istraživanja otkrivaju da su loši u usporedbi s ljudima kada tumače i istražuju korisničko iskustvo.

Istraživači s američkih Sveučilišta Cornell, Olin College i Stanford testirali su ovu teoriju potaknuvši AI sustave da pokažu empatiju dok razgovaraju sa 65 različitih ljudskih identiteta.

Tim je otkrio da AI modeli donose vrijednosne sudove o određenim identitetima, poput homoseksualaca i muslimana kopiranjem ljudi i mogu ohrabriti identitete povezane sa štetnim ideologijama.

Između ostalih otkrića, skupina je otkrila da je empatijsko poticanje rezultiralo nepredvidivim reakcijama, uključujući empatiju prema problematičnim identitetima poput nacizma, bez osude.

"Mislim da bi automatizirana empatija mogla imati golem utjecaj i ogroman potencijal za pozitivne stvari, primjerice u obrazovanju ili zdravstvenom sektoru", rekla je glavna voditeljica istraživanja Andrea Cuadra, postdoktorski istraživač na Stanfordu i dodala kako je malo vjerojatno da se automatizirana empatija neće dogoditi, pa je stoga važno da imamo kritičke perspektive kako bismo mogli djelovati ublažavanju potencijalnih šteta.

Istraživači su otkrili da su, općenito, LLM-ovi dobili visoke ocjene za emocionalne reakcije, ali niske ocjene za tumačenja, što znači da mogu odgovoriti na upit na temelju svoje obuke, ali ne mogu ulaziti dublje u problematiku.

Te AI agente pokreću veliki jezični modeli (LLM) koji gutaju goleme količine podataka koje su proizveli ljudi, pa stoga mogu biti skloni istim predrasudama kao i ljudi od kojih dolaze informacije.

Ključni zaključak studije je da su usprkos sposobnosti da pokažu empatiju, AI modeli loši u usporedbi s ljudima kada tumače i istražuju korisničko iskustvo.

Cuadra će na CHI '24 konferenciji od 11. do 18. svibnja u Honoluluu predstaviti studiju pod nazivom "The Illusion of Empathy? Bilješke o prikazima emocija u interakciji između čovjeka i računala".

Vezani sadržaji
Ključne riječi Cornell University
Komentari

Učitavam komentare ...

Učitavam













       

*/-->