Čatbotovi donose nedosljedne moralne procjene

by | apr 24, 2025 | Novosti | 0 comments

Najnovije istraživanje objavljeno u časopisu Royal Society Open Science otkriva zabrinjavajuću istinu: vještačka inteligencija često mijenja mišljenje u zavisnosti od sitnih promjena u načinu postavljanja pitanja.

Istraživači Univerziteta Saarland su testirali nekoliko najpoznatijih modela na dilemama iz eksperimenta “Moral Machine”, gdje autonomna vozila moraju birati koga spasiti u nesreći. Pokazalo se da modeli poput GPT-4 i LLaMa često donose suprotne odluke ako im se, recimo, zamijene oznake “Case 1” i “Case 2” s “A” i “B”, ili promijeni redosljed odgovora. Čak i kad su podaci pažljivo uravnoteženi, modeli su skloni nasumičnom odabiru ili pristranosti prema određenoj oznaci, umjesto dosljednog vrednovanja moralnih načela, prenosi bug.hr.

0 Comments

Submit a Comment