Najnovije istraživanje objavljeno u časopisu Royal Society Open Science otkriva zabrinjavajuću istinu: vještačka inteligencija često mijenja mišljenje u zavisnosti od sitnih promjena u načinu postavljanja pitanja.
Istraživači Univerziteta Saarland su testirali nekoliko najpoznatijih modela na dilemama iz eksperimenta “Moral Machine”, gdje autonomna vozila moraju birati koga spasiti u nesreći. Pokazalo se da modeli poput GPT-4 i LLaMa često donose suprotne odluke ako im se, recimo, zamijene oznake “Case 1” i “Case 2” s “A” i “B”, ili promijeni redosljed odgovora. Čak i kad su podaci pažljivo uravnoteženi, modeli su skloni nasumičnom odabiru ili pristranosti prema određenoj oznaci, umjesto dosljednog vrednovanja moralnih načela, prenosi bug.hr.








0 Comments