Dirbtinis intelektas gali būti toks pat pasitikintis savimi ir šališkas kaip žmonės, teigia mokslininkai
Mokslininkai išsiaiškino, kad AI kartais gali priimti sprendimus taip pat neracionaliai kaip žmonės. Savo tyrime mokslininkai nusprendė patikrinti OpenAI GPT-3.5 ir GPT-4 modelių elgesį pagal 18 gerai žinomų žmogaus psichologijos kognityvinių išankstinių nuostatų.
Pažymima, kad beveik pusėje scenarijų AI parodė daugelį labiausiai paplitusių žmogiškųjų šališkumų priimant sprendimus. Jie nustatė, kad neuroniniai tinklai nėra apsaugoti nuo žmogiškųjų klaidų.
„Vadybininkai gaus didžiausią naudą, jei šiuos įrankius naudos problemoms, kurioms yra aiškus, šabloniškas sprendimas, spręsti.
Jei juos naudojate subjektyviems sprendimams priimti arba sprendimams, pagrįstiems preferencijomis, būkite atsargūs“, – savo pareiškime sakė pagrindinis tyrimo autorius Janas Čenas, Ivey verslo mokyklos operacijų valdymo katedros docentas.
Mokslininkai AI modeliams uždavė hipotetinius klausimus, paimtus iš tradicinės psichologijos, realaus komercinio pritaikymo kontekste tokiose srityse kaip prekių atsargų valdymas ar derybos su tiekėjais.
Jie bandė išsiaiškinti ne tik tai, ar AI imituos žmogiškus išankstinius nusistatymus, bet ir tai, ar jis tai darys, kai jam bus užduodami klausimai iš įvairių verslo sričių.
Tyrimo rezultatai rodo, kad GPT-4 pranoko GPT-3.5 atsakydamas į užduotis, turinčias aiškius matematinius sprendimus. Jis padarė mažiau klaidų tikimybiniuose ir loginiuose scenarijuose.
Tačiau subjektyviuose simuliacijose, pavyzdžiui, renkantis rizikingą variantą pelnui gauti, pokalbių robotas dažnai atspindėjo neracionalius žmonių paprastai demonstruojamus prioritetus.
„GPT-4 demonstruoja net stipresnį prioritetą aiškumui nei žmonės“, – teigiama tyrime.
Tyrėjai pastebėjo, kad pokalbių botų elgesys iš esmės liko stabilus, nepriklausomai nuo to, ar klausimai buvo suformuluoti kaip abstrakčios psichologinės problemos, ar kaip operaciniai verslo procesai. Mokslininkai padarė išvadą, kad parodytas šališkumas nėra tiesiog išmoktų pavyzdžių produktas, o dalis to, kaip AI „mąsto“.
Tyrimo metu GPT-4 kartais sustiprindavo žmogiškas klaidas, pabrėžė mokslininkai.
„Užduotyje dėl patvirtinimo šališkumo GPT-4 visada pateikė šališkus atsakymus. Jis taip pat parodė didesnį polinkį į „karštos rankos“ klaidą (polinkį tikėtis dėsningumo atsitiktinumuose) nei GPT 3.5“, – pasakojo tyrėjai.

Rašyti komentarą