Новото истражување објавено во списанието Manufacturing & Service Operations Management открива дека ChatGPT, напреден модел на вештачка интелигенција (ВИ), покажува когнитивни пристрасности слични на оние кај луѓето при донесување на субјективни одлуки. Ова ги подигнува прашањата за доверливоста на ВИ во критични одлуки.
Пристрасности кај ВИ
Во тестовите, ChatGPT покажа:
-Прекумерна самодоверба: Преценување на сопствената точност.
-Избегнување на ризик: Предност на побезбедни опции, дури и кога поризичните можат да донесат подобри резултати.
-Грешка на коцкарот: Верување дека минатите настани влијаат на идните исходи во независни ситуации.
Сепак, ВИ избегна некои човечки грешки, како што е игнорирање на основните стапки.
Подобрувања и нови предизвици
Поновите верзии на ChatGPT покажуваат подобрена аналитичка точност, но исто така и засилени пристрасности во одредени случаи. Ова сугерира дека иако ВИ може да напредува во логички задачи, таа сè уште се соочува со предизвици во субјективното одлучување.
Импликации за иднината
Со оглед на тоа што ВИ веќе се користи во области како вработување и одобрување на кредити, овие наоди сугерираат дека ВИ може да ги автоматизира, наместо да ги елиминира, човечките грешки. Затоа, неопходно е внимателно следење и регулирање на одлуките донесени од ВИ системите.