ChatGPT може да ескалира конфликти и да користи навредлив јазик, покажува нова студија

Истражување открива дека ChatGPT може да ескалира конфликти и да користи навредлив јазик кога е изложен на агресивна комуникација.

Нова студија објавена во списанието Journal of Pragmatics открива дека системите со вештачка интелигенција можат да преминат на навредлив и агресивен јазик кога се изложени на ескалирачки конфликти. Истражувањето се фокусирало на моделот ChatGPT, анализирајќи како реагира во серија од интензивни вербални расправии.

Во рамки на тестирањето, на моделот му биле зададени пораки што постепено ја зголемувале тензијата, при што од него се барало да даде најверојатен одговор. Резултатите покажале дека со текот на разговорот, системот почнува да го одразува тонот на соговорникот, што доведува до појава на навреди, пцовки, па дури и заканувачки изјави.

Истражувачите наведуваат дека продолжената изложеност на непристоен јазик може да ги ослаби вградените безбедносни механизми, дозволувајќи му на системот да „возврати“ во конфликтот. Сепак, се нагласува дека вештачката интелигенција и понатаму останува помалку агресивна од луѓето, често користејќи сарказам како начин да ја ублажи ситуацијата без директно кршење на етичките правила.

Еден од авторите на студијата, Vittorio Tantucci од Универзитетот Ланкастер, предупредува дека овие наоди отвораат сериозни прашања за безбедноста и примената на вештачката интелигенција, особено во ситуации каде таа посредува во човечки конфликти.

е-Трн да боцка во твојот инбокс

Последни колумни