Истражување: АИ чет-ботови во 95 % од воените симулации избрале нуклеарна ескалација

Студија спроведена од истражувачи од King’s College London покажува дека водечките модели на вештачка интелигенција често се одлучуваат за нуклеарна закана во симулирани меѓудржавни конфликти.

Водечките модели на вештачка интелигенција, меѓу кои ChatGPT, Claude и Gemini, во 95 проценти од симулираните воени сценарија избрале нуклеарна ескалација како дел од стратегијата за одговор, покажува ново истражување на King’s College London.

Во рамките на студијата, моделите биле ставени во улога на национални лидери на нуклеарно вооружени држави и соочени со кризни ситуации слични на геополитичките тензии од времето на Студената војна. Целта била да се анализира како тие би реагирале во услови на закана, притисок и ограничено време за одлучување.

Резултатите покажале дека во огромен број случаи барем еден од моделите предложил закана или употреба на нуклеарно оружје како средство за ескалација на конфликтот. Истражувачите наведуваат дека системите честопати го третирале нуклеарното оружје како дел од вообичаената „скала на ескалација“, наместо како крајна и исклучителна мерка.

Студијата утврдила дека моделите прават разлика меѓу тактичко и стратегиско нуклеарно оружје, но во одредени сценарија предложиле и поширока стратегиска употреба. Дополнително, било забележано дека под временски притисок некои модели почесто се одлучувале за поагресивни опции.
Истражувачите истакнуваат дека ваквите резултати не значат дека AI системите реално би донесувале такви одлуки во вистински политички процес, туку дека симулациите укажуваат на потенцијални ризици доколку ваквите технологии би се користеле во средини со високи безбедносни влогови без соодветни ограничувања и човечки надзор.

Студијата отвора поширока дебата за улогата на вештачката интелигенција во одбранбените и безбедносните системи, како и за потребата од јасни етички и регулаторни рамки при нејзината примена.

е-Трн да боцка во твојот инбокс

Последни колумни