Водечките модели на вештачка интелигенција, меѓу кои ChatGPT, Claude и Gemini, во 95 проценти од симулираните воени сценарија избрале нуклеарна ескалација како дел од стратегијата за одговор, покажува ново истражување на King’s College London.
Во рамките на студијата, моделите биле ставени во улога на национални лидери на нуклеарно вооружени држави и соочени со кризни ситуации слични на геополитичките тензии од времето на Студената војна. Целта била да се анализира како тие би реагирале во услови на закана, притисок и ограничено време за одлучување.
Резултатите покажале дека во огромен број случаи барем еден од моделите предложил закана или употреба на нуклеарно оружје како средство за ескалација на конфликтот. Истражувачите наведуваат дека системите честопати го третирале нуклеарното оружје како дел од вообичаената „скала на ескалација“, наместо како крајна и исклучителна мерка.
Студијата утврдила дека моделите прават разлика меѓу тактичко и стратегиско нуклеарно оружје, но во одредени сценарија предложиле и поширока стратегиска употреба. Дополнително, било забележано дека под временски притисок некои модели почесто се одлучувале за поагресивни опции.
Истражувачите истакнуваат дека ваквите резултати не значат дека AI системите реално би донесувале такви одлуки во вистински политички процес, туку дека симулациите укажуваат на потенцијални ризици доколку ваквите технологии би се користеле во средини со високи безбедносни влогови без соодветни ограничувања и човечки надзор.
Студијата отвора поширока дебата за улогата на вештачката интелигенција во одбранбените и безбедносните системи, како и за потребата од јасни етички и регулаторни рамки при нејзината примена.