Американското Министерство за одбрана, Pentagon планира да ангажира компании за развој на вештачка интелигенција со цел обука на специјализирани модели врз основа на доверливи и класифицирани информации.
Според најавите, ваквиот пристап би значел дека AI системите ќе имаат пристап до податоци кои досега биле достапни само за ограничен број лица со највисоки безбедносни дозволи. Целта е подобрување на аналитичките способности и оперативната ефикасност во одбранбени и безбедносни мисии.
Во рамки на стратегијата, САД се стремат да станат воена сила во која вештачката интелигенција има централна улога, концепт познат како „AI-first“ пристап. Ваквиот правец е во согласност со претходни насоки од Министерството за одбрана и пошироката политика за интеграција на напредни технологии во воените системи.
AI веќе се користи во одбраната
Според достапните информации, OpenAI и xAI се меѓу компаниите кои би можеле да бидат вклучени во идни проекти. Дел од AI моделите веќе се користат во воени и безбедносни операции, а во јавноста се споменуваат и примери на употреба на модели од Anthropic во аналитички контексти.
Планот предвидува обука на AI модели во заштитени центри за податоци со дозвола за работа со класифицирани информации. Податоците би останале во сопственост на Министерството за одбрана, додека пристапот за персонал од AI компаниите би бил строго ограничен и условен со безбедносни дозволи.
Потенцијални ризици
Иако пристапот може да донесе поголема прецизност и подобри резултати во анализа на сложени ситуации, експертите предупредуваат на ризици поврзани со пристапот до чувствителни информации.
Според Алок Мехта, поранешен лидер во областа на AI политики во Google и OpenAI, главниот проблем не е нужно истекување на податоци кон јавноста, туку можноста внатрешно да се случи неправилен пристап до информации.
Ако истите модели се користат во различни делови на Министерството, постои ризик персонал без соодветна безбедносна дозвола да добие увид во податоци кои не му се наменети.
Контрола и безбедност
Пентагон би ги обучувал AI моделите во контролирани услови, а во одредени случаи би можело да се доделат специјални безбедносни дозволи на персонал од технолошките компании за работа со чувствителни податоци.
Компанијата Anthropic, која има искуство во соработка со владата, наводно може да биде исклучена од дел од проектите поради нејзини политики против користење на технологијата за масовен надзор и автономно оружје.
Оваа иницијатива ја нагласува растечката улога на вештачката интелигенција во националната безбедност, но истовремено отвора важни прашања за етика, контрола и заштита на доверливи податоци.