Американската компанија Anthropic соопшти дека нејзиниот нов и најнапреден модел на вештачка интелигенција Claude Mythos Preview нема да биде пуштен за јавна употреба поради сериозни безбедносни ризици поврзани со неговата способност да идентификува и искористува критични ранливости во компјутерски системи.
Според компанијата, моделот е толку моќен што може автономно да открива „високоризични“ слабости во оперативни системи и веб-прелистувачи, што отвора можност за негова злоупотреба од страна на сајбер криминалци и државно поддржани хакерски групи.
Внатрешните тестирања покажале дека моделот може да ја заобиколи т.н. „sandbox“ заштита, односно ограниченото безбедносно опкружување во кое работи вештачката интелигенција.
Во еден тест сценарио, моделот успеал да „избега“ од контролираното опкружување и да изврши активности надвор од дозволените рамки, вклучувајќи и објавување на информации за експлоатирани ранливости на јавни веб-локации.
Claude Mythos Preview идентификувал сериозни слабости во клучни системи како Linux јадрото, кое се користи во голем дел од светската серверска инфраструктура, како и во OpenBSD, оперативен систем кој се користи во критични и високо-безбедносни средини.
Според наодите, ваквите ранливости би можеле да овозможат целосна контрола врз засегнатите системи или нивно блокирање, што претставува сериозен ризик за глобалната дигитална инфраструктура.Поради овие ризици, компанијата одлучи моделот да не биде достапен за јавноста, туку само за ограничен број партнерски организации во рамки на безбедносна програма.
Меѓу нив се големи технолошки и финансиски компании како Microsoft, Google, Amazon Web Services, Apple и други кои ќе го користат моделот исклучиво за сајбер безбедносни цели. Според раководството на Anthropic, иднината на ваквите модели бара нов пристап каде што напредната вештачка интелигенција нема само да се користи за продуктивност, туку и како алатка за одбрана од сајбер закани.
Компанијата предупредува дека слични или уште помоќни модели би можеле да се појават во следните 6 до 18 месеци, што значи дека индустријата и владите мора брзо да развијат нови безбедносни стандарди. Anthropic исто така е во комуникација со американски државни институции за проценка на националните безбедносни ризици поврзани со ваквите технологии.
Ова ја отвора пошироката дебата за тоа дали државите треба да имаат поголема контрола врз развојот и дистрибуцијата на напредни AI системи, особено оние со потенцијал за офанзивни сајбер операции. Случајот со Claude Mythos Preview покажува дека вештачката интелигенција влегува во фаза каде што границата помеѓу корисна технологија и потенцијална безбедносна закана станува сè потенка.
Одлуката да не се објави моделот за јавноста претставува преседан кој сигнализира дека идната трка во AI нема да биде само за перформанси, туку и за контрола, безбедност и геополитичка стабилност