Американската компанија Anthropic објави нов модел на вештачка интелигенција наречен Claude Mythos Preview, кој за неколку недели автономно пронашол илјадници критични безбедносни ранливости во сите главни оперативни системи и прелистувачи. Поради исклучително опасниот потенцијал за злоупотреба, компанијата одлучи моделот да не го пушти во јавна продажба, туку пристапот да го ограничи на избрани технолошки компании преку иницијативата Project Glasswing.
Моделот пронашол пропусти стари и по три децении
Claude Mythos Preview, кој Anthropic го опишува како „досега најмоќниот модел кој некогаш го развиле”, покажа способности кои надминуваат се што компанијата претходно го објавила. Во текот на тестирањето, моделот автономно идентификувал стотици zero-day ранливости, односно безбедносни пропусти непознати за самите разработувачи на софтверот. Меѓу наодите се и 27-годишна ранливост во оперативниот систем OpenBSD, кој важи за еден од најзаштитените во светот, и 16-годишен пропуст во платформата FFmpeg, кој автоматизираните алатки го пропуштале пет милиони пати. И двете ранливости се пријавени и закрпени.
Anthropic го задржа моделот подалеку од јавноста
Наместо комерцијално лансирање, Anthropic формираше конзорциум наречен Project Glasswing, преку кој ограничен пристап до Mythos Preview добиле компании како Microsoft, Apple, Amazon, Google, CrowdStrike и Cisco, заедно со околу 40 дополнителни организации кои развиваат или одржуваат критична софтверска инфраструктура. Компанијата издвои до 100 милиони долари во кредити за користење на моделот и четири милиони долари во директни донации за одбранбени безбедносни цели. Целта е безбедносните тимови да добијат предност во откривање и крпење пропусти пред истите можности да им станат достапни на злонамерните актери.
Моделот е поспособен и од најдобрите човечки експерти
На CyberGym бенчмаркот, кој го оценува вештачкиот интелект на задачи за анализа на ранливости, Claude Mythos постигнал резултат од 83,1 отсто. Претходниот лидер на оваа листа, моделот Claude Opus 4.6, стоел на 66,6 отсто. Според Anthropic, AI моделите со вакви способности почнуваат да ги надминуваат сите освен најискусните безбедносни истражувачи во пронаоѓањето и искористувањето на пропусти во кодот. Компанијата предупредува дека ваквите способности наскоро ќе бидат недостапни само за одговорни актери и дека прозорецот за превентивна акција е тесен.
Постојат и скептици за мотивите на Anthropic
Дел од аналитичарите укажуваат дека наративот за „премоќен за јавноста” модел исто така служи како маркетиншка порака: моделот се позиционира како исклучително вреден токму затоа што е недостапен. Anthropic, основана како безбедносно ориентирана алтернатива на OpenAI, досега неколкупати јавно говорела за ризиците на сопствените системи, вклучително и за непознаените механизми во нивните модели. Компанијата во моментов е во преговори со американската влада за условите за воена употреба на нејзините AI системи.