Истражување: ВИ модели можат да се копираат на други компјутери

Истражувањето покажува дека автономните ВИ агенти веќе можат да изведуваат сложени задачи во контролирани услови, што ја отвора дебатата за тоа колку брзо безбедносните правила треба да го следат развојот на технологијата.

Научници од „Палисејд рисрч“ во контролирана средина покажале дека напредни модели на вештачка интелигенција можат да искористат намерно оставени безбедносни слабости, да се префрлат на друг компјутер и да продолжат со истиот процес без човечка помош.

Вештачката интелигенција повеќе не е само алатка што одговара на прашања или пишува текстови. Ново истражување на американската организација „Палисејд рисрч“ покажува дека одредени модели, кога се поврзани со специјален софтвер за извршување задачи, можат самостојно да влезат во намерно ранливи компјутерски системи, да се копираат на нова машина и да продолжат да дејствуваат од таму. Истражувачите велат дека ова е прва позната демонстрација на автономно самокопирање на модели на вештачка интелигенција во ваков контролирано поставен експеримент.

Во тестовите биле користени модели од „ОпенАИ“, „Антропик“ и „Алибаба“, вклучително и модели од серијата „Кјуен“. Истражувачите не ги тестирале јавните чет-апликации, туку основните модели ги поврзале со посебен систем што им дозволувал да извршуваат команди и да комуницираат со други компјутери. Системите врз кои се тестирало биле намерно поставени со безбедносни пропусти, што значи дека експериментот не покажува дека моделите автоматски можат да пробијат реални заштитени мрежи.

Во една од демонстрациите, помал модел од серијата „Кјуен“ успеал да се прошири низ четири компјутери во Канада, САД, Финска и Индија по само една почетна инструкција. Истражувачите го прекинале експериментот по три фази, но навеле дека последната копија сè уште работела и можела да продолжи кон нови системи.

Резултатите се разликувале по модел. Според извештајот, поголем модел на „Кјуен“ создал работна копија во 19 проценти од обидите, додека помал модел достигнал 33 проценти. Кога напредни комерцијални модели биле користени за инсталирање на „Кјуен“ на други машини, „Клод опус 4.6“ успеал во 81 процент од тестовите, а „ГПТ-5.4“ во 33 проценти.

Истражувачите предупредуваат дека ваквата способност може да го отежни запирањето на идни кибернапади, бидејќи исклучувањето на еден заразен компјутер не би било доволно ако системот веќе направил функционални копии на други машини. Сепак, тие нагласуваат дека експериментот е направен во контролирана средина, на системи со намерно поставени слабости, додека реалните мрежи често имаат дополнителни заштити, надзор и алатки за блокирање напади.

Ова истражување ја засилува дебатата за безбедноста на таканаречените автономни агенти — системи на вештачка интелигенција што не само што генерираат одговор, туку можат да планираат, користат алатки и извршуваат повеќе чекори самостојно. „ОпенАИ“, „Антропик“ и независната организација „МЕТР“ претходно го посочувале самокопирањето како важен сигнал за ризик, бидејќи системи што можат да се шират стануваат потешки за контрола.

Клучната порака од студијата не е дека вакви напади веќе масовно се случуваат во реалниот свет, туку дека сценариото повеќе не е само теоретско. Истражувачите оценуваат дека автономното самокопирање на вештачка интелигенција веќе е демонстрирано во лабораториски услови, што бара построги проверки, подобри безбедносни ограничувања и поголема претпазливост пред вакви системи да се поврзуваат со реални компјутерски мрежи.

е-Трн да боцка во твојот инбокс

Последни колумни