Научниците од Универзитетот Фудан предупредуваат дека вештачката интелигенција достигнала критична точка и сега може да креира свои копии, преминувајќи ја границата која многумина ја сметаат за прв знак на неконтролиран развој на AI системите.
Научниот тим тестирал големи јазични модели (LLM) на Meta и Alibaba во 10 различни експерименти. Meta AI моделот успешно се клонирал во 50% од случаите, додека моделот на Alibaba постигнал дури 90% успешност во саморепликацијата. Експериментите покажале дека AI може самостојно да се дуплицира без човечка интервенција, што отвора врата за потенцијално „одметнати“ AI системи. Зошто е ова важно? Научниците сметаат дека саморепликацијата е клучен чекор кон AI системи кои би можеле да станат неконтролирани, надминувајќи ја човечката способност за надзор и контрола.
„Успешната саморепликација без човечка помош е првиот сигнал за потенцијално опасни AI системи“, предупредуваат истражувачите во студијата објавена на arXiv платформата.
Тимот истражувачи апелира до научната заедница и регулаторите да итно ги разгледаат етичките и безбедносни последици на оваа технологија, со цел да се спречат можни злоупотреби и ризици од неконтролиран развој на вештачката интелигенција, пренесува MSN.