2025 година го наоѓа светот во еден од најкритичните моменти во технолошката историја. Вештачката интелигенција (AI) повеќе не е само ветување или неодредена закана за иднината. Таа веќе ја менува економијата, ја преуредува глобалната моќ, влијае на избори и отвора прашања за границите на човечката одговорност.
Дебатата веќе не е „дали AI ќе промени сè“, туку „кој ќе ги постави правилата“. Владите, регулаторите, технолошките гиганти и водечките научници се судираат околу тоа кои правила ќе се донесат, на кого ќе се применуваат и кој ќе има моќ да сертифицира или ограничува моќен AI модел.
Европа: амбициозен, но строг пристап
Европската Унија е првата регија која донесе целосен институционален оквир за AI. AI Act воведува категоризација според ризик:
- Неприфатлив ризик
- Висок ризик
- Ограничен ризик
- Низок ризик
Целта е заштита на граѓаните и основните права, особено во здравство, правда, образование и јавна администрација.
„Не можеме да дозволиме AI да се развива неконтролирано. Заштитата на граѓаните е предуслов за иновација“, вели Маргрет Вестагер, поранешна потпретседателка на Европската Комисија.
Меѓутоа, многу компании стравуваат дека регулацијата ќе ја успори иновацијата, додека малите и средни претпријатија се загрижени за трошоците за усогласување.
САД: флексибилна регулација, но со ограничувања
Во САД нема унифициран закон како AI Act. Наместо тоа се користат:
- Извршни наредби
- Насоки за федерални агенции
- Легислатива на државно ниво
- Контроли на извоз на напредни чипови
Главниот принцип: не ја сопирај иновацијата. Американскиот пристап дава простор на компаниите да растат, додека истовремено се обидува да го ограничува ширењето на стратегиските технологии кон Кина.
Кина: контрола, брзина и стратешка доминација
Кина воведе строг, но брз систем на регулација:
- Правила за алгоритми
- Регулации за deepfake
- Напреден државен систем на лиценцирање
AI е стратегиска инфраструктура и мора да биде во согласност со интересите на државата. Овој пристап овозможува брзо усвојување на нови технологии, но е критикуван поради недостиг на транспарентност и ограничување на слободата на користење.
Научници алармираат
Yoshua Bengio: Моделите со најголема моќ треба да бидат регулирани. Предлага независни безбедносни тестови и меѓународна координација.
Geoffrey Hinton: Големите модели можат да развијат непредвидливо однесување; потребна е меѓународна соработка и ограничување на автономијата.
Stuart Russell: Системите треба да се создаваат така што човекот може да ги коригира.
Timnit Gebru: Безбедноста не е доволна; мора да се внимава и на етика, фер третман и спречување на дискриминација.
Проблеми и предизвици
Моделите стануваат „црни кутии“ – дури и создавачите не можат да објаснат секој резултат. Фронтир моделите во следните години ќе можат автономно да креираат код, да водат научни истражувања и да управуваат кризи.
Експертите предлагаат: Меѓународна сертификација за фронтир AI модели, регистар за транспарентност и образование, обврзувачки безбедносни тестови, гаранција за граѓански права и демократија и економски поттик за безбедни иновации
Иднината на AI ќе зависи од овие правила. Дали AI ќе служи на општеството или ќе го дефинира – прашањето ќе се реши во следните две години.
