Европската унија воведува строги правила за високоризична вештачка интелигенција
Од август 2026 година, во сите земји-членки на Европската унија официјално ќе почнат да се применуваат правилата за високоризична вештачка интелигенција, како дел од Актот за вештачка интелигенција (AI Act) – првиот сеопфатен правен рамковен документ во светот кој системски ги регулира ризиците поврзани со развојот и примената на АИ.
Актот беше усвоен уште во 2024 година, а неговото спроведување започна постепено во 2025 година. За целосна имплементација беше предвиден преоден период од две години. Како и другите членки на ЕУ, Хрватска веќе делумно го применува овој акт, но од август годинава ќе мора целосно да ги почитува правилата што се однесуваат на високоризичните АИ-системи.
Цел: доверлива и безбедна вештачка интелигенција
Главната цел на Актот за вештачка интелигенција е да воспостави јасни правила со кои ќе се поттикне доверлива, безбедна и одговорна АИ во Европа, така што граѓаните ќе можат да имаат доверба во технологиите што ги користат. Регулативата се темели на пристап заснован на ризик, при што обврските за развивачите и корисниците на АИ зависат од потенцијалната опасност што одреден систем може да ја предизвика.
Иако најголемиот дел од постојните АИ-системи се сметаат за низок или минимален ризик, одредени примени носат сериозни закани по здравјето, безбедноста и основните човекови права – токму тие се во фокусот на регулативата.
Што се смета за високоризична вештачка интелигенција?
Како високоризични се класифицираат АИ-системи што можат значително да влијаат врз животот на луѓето, меѓу кои:
- безбедносни АИ-компоненти во критична инфраструктура (на пр. транспорт);
- АИ-системи во образованието што влијаат врз пристапот до образование или кариерен развој (оценување испити);
- АИ во медицински и хируршки уреди;
- алатки за вработување и управување со работници (сортирање биографии);
- АИ за пристап до основни јавни и приватни услуги (кредитно оценување);
- биометриска идентификација, препознавање емоции и биометриска категоризација;
- употреба на АИ во органите на прогонот и судството;
- АИ-системи во управувањето со миграции, азил и граничен надзор.
Овие системи ќе смеат да се пласираат на пазарот само доколку исполнат строги услови, како што се: процена и намалување на ризици, висок квалитет на податоците, можност за следливост, детална техничка документација, човечки надзор, сајбер-безбедност и висока точност.
Ограничен и неприфатлив ризик
Покрај високоризичните, Актот препознава и АИ со ограничен ризик, каде што главниот фокус е транспарентноста. На пример, корисниците мора јасно да знаат кога комуницираат со чатбот или содржина генерирана од АИ.
Најстрогата категорија е неприфатливиот ризик, за која веќе од февруари 2025 година важат целосни забрани. Меѓу нив се: социјално бодирање, масовно собирање биометриски податоци, препознавање емоции на работни места и во училишта, манипулативна АИ и биометриска идентификација во реално време за полициски цели на јавни места.
Што следува понатаму?
По ставањето на АИ-системите на пазарот, надлежните институции ќе го вршат надзорот, компаниите ќе мора да обезбедат човечки надзор, а развивачите ќе бидат обврзани да пријавуваат сериозни инциденти и неправилности.
Регулативата на ЕУ за вештачка интелигенција претставува амбициозен, но неопходен чекор кон одговорен технолошки развој. Иако носи предизвици за компаниите и развивачите, таа создава основа за побезбедна, потранспарентна и поетична примена на АИ, со цел технологијата да биде во служба на човекот и општеството.
