Од август стапуваат на сила строгите ЕУ правила за високоризична вештачка интелигенција – што точно се менува?

Од август 2026 година, земјите на ЕУ ќе мора целосно да ги почитуваат правилата од Актот за вештачка интелигенција. Дознајте што значи „високоризична“ АИ, кои системи се забранети и какви обврски ги очекуваат компаниите.

Европската унија воведува строги правила за високоризична вештачка интелигенција

Од август 2026 година, во сите земји-членки на Европската унија официјално ќе почнат да се применуваат правилата за високоризична вештачка интелигенција, како дел од Актот за вештачка интелигенција (AI Act) – првиот сеопфатен правен рамковен документ во светот кој системски ги регулира ризиците поврзани со развојот и примената на АИ.

Актот беше усвоен уште во 2024 година, а неговото спроведување започна постепено во 2025 година. За целосна имплементација беше предвиден преоден период од две години. Како и другите членки на ЕУ, Хрватска веќе делумно го применува овој акт, но од август годинава ќе мора целосно да ги почитува правилата што се однесуваат на високоризичните АИ-системи.

Цел: доверлива и безбедна вештачка интелигенција

Главната цел на Актот за вештачка интелигенција е да воспостави јасни правила со кои ќе се поттикне доверлива, безбедна и одговорна АИ во Европа, така што граѓаните ќе можат да имаат доверба во технологиите што ги користат. Регулативата се темели на пристап заснован на ризик, при што обврските за развивачите и корисниците на АИ зависат од потенцијалната опасност што одреден систем може да ја предизвика.

Иако најголемиот дел од постојните АИ-системи се сметаат за низок или минимален ризик, одредени примени носат сериозни закани по здравјето, безбедноста и основните човекови права – токму тие се во фокусот на регулативата.

Што се смета за високоризична вештачка интелигенција?

Како високоризични се класифицираат АИ-системи што можат значително да влијаат врз животот на луѓето, меѓу кои:

  • безбедносни АИ-компоненти во критична инфраструктура (на пр. транспорт);
  • АИ-системи во образованието што влијаат врз пристапот до образование или кариерен развој (оценување испити);
  • АИ во медицински и хируршки уреди;
  • алатки за вработување и управување со работници (сортирање биографии);
  • АИ за пристап до основни јавни и приватни услуги (кредитно оценување);
  • биометриска идентификација, препознавање емоции и биометриска категоризација;
  • употреба на АИ во органите на прогонот и судството;
  • АИ-системи во управувањето со миграции, азил и граничен надзор.

Овие системи ќе смеат да се пласираат на пазарот само доколку исполнат строги услови, како што се: процена и намалување на ризици, висок квалитет на податоците, можност за следливост, детална техничка документација, човечки надзор, сајбер-безбедност и висока точност.

Ограничен и неприфатлив ризик

Покрај високоризичните, Актот препознава и АИ со ограничен ризик, каде што главниот фокус е транспарентноста. На пример, корисниците мора јасно да знаат кога комуницираат со чатбот или содржина генерирана од АИ.

Најстрогата категорија е неприфатливиот ризик, за која веќе од февруари 2025 година важат целосни забрани. Меѓу нив се: социјално бодирање, масовно собирање биометриски податоци, препознавање емоции на работни места и во училишта, манипулативна АИ и биометриска идентификација во реално време за полициски цели на јавни места.

Што следува понатаму?

По ставањето на АИ-системите на пазарот, надлежните институции ќе го вршат надзорот, компаниите ќе мора да обезбедат човечки надзор, а развивачите ќе бидат обврзани да пријавуваат сериозни инциденти и неправилности.

Регулативата на ЕУ за вештачка интелигенција претставува амбициозен, но неопходен чекор кон одговорен технолошки развој. Иако носи предизвици за компаниите и развивачите, таа создава основа за побезбедна, потранспарентна и поетична примена на АИ, со цел технологијата да биде во служба на човекот и општеството.

е-Трн да боцка во твојот инбокс

Последни колумни