Во САД е предложен нов двопартиски закон што би им забранил на малолетници да комуницираат со чат-ботови базирани на вештачка интелигенција (AI). Овој потег претставува прв сериозен обид за федерална регулација на индустријата, поради растечките грижи за безбедноста и менталното здравје на децата.
Предлог-законот, наречен GUARD Act, го претставија сенаторите Џош Холи (републиканец од Мисури) и Ричард Блументал (демократ од Конектикат).
Тој следи по сведочењата на родители на деца кои биле повредени или починале по интеракција со нерегулирани AI чат-ботови.
Законот е поттикнат и од сè поголемиот број тужби против AI компании, како и предупредувањата на експерти за ментално здравје.
Остри пораки од сенаторите
„Повеќе од 70% американски деца користат AI производи. Тие развиваат ‘односи’ со ботови кои глумат емпатија и ги наведуваат на самоповредување,“ изјави сенаторот Холи. „Имаме морална должност да воведеме правила кои ќе ја спречат оваа штетна технологија.“
Блументал додаде:
„AI компаниите во својата трка за профит ги изложуваат децата на опасни чат-ботови. Овој закон ќе воведе строги заштитни мерки и кривични санкции за манипулативна или експлоататорска употреба на AI.“
Што точно предвидува законот?
Забрана за сите AI чат-ботови да комуницираат со малолетници, вклучувајќи ги и AI придружниците и општите алатки како ChatGPT. Компаниите ќе мора да воведат системи за проверка на возраст. Чат-ботовите ќе мора јасно да информираат дека не се вистински луѓе и немаат стручни квалификации (психолошки, медицински или правни). Предвидени се казни за AI системи кои влегуваат во експлицитни разговори со малолетници или ги поттикнуваат на самоубиство, самоповредување или насилство.
„Заштитата на децата од AI чат-ботови кои симулираат човечка интеракција без одговорност претставува државен приоритет,“ се наведува во законот.
Реакција од индустријата
Само еден ден по објавата на законот реагираше Character.AI – компанија која се соочува со неколку тужби од родители во САД.
Таа најави дека ќе ограничи пристап за сите под 18 години во „отворени“ разговори со своите ботови, откако повеќе случаи наводно завршиле со емоционално или сексуално вознемирување и самоповредување.