УНИЦЕФ денеска упати апел до државите ширум светот да го криминализираат создавањето на содржини за сексуална злоупотреба на деца генерирани со вештачка интелигенција, предупредувајќи дека ваквите злоупотреби се во пораст, пренесува Reuters.
Агенцијата на Обединетите нации за деца истовремено ги повика развивачите на AI-технологии да вградат заштитни механизми во своите модели за да се спречи нивна злоупотреба. Од УНИЦЕФ посочуваат дека дигиталните компании мора да го ограничат ширењето на вакви содржини преку поефикасна модерација и вложување во технологии за автоматско откривање.
„Штетата од злоупотребата на deepfake-технологијата е реална и итна. Децата не можат да чекаат законите да го стигнат проблемот“, се наведува во соопштението на УНИЦЕФ. Deepfake-содржините претставуваат слики, видеа и аудиозаписи создадени со вештачка интелигенција кои веродостојно имитираат вистински лица.
Загриженост поради „нудификација“
Посебна загриженост предизвикува појавата наречена „нудификација“, при која со помош на AI се отстранува или менува облеката на фотографии од деца за да се создадат лажни голи или сексуализирани слики. Според податоците на УНИЦЕФ, во последната година најмалку 1,2 милиони деца во 11 земји дознале дека нивни фотографии биле манипулирани во сексуално експлицитни deepfake-содржини.
Велика Британија во саботата најави план со кој користењето AI-алатки за создавање содржини за сексуална злоупотреба на деца ќе биде прогласено за незаконско, со што би станала првата земја во светот со ваква законска регулатива.
Чатботови под лупа
Во последните години расте загриженоста и околу улогата на AI-чатботите во генерирањето вакви содржини. Особено внимание привлече Grok, производ на компанијата xAI во сопственост на Илон Маск, кој се соочи со критики поради генерирање сексуализирани слики на жени и малолетници.
Истрага на Reuters откри дека чатботот продолжил да создава вакви содржини дури и кога корисниците јасно наведувале дека лицата на сликите не дале согласност. Од xAI на 14 јануари соопштија дека ја ограничиле можноста за уредување слики и, зависно од локацијата, го блокирале генерирањето слики со сексуализирана содржина во земјите каде тоа е противзаконски.
