Дипфејк фотографии: невидливата закана за приватностa и менталното здравје на жените

Како синтетичките фотографии и deepfake содржини го менуваат дигиталниот свет, влијаат на приватноста и менталното здравје на жртвите, и што се прави во Македонија и светот за да се заштитат граѓаните.

Во последните години, појавата на deepfake, фотореалистични слики и видеа генерирани од вештачка интелигенција (АИ), се претвори од научно-фантастична фикција во сериозен глобален безбедносен, правен и етички проблем. Deepfake технологијата веќе не е само новина за забавни филмови или мемиња, туку таа ја допира приватноста, достоинството и безбедноста на поединци, и ги поткопува основите на довербата и вистината во дигиталната комуникација.

Што точно се deepfake фотографии?

Deepfake фотографии се синтетички медиуми, фотографии, создадени со напредни техники на генеративно машинско учење кои можат да создадат или манипулираат реалистични слики на лица, објекти или сцени што никогаш не се случиле. Тие користат алгоритми како GANs (Generative Adversarial Networks) или други модерни модели на генерација на слика, кои се тренираат со огромни бази на податоци од реални фотографии.

Со растот на технологијата, разликата помеѓу вистинска и лажна слика станува сè потешко да се забележи со човечко око, што доведува до огромен потенцијал за злоупотреба, од ширење дезинформации и политички манипулации до непристојни, сексуализирани или навредливи генерации без согласност.

Од кога deepfake-от е проблем?

Оригиналниот термин deepfake е документиран првпат околу 2017–2018 година, кога корисник на интернет форум почна да споделува АИ-генерирани порнографски видеа со лица на јавни личности. Од тогаш, развојот на технологијата експоненцијално се забрза, а проблемите со deepfake содржини сега се гледаат низ повеќе контексти: дезинформации, политички манипулации, кражба на идентитет, приватност, и злоупотреба на интимни фотографии.

Каде deepfake е најголем проблем во светот?

Некои од најозлогласените случаи и најтешките закани се непристојни deepfake содржини, масовно создадени без согласност на луѓе, особено жени и малолетници, предизвикувајќи големо емоционално и социјално оштетување. Во 2024 година, сексуално експлицитни deepfake слики на американската пејачка Taylor Swift се проширија ширум социјалните мрежи, потсетувајќи на глобалните ризици од ваков материјал. Telegram групи и ботови. Истражувања покажуваат дека ботовите на Telegram можеле да генерираат непристојни deepfake слики за илјадници корисници секој месец, користејќи алгоритми што „ги одземаат“ обичните фотографии и ги конвертираат во порнографски материјали.

Дали постои заштита од deepfake фотографии?

Постојат две клучни категории заштитни механизми. Прво се технологии за откривање, односно компјутерски алатки што анализираат „отпечатоци“ на создавање, или „фингерпринт“ на невронски мрежи но речиси секоја нова генеративна верзија овие методи ги прави помалку ефикасни. Потоа платформи како Microsoft развиваат посебни детекциски алатки, но нивната ефикасност варира и честопати заостанува зад брзата еволуција на deepfake генерацијата.

Правни и регулаторни рамки

На глобално ниво, се развиваат закони што целат да го регулираат создавањето и споделувањето на deepfake содржини. Во речиси сите поголеми правни системи се прават обиди да се класифицира ова како злоупотреба на приватноста, клевета или облик на дигитално насилство. На пример, во САД сенатот едногласно усвои DEFIANCE Act, кој им овозможува на жртвите на непристојни deepfake да тужат за цивилни штети. Во Велика Британија, креирањето или споделувањето на non-consensual deepfake слики сега е кривично дело во рамки на закони за заштита од навредливо дигитално насилство. Во Шпанија се усвојуваат закони што бараат согласност за користење на слики и гласови, и ја ограничуваат комерцијалната злоупотреба на deepfake содржини.

Дополнително, во ЕУ постојат закони како Digital Services Act (DSA) кои го прават одговорно платформите да отстрануваат штетни deepfake содржини и да работат со факт-чекери.

Како законот се справува во Македонија?

Во контекст на Македонија, ситуацијата е сложена и делува како да заостанува зад реалноста на дигиталните закани. Не постои посебен закон за deepfake технологии – земјата нема специјална легислатива која конкретно го третира создавањето или споделувањето на deepfake содржини како кривично дело. Досега, случаи на злоупотреба на туѓи слики биле третирани преку казнените одредби за злоупотреба на лични податоци, кои не секогаш доволно ги опфаќаат специфичните случаи на deepfake експлоатација. Има најави за дополнување на Кривичниот законик, вклучително и одредби што би го санкционирале создавањето и споделувањето на експлицитни дигитални содржини без согласност, но тие сè уште не се целосно имплементирани.Заштита на лични податоци постои преку законот за заштита на лични податоци (кој е во согласност со GDPR стандарди), но тоа не е специфицирано за deepfake и честопати е тешко да се примени конкретно на генеративни АИ слики.

Истражувачки извори покажуваат дека во Македонија дури постојат правни празнини за случаите на deepfake-насилство, содржини кои се шират за да навредат, уценуваат или понижуваат жени или мажи преку фалсификувана интимна содржина често завршуваат како општ случај на злоупотреба на лични податоци, наместо како специфично дигитално злосторство со соодветни казнени мерки.

– Жените и девојките во Македонија, ниту се заштитетни од насилство, ниту овој систем ги препознава. Многу често, во обидот на креирање на подобри стратегии за тоа како да се адресираат повеќеслојно и интерсекциски проблемите со родовата нееднаквост и родово базираното насилство зборуваме како овој проблем е политичко прашање, а не само женско прашање,  и така треба да го адресираме, вели активистката Сара Миленковска во интервју за Трн.

Како законодавството може да се подобри?

Експертите сметаат дека земјава треба да интегрира посебни одредби за deepfake и дигитално сексуално насилство во Кривичниот законик, наместо да се потпира само на општи членови за злоупотреба на податоци, да обезбеди јасни механизми за брзо отстранување на deepfake содржини и да даде права на жртвите за надомест и заштита, да образува јавна и институционална свест за тоа што се deepfake слики и опасностите од нив и да ги задолжи платформите и апликациите, со што ќе мора да имаат механизми за спречување и брзо реагирање на пријавени случаи.

Како се генерираат deepfake фотографии?

Технологијата зад deepfake материјалите се разви од напредокот во длабокото учење и генеративните модели. Тренинг на модели или големи невронски мрежи се тренираат на илјадници фотографии на лице за да научат карактеристики како облик на лице, тон на кожа, изрази и светлосни услови. Генерација, откако е обучен, моделот може да генерира слики со користење на текстуални описни промптови или со манипулација на постоечка фотографија. Техники како StyleGAN или други генеративни архитектури можат да создадат нови лица што не постојат, или да ги „заматат“, променат или заменат лицата во постоечка слика со други.

Популарни генеративни алатки (или модели што потенцијално можат да бидат злоупотребени за deepfakes) вклучуваат опен-сорс библиотеки и АИ модели од големи технологиски компании – иако нивни официјални имиња често се менуваат со брз развој. Овие алатки со години се користат за легитимни цели (на пр. во маркетинг, медиуми или креативни индустрии), но нивната лесна достапност и моќ ги ставаат и во рацете на злонамерни корисници.

Како deepfake содржините се шири на интернет?

Не само што deepfake сликите лесно се генерираат, туку и многу лесно се споделуваат. Масовните платформи како социјалните мрежи, но и апликации за пораки со големи групи како Telegram, се користат за делба на овој материјал. Во одредени случаи, како групите AlbKings кои беа следени од медиумските истражувачи, членови побарале фотографии од луѓе од градови во Македонија со цел да создадат и споделат експлицитни deepfake слики. Администраторите на такви групи беа уапсени во Косово за злоупотреба на лични податоци, но многу учесници избегнале притвор.

Овој феномен со невидена брзина го надминува опфатот на едноставни „Photoshop“ манипулации; генеративните модели можат да произведат реалистични фотографии или видеа кои „гледачот“ тешко може да ги разликува од вистински.

Менталното влијание на deepfake порнографија и слични злоупотреби

Длабоките фалсификати кои создаваат интимни или сексуални слики од жени без нивна согласност можат да предизвикаат трауматски реакции и други психолошки симптоми кои личат на оние кај жртвите на сексуално злоставување.

Истражување објавено во научниот магазин AI & Society покажува дека жртвите на неконсентуална синтетичка интимна слика (deepfake IBSA) пријавуваат негативни емоции како очај, срам, вина, депресија, стрес, дури и симптоми поврзани со посттрауматски стресен пореметување (PTSD). Овие состојби вклучуваат и нарушувања во секојдневниот живот, неможност да се излезе од дома, избегнување на социјални медиуми, и навлегување на мисли за содржините што никогаш не се случиле во реалноста — а сепак ги доживуваат како вистински настан.

Друга студија открива дека жените го доживуваат deepfake порнографското злоупотребување како значително повредливо и криминално, додека мажите често го перцепираат помалку сериозно, што укажува на разлики во искуството на штетата помеѓу половите.

Психолошки механизми на штета

Експертите објаснуваат дека deepfake содржините предизвикуваат психолошка траума и постојаното чувство на загрозеност, срам, презир и нарушено чувство на лична безбедност може да резултира со анксиозност, депресија, неможност за социјална интеракција и повлекување од активностите што порано ги правеле жртвите. Тие често чувствуваат постојана загриженост дали некој видел или ќе види deepfake содржина со нивниот лик — што може да предизвика немир, панични напади, проблеми со спиење или концентрација. Тука е секако и деструкција на довербата и сомнежот дали пријатели или колеги ќе веруваат дека deepfake е реален (дури и кога е не) може да води до социјална изолација, намалено самодоверба и страдања во меѓучовечки односи.

Широка загриженост, но недостаток на големи проучувања

Иако конкретни големи студии што мереле „ментално здравје“ кај жени-жртви на deepfake порнографија директно се сè уште ретки, достапните истражувања и анкети откриваат важни индиректни и директни психолошки ефекти. Едно истражување пронајде дека жените се значително загрижени од ризикот да станат жртви на deepfake порнографија — 61% од жените откриени во британска анкета рекоа дека се загрижени за тоа, во споредба со помал процент на мажи. Уште едно национално истражување покажа дека иако дел од јавноста гледа deepfake порнографија како „непријатно“, голем дел од популацијата недоволно ја сфаќа сериозноста на кривичното дело и штетата, што дополнително може да ги влоши психолошките ефекти за жртвите кои не се поддржани или разбрани од општеството.

Спој со други форми на злоупотреба

Освен што deepfake содржините самите по себе можат да бидат трауматски за жртвите, тие често се врзуваат со други злоупотреби. Deepfake материјалот може да се користи како средство за сексторција или уцена, што значи дека жртвите дополнително доживуваат стрес, страв, загрозена безбедност, па дури и финансиски последици. Кога deepfake се комбинира со други форми на дигитално злоупотребување (на пр. doxing или навредливи коментари на социјални мрежи), резултатите може да бидат уште поразителни и влијаат на долгогодишно ментално здравје.

Deepfake технологијата е двосечен меч – таа носи и потенцијал за креативни и корисни примени, но истовремено предизвикува сериозни ризици за приватноста, достоинството и безбедноста на поединците и за демократијата како таква. Додека многу земји веќе работат на законски рамки што ќе ги санкционираат злонамерните користења, Северна Македонија сè уште се соочува со правни празнини и предизвици во заштитата на граѓаните од deepfake злоупотреби. Брзото адаптирање на законодавството и етичките стандарди е клучно за иднината на дигиталното живеење.

е-Трн да боцка во твојот инбокс

Последни колумни