Технологијата за deepfake користи вештачка интелигенција (AI) за да создаде видео или аудио записи со лица на луѓе без нивна согласност, а за тоа се потребни само неколку фотографии од лицето. Иако некои ја користат за забава преку апликации за замена на лица и филтри на социјалните мрежи, deepfake технологијата често се злоупотребува, особено во создавање на порнографија без согласност на жените.
Во 2019 година, компанијата Deeptrace процени дека 96% од deepfake видеата се порнографски, а мнозинството се направени без дозвола од лицето прикажано на снимката. Оваа појава е особено штетна и травматична, влијаејќи врз личниот и професионален живот, психичкото здравје и меѓучовечките односи на жртвите.
Во последниве години, дури и малолетни девојчиња биле жртви на deepfake порнографија, а нивните фотографии биле споделувани на социјални мрежи во училиштата. Жените се посебно таргетирани, а оваа технологија се користи и за клеветење на активистки и новинарки.
Тешко е да се препознаат deepfake-ови, бидејќи технологијата постојано се усовршува. Многу жртви се соочуваат со дополнителна злоупотреба како уцени и сексуална експлоатација.
Иако некои земји, како Велика Британија, САД (неколку држави), и Тајван, воведоа закони против non-consensual deepfakes, во многу делови од светот правниот систем сè уште се обидува да стигне чекор со развојот на технологијата.
Експертите и активистите бараат глобална и координирана акција од владите, полицијата и заедниците за да се воспостави одговорност и да се спречат злоупотребите кои може да им ја уништат животната иднина на луѓето.