Deepfake е техника со вештачка интелигенција што генерира лажни, но реалистични видеа, аудио или слики. Таа може да манипулира со изгледот, гласот и движењето на личности – често без нивна согласност.
Зошто се опасни deepfakes?
Пред се заради манипулација и измама. Се користат за добивање на чувствителни информации или пристап до безбедносни системи. Тие се извор на дезинформации. Лажни видеа од политичари или јавни личности (како Џо Бајден, Тeјлор Свифт) за изборна манипулација или измами. И пред се влијаат на загрозување на довербата: Граѓаните тешко можат да разликуваат што е вистина, што е измама.
Во 2025 година, во ЕУ се очекуваат 8 милиони deepfake видеа, наспроти само 500.000 во 2023.
Како да се браниме? – Со вештачка интелигенција против deepfake
Алгоритми за откривање фалсификати
Универзитетот во Луксембург тренира AI модели кои препознаваат „реални“ слики. Ако нешто не одговара на „реалниот шаблон“ – се смета за лажно.
Анализа на глас
Технологијата на компанијата Pindrop Security може да анализира милиони точки во гласот на личност и да детектира дали тој е автентичен или клониран. Примена: видео-интервјуа, телефонски повици, верификација при вработување.
Автоматско означување на AI-содржина
Од 1 август 2025, според ЕУ AI Акцијата, сите AI-генерирани содржини (вклучувајќи deepfakes) мора да бидат јасно означени.
Како може обичниот граѓанин да се заштити?
Бидете скептични: Не верувајте веднаш на видеа со шокантна содржина. Проверете изворот: Вистински медиуми ретко објавуваат нешто без проверка. Користете проверени алатки за верификација: Постојат бесплатни online алатки што откриваат манипулации. Барајте ознака „AI-generated“ (посебно на платформи како TikTok, Instagram, YouTube).