AI роеви: Новата дигитална закана што тивко ја поткопува демократијата

AI роеви – координирани системи од вештачка интелигенција – можат тивко да манипулираат со јавното мислење, да шират дезинформации и сериозно да ја загрозат демократијата, предупредуваат научници.

Вештачката интелигенција наскоро би можела масовно да ги преплави социјалните мрежи не преку поединечни ботови, туку преку координирани „роеви“ на AI агенти кои шират дезинформации, манипулираат со јавното мислење и ги нарушуваат демократските процеси. На ова предупредуваат научници во коментар објавен на 22 јануари во престижното научно списание Science.

Според авторите, таканаречените AI роеви претставуваат ново оружје во современите информациски војни значително поопасно од досегашните примитивни ботови.

Потешки за откривање од класичните ботови

За разлика од класичните ботови, кои најчесто се лесно препознатливи по повторувачка содржина и едноставно однесување, AI роевите можат убедливо да имитираат луѓе. Тие се способни да се приспособуваат на заедниците во кои се инфилтрираат, да комуницираат контекстуално и да создадат впечаток на спонтано и автентично јавно мислење.

На корисниците може да им изгледа дека „мнозинството“ одеднаш зазело цврст став за одредена тема, иако тоа мислење всушност е резултат на координирано дејствување на вештачка интелигенција.

Манипулација со чувството за мнозинство

Коавторот на анализата, професорот по комуникации Јонас Кунст од Бизнис школата BI во Норвешка, укажува дека луѓето по природа се склони кон конформизам.

„Луѓето често веруваат дека ставот што го дели мнозинството има посебна вредност. Токму таа психолошка слабост AI роевите можат исклучително ефикасно да ја искористат“, предупредува Кунст.

Но манипулацијата со мислењето не е единствената опасност. Истите системи може да се користат и за организирано дигитално вознемирување автоматизирани напади врз поединци кои имаат спротивни ставови, сè додека тие не се замолчат или не ја напуштат платформата.

Авторите нагласуваат дека напредокот на големите јазични модели (LLM) и автономните AI агенти овозможува манипулација со убедувањата и однесувањето на цели популации.

Генеративните алатки можат масовно да произведуваат пропаганда без губење на кредибилитет, создавајќи лаги што често се доживуваат како „похумани“ од оние напишани од луѓе. Дополнително, напредните техники за резонирање им овозможуваат на AI системите да создаваат уште поубедливи и софистицирани дезинформации.

Со поврзување на повеќе AI агенти во координирани системи, се создаваат дигитални „роеви“ способни самостојно да се организираат, да се инфилтрираат во заедници и да создаваат илузија на консензус – сериозна закана за демократските општества.

Опасност што можеби веќе е тука

Иако не е прецизиран точен временски рок за масовна појава на вакви AI роеви, научниците предупредуваат дека тие ќе бидат исклучително тешки за откривање. Не е исклучено дел од нив веќе да се користат.

Проценките покажуваат дека повеќе од половина од вкупниот интернет-сообраќај веќе го сочинуваат ботови, што дополнително ја замаглува границата меѓу автентичното и автоматизираното онлајн присуство.

Повик за правила, не само добра волја

Авторите заклучуваат дека проблемот не е само во злоупотребата на AI, туку и во начинот на кој овие технологии се развиваат, комерцијализираат и регулираат. Затоа повикуваат на јасни и обврзувачки правила, а не само на препораки што лесно се игнорираат.

Ако општествата не реагираат навреме, предупредуваат научниците, границата меѓу реалното јавно мислење и вештачки создадениот привид може да стане опасно нејасна.

е-Трн да боцка во твојот инбокс

Последни колумни