AI роеви на социјалните мрежи: нова закана за демократијата и информативната војна

Научници предупредуваат дека новата генерација вештачка интелигенција може да создава лажен консензус, да манипулира со јавното мислење и тивко да ги поткопува демократските процеси.

Социјалните мрежи наскоро би можеле да се соочат со нова, тешко препознатлива закана: AI ројеви – координирани групи на вештачка интелигенција кои ќе ширaт дезинформации, ќе вршат организирано вознемирување и ќе влијаат врз јавното мислење и демократските процеси. На ова предупредуваат научници во коментар објавен на 22 јануари во списанието Science, каде AI ројевите се опишуваат како ново оружје во современите информациски војни.

Лажно „мнозинство“ што изгледа реално

За разлика од класичните ботови, кои најчесто се примитивни и лесно препознатливи, овие напредни системи ќе можат убедливо да го имитираат човечкото однесување. Тие ќе се прилагодуваат на заедниците во кои „влегуваат“, ќе учат од интеракциите и ќе создаваат впечаток дека станува збор за спонтано, автентично колективно мислење. На корисниците може да им изгледа дека се формира став на мнозинството, иако во реалноста тој е внимателно оркестриран од вештачка интелигенција.

Авторите укажуваат дека луѓето по природа се склони кон конформизам – често ги прифаќаат ставовите што ги доживуваат како доминантни, бидејќи тоа им дава чувство на сигурност, припадност и општествена прифатливост. Токму оваа човечка слабост, предупредува професорот по комуникации Јонас Кунст од Норвешката бизнис-школа BI, AI ројевите би можеле исклучително ефикасно да ја искористат.

Од манипулација до дигитален линч

Манипулацијата со јавното мислење, сепак, не е единствената опасност. Истите системи можат да се користат и за организирано дигитално вознемирување. Наместо вистински корисници, несогласните гласови на социјалните мрежи би можеле да бидат мета на координирани напади од AI ројеви, кои ќе создаваат притисок сè додека лицето не замолчи или целосно не ја напушти платформата.

Во коментарот се нагласува дека напредокот на големите јазични модели и автономните AI-агенти овозможува манипулација со уверувањата и однесувањето на луѓето на ниво на цело општество. Генеративните алатки овозможуваат масовно производство на пропаганда без губење на кредибилитетот, при што лажните содржини често се доживуваат како „похумани“ од оние што ги создаваат луѓе. Техниките за подобрување на резонирањето на AI, како таканареченото chain-of-thought насочување, можат да се искористат за создавање уште поубедливи невистини.

Човечка слабост што лесно се експлоатира

Со поврзување на овие јазични модели во повеќеагентски системи, се појавува нова закана: ројеви на координирани, злонамерни AI-агенти кои автономно се организираат, инфилтрираат во онлајн заедници и создаваат привид на консензус. Преку имитација на човечката социјална динамика, овие дигитални „организми“ сериозно го поткопуваат демократскиот простор, предупредуваат авторите.

Проблемот, според нив, не е само во злоупотребата на технологијата, туку и во начинот на кој таа е дизајнирана, комерцијализирана и слабо регулирана. Затоа тие не се потпираат на доброволна саморегулација од страна на компаниите или корисниците, туку повикуваат на јасни, обврзувачки правила и мерки што навистина би ја ограничиле потенцијалната штета.

Интернет сообраќај исполнет со ботови

Иако не се наведува прецизен временски рок, научниците предупредуваат дека овие AI ројеви ќе бидат исклучително тешки за откривање. Не може да се исклучи ниту можноста дека одредени форми веќе се во употреба. Дел од корисниците одамна забележуваат зголемено присуство на ботови, а сè почесто се спомнува и т.н. теорија за „мртов интернет“, според која голем дел од онлајн содржините повеќе не ги создаваат луѓе, туку автоматизирани системи.

Проценките покажуваат дека и денес повеќе од половина од интернет-сообраќајот го сочинуваат ботови. Досегашните системи најчесто извршуваат едноставни задачи и релативно лесно се препознаваат, но и тие можат да нанесат значителна штета преку ширење лажни информации и вештачко засилување на одредени наративи.

Новата генерација AI ројеви оди чекор подалеку. Потпирајќи се на истите технологии што стојат зад напредните чат-ботови, овие системи можат да учат, да се прилагодуваат и да создаваат низа убедливи онлајн идентитети со сопствена „меморија“. Во контекст на веќе нарушени дигитални простори, каде рационалната јавна дебата е во опаѓање, ваквите технологии не мора да создадат хаос од нула – доволно е само дополнително да ги засилат постојните поделби.

Авторите заклучуваат дека ова не е далечна дистопија, туку реален и растечки ризик што бара сериозна јавна расправа. Доколку општествата навреме не се подготват, границата меѓу вистинското јавно мислење и вештачки произведениот привид би можела да стане опасно нејасна.

9

е-Трн да боцка во твојот инбокс

Последни колумни