AI го преплавува интернетот со неточности: стручњаците предупредуваат на „контаминација на дигиталното знаење“

Вештачката интелигенција создава содржини побрзо отколку што луѓето можат да ги проверат, а последиците веќе го менуваат интернетот.

Вештачката интелигенција во само неколку години прерасна во најмасовниот и најдостапниот алат за создавање содржини во историјата. Генерира текстови, фотографии и видеа за неколку секунди, речиси бесплатно, во количини што ги надминуваат човечките можности за читање, проверка и уредување. Но паралелно со оваа експанзија, расте загриженоста дека истата технологија ги разнишува темелите врз кои е изграден интернетот – доверба, проверливост и стабилни извори.

На тоа предупредува и новиот видео-извештај на едукативниот канал Kurzgesagt, кој нагласува дека проблемот веќе не е само појава на непроверени содржини, туку системско „загадување“ на дигиталното знаење.

AI создава побрзо отколку што можеме да провериме

Според анализите, околу половина од глобалниот интернет-сообраќај денес го генерираат ботови, од кои значителен дел со деструктивна намера. Огромни количини текстови, видеа и фотографии создадени од луѓе се користат за тренинг на AI–модели – дел купени, дел земени без дозвола или надомест. Истражувачите на Kurzgesagt признаваат дека првично биле импресионирани од моќта на ChatGPT и другите модели, сè додека не почнале систематски да ги проверуваат информациите што ги генерираат. Тогаш откриле токму она од што најмногу стравува научната заедница: комбинација од уверлив стил и неточни податоци.

Примерот со „смеѓите џуџиња“

За да го проверат квалитетот на AI-содржините, тимот побарал од моделите да подготват научно-популарен материјал за смеѓите џуџиња – небесни тела што се на граница меѓу планети и ѕвезди. Резултатите биле збунувачки. Околу 80% од информациите биле коректни и засновани на научни извори. Но преостанатите 20% биле проблематични: моделираат факти што не постојат, наведуваат измислени студии или „авторитети“, иако звучат уверливо.

Кога Kurzgesagt се обидел да ги пронајде изворите, открил дека дел од наводно кредибилните линкови водат до веб-страници создадени речиси целосно со AI – дел од растечката мрежа од над 1.200 страници со масовни дезинформации, кои се појавиле од 2020 наваму.

Интернетот создава сопствени лажни извори

Неколку недели подоцна се појавил нов популарен YouTube видео-материјал за смеѓите џуџиња кој содржел токму оние неточности што Kurzgesagt претходно ги идентификувал како дезинформации. Самото видео, иако добро направено, станало „извор“ – што во дигиталниот екосистем создава ефект на снежна топка: дезинформацијата добива привид на точност бидејќи се појавува на повеќе места.

„Тука започнува смртта на интернетот“, предупредува видеото.

AI секогаш звучи убедливо — и тоа е проблем

Истражувачите нагласуваат дека GPT–моделите звучат елоквентно, логично и сигурно – дури и кога грешат. Токму уверливиот тон создава лажна сигурност кај корисникот. Уште поголем проблем е што моделите, иако признаваат грешка кога ќе им укажете, подоцна повторно ја повторуваат.

„Во тие системи нема ’разговор’ со интелигенција. Тоа се статистички машини кои се обидуваат да погодуваат следен збор, а ние им дозволуваме да додаваат нови полици во нашите дигитални библиотеки“, предупредуваат авторите.

Пад на довербата, но раст на контаминацијата

Истражувањата на Pew Research, Gallup и други центри покажуваат драматичен пад на довербата во LLM-моделите – од 45–55% во 2023 година, на само 15–30% во 2025 година. Тоа е најбрз пад на доверба во некоја технологија што некогаш е измерен. Но недовербата сама по себе не го решава проблемот: интернетот продолжува да се полни со AI-содржини.

Кризата навлегува и во науката

Во 2024 година, научниците анализирале околу еден милион научни трудови и забележале нагол пораст на зборови типични за AI–генерирани текстови. Уште позагрижувачки е откритието од 2025 година: некои автори незабележливо вметнувале „невидливи“ пораки со бели букви во PDF-документи, за алгоритмите за рецензија да им даваат повисоки оценки. За ова веќе пишуваа Nature и Smithsonian.

Петлата на самоконтаминација

Како што дигиталниот простор станува презаситен со AI-текстови, истите тие содржини повторно завршуваат како тренинг-дата за новите модели. Со секоја итерација, зголемена е веројатноста AI да учи на сопствените грешки.

Тоа значи дека идните генерации модели ќе бидат сè повеќе „само-рефлективни“ – а тоа ја намалува точноста.

Границите на креативноста

Студија на проф. Дејвид Кропли покажува дека LLM-моделите имаат природно математичко ограничување во креативноста. Според него, максималната „креативна вредност“ на моделите е околу 0.25–ниво што одговара на просечен аматерски автор, а не на професионален.

Каде води ова?

Kurzgesagt заклучува дека, ако трендот продолжи, интернетот ќе биде преплавен од „евтини, брзи и доволно добри“ содржини што ќе ја преземат целата човечка внимание. Тие предвидуваат дека тоа може да доведе до намалена концентрација, слабеење на колективното знаење и долгорочна ерозија на дигиталната култура.

е-Трн да боцка во твојот инбокс

Последни колумни