Компјутер што „не знае да брои“: зошто AI не е научник, туку алатка?

Oсврт на улогата на вештачката интелигенција – зошто LLM моделите не разбираат, туку предвидуваат и каде навистина се корисни.

Идејата дека вештачката интелигенција може да стане рамноправен учесник во научни истражувања звучи привлечно, но и сериозно проблематично. Последните најави од OpenAI за системи што ќе „соработуваат со научници“ дополнително ја разгоруваат оваа дебата, често придружена со сензационализам дека AI веќе ги надминал луѓето.

Но, според критичкиот осврт на експертите, ваквите тврдења се погрешни во својата суштина. Да се каже дека некој јазичен модел „решил проблем“ е исто како да се каже дека Microsoft Excel решил математички проблем или дека Microsoft Word напишал книга и притоа се игнорира улогата на човекот кој го користи алатот.

Алатка, не интелигенција

Клучната заблуда лежи во тоа што големите јазични модели (LLM) не „разбираат“ реалност. Тие функционираат како статистички системи што предвидуваат кој следен збор има најголема веројатност да се појави, врз основа на огромни бази на текст.

Резултатот често изгледа импресивно, разговорите се течни, одговорите логични. Но зад тоа стои чиста веројатност, не вистинско разбирање.

Кога AI не може да брои

Практичните примери го откриваат ограничувањето. Во еден тест, AI модел требало да изброи полиња во матрица 15×15. Наместо точен резултат, моделот давал хаотични пресметки од типот „1+1+1=21… чекај да проверам“.

Причината е едноставна: моделот не брои, туку препознава шаблони. За него, „1+1+1“ не е математичка операција, туку низа што треба да продолжи статистички.

Кога кодот работи – но нема смисла

Во друг пример, AI требало да генерира Python скрипта за составување елементи во игра. Резултатот бил технички исправен код без грешк но логички погрешен. Наместо да комбинира повеќе елементи, системот користел само еден и го повторувал. Со секој обид за корекција, моделот „разбирал“ што треба да направи – но резултатите станувале сѐ полоши.

Решението дошло дури кога човекот го променил пристапот: наместо AI да „разбере“, му била дадена конкретна задача да генерира алат (plugin), кој потоа работи детерминистички и предвидливо.

Главната поента

Заклучокот е јасен: вештачката интелигенција не е колега, туку алат. Таа е одлична за генерирање код, пребарување и сумирање информации и автоматизација на повторливи задачи.

Но не треба да се користи како автономен систем што самостојно носи одлуки или решава комплексни проблеми.

Нова реалност, но со граници

И покрај амбициите на компании како OpenAI да создадат „AI истражувачи“, реалноста засега е далеку поприземна. LLM моделите остануваат недетерминистички за ист влез даваат различни резултати, понекогаш и целосно погрешни.

Затоа, најпрактичниот совет е едноставен: не размислувајте за AI како за партнер, туку како за напредна база на знаење и алатка. Во спротивно, ризикувате да добиете нешто што изгледа паметно, но не знае ни да брои.

Превземени од BUG

е-Трн да боцка во твојот инбокс

Последни колумни