Вештачката интелигенција сè почесто се користи како извор на информации, но и понатаму не е непогрешлива. Големите јазични модели како ChatGPT, Google Gemini и DeepSeek понекогаш „халуцинираат“ – односно генерираат уверливи, но неточни одговори.
Проблемот настанува затоа што овие системи не „знаат“ факти во класична смисла, туку предвидуваат која е најверојатната следна зборовна единица врз основа на огромни количини податоци. Кога не можат да препознаат јасен образец, можат да „пополнат празнини“ со логичен, но погрешен одговор.
Според анализа на компанијата Legal Guardian Digital, која се занимава со SEO оптимизација за правни фирми, различните AI модели покажуваат значајни разлики во точноста и стабилноста на одговорите.
Резултатите покажуваат дека Google Gemini има највисока стапка на грешки – околу 32% неточни одговори, што го става на врвот по „халуцинации“. Веднаш зад него е ChatGPT со околу 30% погрешни одговори.
Од друга страна, најточен е Perplexity AI, со околу 13% грешки, додека DeepSeek и Grok имаат пониски стапки, околу 14% и 15%.
И покрај разликите во точноста, задоволството на корисниците не секогаш оди во иста насока. ChatGPT и DeepSeek имаат високи оценки (околу 4,7 од 5), додека Perplexity има 4,6.
Кога се зема сè во предвид точност, стабилност и корисничко задоволство Perplexity AI излегува како вкупен победник, додека ChatGPT се наоѓа на средина од листата, а Gemini е пониско рангиран.
Стручњаците предупредуваат дека ниту еден AI алат не е целосно сигурен извор на информации и дека проверката на податоците останува клучна, особено во чувствителни области како право, медицина и финансии.