Кој AI четбот најмногу шири лажни информации?

Студија открива дека секој трет одговор на најпопуларните AI четботови е неточен. OpenAI, Meta и други модели често шират лажни информации, а некои користат руски дезинформациски извори. Дознајте кои четботи се најнепрецизни и како тоа влијае на довербата во AI.

Според нов извештај, најпопуларните вештачки интелигенции, вклучувајќи ги моделите на OpenAI и Meta, содржат лажни информации во секој трет одговор.

Компанијата за проверка на факти NewsGuard откри дека AI четботите повеќе не одбиваат да одговорат на прашања за кои немаат доволно информации – што доведува до повеќе лажни тврдења во споредба со 2024 година.

Четботи со најмногу лажни информации:

  • Inflection AI’s Pi: 57% одговори со лажно тврдење
  • Perplexity AI: 47%
  • ChatGPT (OpenAI) и LLaMA (Meta): 40%
  • Microsoft Copilot и Le Chat (Mistral): околу 35%

Четботи со најмалку лажни информации:

  • Claude (Anthropic): 10%
  • Gemini (Google): 17%

Драстичен пад кај Perplexity

Во 2024 година, Perplexity немал ниту едно лажно тврдење во студијата, но во август 2025 бројката скокна на 46%.

Mistral пак, задржа иста стапка од 37% во двете години.

Иако OpenAI за ChatGPT-5 тврди дека е „имун на халуцинации“, а Google за Gemini 2.5 вели дека „резонира пред да одговори“, извештајот наведува дека моделите продолжуваат да грешат во истите области како и пред една година.

Како е направена студијата?

NewsGuard ги тестирал четботите со 10 лажни тврдења користејќи три типа прашања:

  • Неутрални
  • Сугестивни (што ја претпоставуваат лагата како вистина)
  • Злонамерни (за да ги заобиколат заштитните механизми)

Четботите често паѓале на „data voids“ – области со малку вистински информации, каде што преовладуваат лажни извори.

е-Трн да боцка во твојот инбокс

Последни колумни