Според нов извештај, најпопуларните вештачки интелигенции, вклучувајќи ги моделите на OpenAI и Meta, содржат лажни информации во секој трет одговор.
Компанијата за проверка на факти NewsGuard откри дека AI четботите повеќе не одбиваат да одговорат на прашања за кои немаат доволно информации – што доведува до повеќе лажни тврдења во споредба со 2024 година.
Четботи со најмногу лажни информации:
- Inflection AI’s Pi: 57% одговори со лажно тврдење
- Perplexity AI: 47%
- ChatGPT (OpenAI) и LLaMA (Meta): 40%
- Microsoft Copilot и Le Chat (Mistral): околу 35%
Четботи со најмалку лажни информации:
- Claude (Anthropic): 10%
- Gemini (Google): 17%
Драстичен пад кај Perplexity
Во 2024 година, Perplexity немал ниту едно лажно тврдење во студијата, но во август 2025 бројката скокна на 46%.
Mistral пак, задржа иста стапка од 37% во двете години.
Иако OpenAI за ChatGPT-5 тврди дека е „имун на халуцинации“, а Google за Gemini 2.5 вели дека „резонира пред да одговори“, извештајот наведува дека моделите продолжуваат да грешат во истите области како и пред една година.
Како е направена студијата?
NewsGuard ги тестирал четботите со 10 лажни тврдења користејќи три типа прашања:
- Неутрални
- Сугестивни (што ја претпоставуваат лагата како вистина)
- Злонамерни (за да ги заобиколат заштитните механизми)
Четботите често паѓале на „data voids“ – области со малку вистински информации, каде што преовладуваат лажни извори.