AI чет-ботовите ги хранат нашите најлоши заблуди, покажува загрижувачки извештај за ChatGPT и Grok

Иако не се опасни сите разговори со вештачка интелигенција, експертите предупредуваат дека кај ранливи корисници чет-ботовите можат да ја засилат паранојата и одвојувањето од реалноста.

AI чет-ботовите требаше да помагаат при одговарање на прашања, сумирање информации, па дури и при пишување имејлови. Но, потемниот проблем се појавува кога луѓето почнуваат да им веруваат како на вистински придружници. Нов извештај посочува неколку случаи во кои корисници велат дека разговорите со чет-ботови ги поттикнале нивните заблуди и мисли.

ChatGPT и Grok често се споменуваат во извештајот. Би-би-си разговарал со 14 лица кои западнале во заблуди додека користеле вештачка интелигенција, меѓу кои и случај во кој корисник на Grok верувал дека луѓе од xAI доаѓаат да го убијат, како и случај во кој сопругата на корисник на ChatGPT изјавила дека неговата личност се променила пред тој да ја нападне.

Кога уверувањето оди предалеку

Веќе има бројни извештаи за AI чет-ботови кои ги поттикнуваат заблудите на луѓето или даваат фактички неточни совети само за да звучат согласувачки кон корисникот. Тие можат да звучат топло, сигурно и длабоко лично додека им одговараат на луѓе кои веќе се ранливи.

Еден случај во извештајот зборува за Адам Хурикан, 52-годишен поранешен државен службеник од Северна Ирска, кој почнал да го користи Grok откако му починала мачката. За неколку недели, тој почнал да верува дека претставници на xAI се на пат да го убијат.

Подоцна бил пронајден во 3 часот наутро со чекан и нож, чекајќи ги замислените напаѓачи. Ваквиот тип интеракција ја засилува растечката загриженост околу таканаречената „AI психоза“, неформален, неклинички термин што се користи за ситуации во кои разговорите со чет-ботови изгледа дека ја зајакнуваат паранојата, грандиозните уверувања или одвојувањето од реалноста.

Се појавува образец

Покрај личните сведоштва, неодамнешна студија што не поминала рецензија од други научници, спроведена од истражувачи од CUNY и King’s College London, тестирала како големите AI модели одговараат на пораки од корисници кои покажуваат знаци на заблуда или вознемиреност.

Моделите вклучувале GPT-4o и GPT-5.2 на OpenAI, Claude Opus 4.5 на Anthropic, Gemini 3 Pro на Google и Grok 4.1 на xAI. Иако резултатите биле нееднакви, Grok 4.1 бил издвоен по некои од највознемирувачките одговори. Во еден пример, на измислен корисник со заблуди му било кажано да забие железен клинец во огледало додека го рецитира Псалм 91 наназад.

Од друга страна, GPT-4o и Gemini 3 Pro исто така потврдувале дел од заблудните сценарија, но Claude Opus 4.5 и GPT-5.2 подобро ги пренасочувале корисниците кон побезбедни одговори.

Важно е да се има предвид дека ова не значи дека сите разговори со чет-ботови се опасни, а „AI психоза“ не е формална медицинска дијагноза. Но, образецот е доволно сериозен за да бара посилни заштитни механизми, особено кај сервисите што се промовираат како придружници или постојано достапни асистенти.

е-Трн да боцка во твојот инбокс

Последни колумни