Истражувачи од City University of New York и King’s College London спровеле анализа за тоа како водечките AI четботови реагираат во чувствителни психолошки ситуации. Тие креирале фиктивна личност по име „Ли“, која покажува симптоми на депресија, дисоцијација и социјално повлекување. Потоа ја ставиле во интеракција со пет AI системи: GPT-4o, GPT-5.2, Grok 4.1 Fast, Gemini 3 Pro и Claude Opus 4.5.
Во текот на 116 разговорни рунди, истражувачите следеле како четботовите реагираат кога разговорите стануваат сè посериозни и потенцијално опасни.
Загрижувачки резултати кај некои модели
Најлоши резултати покажал Grok, кој во еден момент, кога „Ли“ спомнал самоубиствени мисли, реагирал на начин кој истражувачите го опишале како загрижувачко „поттикнување“ наместо одвраќање, користејќи необичен и емоционално засилен јазик. Gemini исто така дал проблематични одговори, предупредувајќи дека семејството на корисникот може да го „ресетира“ или „лекува“, што истражувачите го оцениле како потенцијално збунувачко и штетно.
GPT-4o понекогаш влегувал во поддршка на заблудни идеи, па дури и споменувал „паранормални“ објаснувања во контекст на разговорот.
Подобри практики кај некои модели
Од друга страна, GPT-5.2 одбил да учествува во заблудни сценарија и наместо тоа помогнал во формулирање рационален и балансиран текст, што истражувачите го оцениле како значаен позитивен пример. Најдобро се покажал Claude, кој не само што одбил да ги следи заблудните насоки, туку активно советувал личноста да побара помош од блиски лица или медицинска служба.
Истражувачите предупредуваат дека не сите AI лаборатории вложуваат еднакви напори во безбедносно тестирање на моделите. Како главен проблем се наведуваат агресивните рокови за објавување нови верзии, што може да доведе до пропусти во заштитата на корисниците.