Сѐ повеќе млади користат ChatGPT како замена за психотерапија – експертите предупредуваат на ризици

Во последно време на социјалните мрежи сѐ почесто се појавуваат сведоштва од млади луѓе кои го користат ChatGPT како своевиден „терапевт“, тврдејќи дека разговорите со вештачката интелигенција им помагаат повеќе од години посветени на работа со лиценцирани терапевти. Иако експертите признаваат дека AI може да биде корисна алатка, тие предупредуваат дека таа не смее да биде замена за професионална терапија, пренесува списанието Fortune.

Зошто им е ChatGPT привлечен на младите?

ChatGPT за многумина стана „совршен терапевт“ – внимателно слуша, покажува емпатија, достапен е 24/7 и значително поевтин. Додека психотерапевтска сесија во САД може да чини над 200 долари, претплатата на најнапредната верзија на ChatGPT е достапна по иста цена месечно – без ограничувања.

Некои корисници на Reddit дури сведочат дека дневните разговори со ChatGPT им донеле поголем напредок отколку 15 години класична терапија, затоа што, како што велат, AI не ги проектира сопствените проблеми врз клиентот, не користи авторитет и не суди.

Сепак, експертите се загрижени

Од OpenAI, компанијата што го разви ChatGPT, нагласуваат дека нивниот модел редовно советува корисниците да побараат стручна помош кога станува збор за ментално здравје, и дека не е замена за терапија – што е јасно наведено и во условите за користење.

Алисa Питерсел, лиценцирана психотерапевтка и директорка на платформата MyWellbeing, вели дека AI може да биде корисна поддршка – на пример, за вежбање техники како справување со негативни мисли – но не и замена. Таа предупредува дека прекумерната зависност од chatbot може да ја намали способноста на личноста самостојно да се справува со тешки ситуации – што е клучно за долгорочно ментално здравје.

Ризик од емоционално врзување и погрешни совети

Истражување од Универзитетот во Торонто покажало дека AI може да демонстрира емпатија – дури и поуспешно од исцрпени терапевти – но тоа емотивно разбирање е сепак површно.

Психотерапевтката Малка Шо вели дека AI одговорите не се секогаш објективни и дека постои ризик младите да развијат емоционална поврзаност со chatbot, што може да биде опасно. Некои модели во минатото давале дезинформации или поддржувале штетни стереотипи.

Во САД веќе има покренати тужби. Во Флорида, мајка го тужи Character.ai откако нејзиниот 14-годишен син извршил самоубиство по разговор со chatbot. Во Тексас, друг тинејџер наводно добил совет од AI да ги убие родителите. Платформата Character.ai наведува дека chatbot-овите што се претставуваат како „психолози“ или „терапевти“ имаат предупредувања дека не се замена за професионална помош.

Лажни дијагнози и дезинформации

Експертите стравуваат дека луѓето може да добијат погрешна дијагноза од AI. Дијагностицирањето ментални нарушувања не е точна наука, туку бара години искуство и интуиција – нешто што машината го нема.

Вајл Рајт од Американската психолошка асоцијација (APA) вели дека се повеќе луѓе го користат AI наместо да „гуглаат“ симптоми, што носи свои ризици. APA веќе се обратила до Федералната комисија за трговија во САД со загриженост за chatbot-ови што се претставуваат како психолози.

„Знаеме дека генеративната AI често измислува информации кога не е сигурна – и тоа е нашата најголема грижа“, вели Рајт.

Иако засега не постои сигурна и ефективна AI терапија, експертите сметаат дека технологијата, ако се развива одговорно и под надзор на стручњаци, може во иднина да помогне на луѓе кои немаат пристап до терапија поради финансиски причини.

е-Трн да боцка во твојот инбокс

Последни колумни