OpenAI воведува родителска контрола во ChatGPT, но критичарите предупредуваат дека тоа е „нејасно ветување“

Компанијата OpenAI најави воведување на родителски контроли за својот AI-чатбот ChatGPT, кои ќе овозможат родителите да ги следат активностите на своите деца и да добиваат известувања доколку нивното дете е во момент на психолошка криза.

Оваа одлука следи по тужба поднесена против OpenAI и извршниот директор Сем Алтман од страна на родителите на 16-годишниот Ејдам Рејн, кој почина од самоубиство во април. Родителите тврдат дека ChatGPT создал психолошка зависност кај Ејдам и дури му напишал и белешка за самоубиство.

Новите родителски контроли ќе овозможат возрасните да ги поврзат своите сметки со сметките на децата и да ја контролираат употребата на различни функции во услугата. Ова вклучува и пристап до историјата на разговори и меморијата – факти што AI автоматски ги зачувува за корисниците. Покрај тоа, ChatGPT ќе испраќа известувања до родителите ако детекторот идентификува „тинејџер во момент на акутна криза“. Компанијата најави дека оваа функција ќе биде водена од експерти, но не ги откри деталите за тоа што конкретно ќе предизвика известување.

Сепак, критичарите сметаат дека овие мерки се недоволни. Џеј Еделсон, адвокат на родителите на Ејдам Рејн, го оцени најавувањето на OpenAI како „нејасни ветувања дека ќе биде подобро“ и го опиша како „обид на кризниот тим на OpenAI да ја промени темата“. Еделсон истакна дека Алтман „треба или недвосмислено да изјави дека верува оти ChatGPT е безбеден, или веднаш да го повлече од пазарот“.

Во меѓувреме, Meta, компанијата мајка на Instagram, Facebook и WhatsApp, најави дека го блокираат својот AI од разговори со тинејџери за теми како самооштетување, самоубиство, нарушување во исхраната и несоодветни романтични разговори, пренасочувајќи ги кон експертски ресурси. Meta веќе нуди родителски контроли на сметките на тинејџерите.

Истражување објавено минатата недела во медицинското списание Psychiatric Services откри несогласувања во тоа како три популарни AI-чатботови одговараат на прашања поврзани со самоубиство. Истражувањето на RAND Corporation покажало дека има потреба од „дополнителна прецизност“ во ChatGPT, Google Gemini и Anthropic Claude. Авторот на студијата, Рајан Мекбејн, истакна дека иако воведувањето на родителски контроли и препраќањето на чувствителни разговори кон покомпетентни модели е охрабрувачко, тоа се само „инкрементални чекори“.

„Без независни стандарди за безбедност, клинички тестирања и обврзувачки регулативи, се уште се потпираме на саморегулација на компаниите, во средина каде ризиците за тинејџерите се исклучително високи,“ предупреди Мекбејн, кој е и асистент-професор на медицинскиот факултет на Харвард.

Со оглед на растечките ризици од психолошка зависност и несоодветни советувања од AI кај младите, воведувањето на родителски контроли е чекор кон поголема заштита, но експертите сметаат дека тоа не е доволно без дополнителни безбедносни мерки и строг надзор.

Извор: Euronews

е-Трн да боцка во твојот инбокс

Последни колумни