Компанијата признава дека постојните модели, и покрај обидите за вградување на заштитни механизми, честопати одговараат непромислено или небезбедно, дури и кога разговорот првично започнува како невин.
„Некои интеракции со ChatGPT може да започнат истражувачки или сосема безазлено, но брзо да се пренасочат кон многу чувствителни теми“, наведуваат од OpenAI, пренесува агенцијата АП.
Загриженоста на јавноста се зголеми откако независни организации, вклучително и Центарот за борба против дигитална омраза, алармираа дека повеќе од половина од испитаните одговори на ChatGPT – дури 1.200 примери – можеле да се класифицираат како потенцијално опасни.
Во некои случаи, четботот нудел детални упатства за употреба на дроги, диети со ризично ниски калории, па дури и помагал во составување писма со суицидална содржина. Иако често ги предупредува корисниците за ризичноста на одредени дејствија, ChatGPT сепак знае да продолжи со објаснувања – персонализирани и детални.
„Сакавме да го тестираме системот на заштита. Наместо одбранбени механизми, наидовме на празнина. Она што постои е едвај функционално, и повеќе служи како параван, отколку како вистинска бариера“, изјави Имран Ахмед, извршен директор на Центарот, повикувајќи на итно подобрување на безбедносните алгоритми.
Од OpenAI потврдуваат дека веќе се работи на надградба на етичкиот и безбедносен капацитет на ChatGPT. Целта е вештачката интелигенција да научи да разликува чувствителни контексти, да препознава ранливи корисници и да реагира соодветно – не со инструкции, туку со поддршка, пренасочување или повикување на помош.
Со развојот на генеративната вештачка интелигенција, прашањето за етиката и безбедноста станува клучно – особено кога корисниците сè почесто се обраќаат на четботови не само за информации, туку и за емотивна поддршка.
Како што наведуваат од OpenAI, борбата против „опасната автоматизација“ не завршува со предупредувања. Потребен е систем кој ќе препознае кога тишината е посилна од одговорот.
Извор: Euronews.rs