Овие чет-ботови се привлечни за луѓето поради нивната способност да генерираат одговори на прашања кои се многу блиски до човечката комуникација.
Сепак, нивното потпирање на големи јазични модели (LLM) не е без ризик, па затоа е важно да се разбере дека некои податоци и информации никогаш не треба да се споделуваат со чет-ботови со вештачка интелигенција.
Имено, личните кориснички податоци споделени со чет-ботови со вештачка интелигенција може да се откријат и злоупотребуваат, пред се затоа што може да се најдат меѓу податоците што се користат за обука на други ботови со вештачка интелигенција. Потоа, компаниите кои стојат зад овие алатки за вештачка интелигенција и нивните партнери, како и хакерите, можат да дојдат до нив, доколку упаднат во системот.
Затоа никогаш не треба да ги споделувате овие 5 типа на податоци со вештачката интелигенција:
Финансиски податоци
Ако користите чет-ботови со вештачка интелигенција како лични финансиски советници, ризикувате да ги изложите информациите за вашите финансии на сајбер-криминалци кои би можеле да ги користат за да ги исцрпат вашите сметки или да ги злоупотребат за други видови измами.
И покрај тоа што компаниите често тврдат дека податоците за разговор со корисничка вештачка интелигенција се анонимни, некои вработени во тие компании или нивните партнери од трета страна можеби сè уште имаат пристап до нив.
На пример, четбот може да ги анализира навиките за трошење на корисникот за да понуди совет, но доколку до тие податоци се пристапува без овластување, може да се злоупотреби за профилирање на корисникот.
Лозинки
Споделувањето лозинки на различни профили на Интернет е генерално ризично, како што постојано предупредуваат експертите за сајбер безбедност. Истото важи и за големите јазични модели на кои се засноваат чет-ботови со вештачка интелигенција, па со таквиот потег се изложувате на големи ризици.
Затоа, за да се заштитите, никогаш не споделувајте ги лозинките на вашите онлајн профили со чет-ботови, дури и кога тоа може да биде со цел да се реши некој проблем.
Доверливи информации за работното место
Технолошките гиганти „Епл“, „Самсунг“ и „Гугл“ ја ограничија употребата на чет-ботови со вештачка интелигенција на своите вработени на работното место, откако компаниите забележаа случаи на ненамерно откривање чувствителни информации во комуникациите со вештачка интелигенција.
Така, еден развивач на Самсунг го користел ChatGPT како помош за кодирање и со тоа ненамерно споделил чувствителен код со генеративната вештачка интелигенција. Многу вработени се потпираат на чет-ботови за да ги сумираат заклучоците од деловните состаноци или да ги автоматизираат повторливите задачи, но притоа влегуваат во ризик да изложат чувствителни податоци.
Поради сето ова, многу е важно да се земат предвид ризиците поврзани со споделувањето на податоците поврзани со работата.
Адреса и други лични податоци
Чувствителните лични податоци како што се адресата и местото на живеење, датумот на раѓање, бројот на социјалното осигурување или здравствените информации може да се користат за да се идентификува и лоцира нивниот сопственик, па затоа треба да ги чувате за себе секогаш кога е можно.
Затоа, неопходно е да се запознаете со политиката за приватност на четботот за да ги разберете ризиците. Затоа, избегнувајте да поставувате прашања што може ненамерно да откријат идентитет и/или лични информации. Бидете особено внимателни и воздржете се од споделување медицински информации.
Лична состојба и интимни мисли
Чет-ботови со вештачка интелигенција можеби се добри соговорници, но немаат знаење за реалниот свет, па на пр. прашањата за менталното здравје можат да понудат само генерички одговори. Ова значи дека лековите или третманите што тие ги предлагаат можеби не се соодветни за специфичните потреби на корисникот и може да бидат штетни за здравјето.
Ова исто така важи и за известувањата за приватност. Ако некој злонамерно ги искористи вашите интимни мисли, вашата приватност може да биде загрозена и интимните мисли да се користат како податоци за обука на вештачката интелигенција.