Она што ја прашувате вештачката интелигенција не останува тајна: Доаѓаат промени и уште поголем удар врз приватноста

Компанијата за вештачка интелигенција Anthropic објави дека ќе започне со обука на неколку верзии од својот модел на вештачка интелигенција врз основа на разговори што ги има со корисниците, освен ако тие не се откажат.

Многу чет-ботови со вештачка интелигенција ги користат разговорите што ги имате со нив како податоци за обука за да продолжат да ги развиваат своите генеративни модели на вештачка интелигенција, но некои корисници можеби не сфаќаат дека нивните разговори со овие алатки не се целосно приватни.

Минатата недела, компанијата за вештачка интелигенција Anthropic објави дека ќе започне со обука на неколку верзии од својот модел на вештачка интелигенција, Claude, врз основа на разговори што ги има со корисниците, освен ако корисниците не се откажат. Целта што ја наведе е дека сака да го подобри моделот, вклучително и подобро откривање на нелегална или штетна содржина.

Иако овој потег привлече медиумско внимание, практиката е веќе широко распространета меѓу некои од најпопуларните алатки за вештачка интелигенција.

Социјалната мрежа Мета, во април објави дека ќе започне со обука на својата вештачка интелигенција врз основа на интеракциите на корисниците. Но тоа не е сè, Мета исто така објави дека ќе ја „храни“ својата вештачка интелигенција со јавно достапни лични информации на корисниците на Фејсбук и Инстаграм, освен ако корисниците не се откажат, пишува Euractiv.

Потегот на компанијата предизвика многу критики поради грижата за приватноста на корисниците, бидејќи, Мета е рекламен гигант кој заработува пари со таргетирање на поединци со микро-реклами. Сепак, ирскиот регулатор за заштита на податоци, кој го надгледува Мета во ЕУ, ја одобри промената во мај.

Можеби и најкористениот четбот, OpenAI ChatGPT, ги користи разговорите на корисниците како податоци за понатамошна обука на модели и им дозволува на корисниците само да се откажат. Gemini на Google не е различен, ветувајќи поперсонализирани одговори дозволувајќи му на својата вештачка интелигенција да црпи од претходните разговори. И тука, корисниците можат да се откажат, но опцијата „податоци за обука“ е вклучена по дифолт.

Загриженост за пристап до интимни и чувствителни разговори

Една од главните грижи за претворање на човечките разговори во податоци за обука на вештачка интелигенција е тоа што многу корисници споделуваат многу лични, па дури и чувствителни информации со четботовите. Некои корисници дури развиваат и емоционална врска со четботовите.

Исто така, има многу луѓе кои користат алатки за вештачка интелигенција како терапевти. Извршниот директор на OpenAI, Сем Алтман, предупреди дека разговорите со овој бот не се заштитени со доверливост помеѓу пациентот и психологот (како што би било случај со човечки психолог).

Покрај безбедносните прашања поврзани со протекување или злоупотреба на чувствителни лични информации, користењето човечки разговори за обука на модели на вештачка интелигенција, исто така, покренува правни прашања за приватноста во Европа.

Според законот на ЕУ, секоја компанија што обработува лични податоци мора да има валидна правна основа за тоа, вклучително и компаниите за генеративна вештачка интелигенција. Повеќето развивачи на чет-ботови со вештачка интелигенција сега го наведуваат „легитимниот интерес“ како правна основа за користење на лични податоци, тврдејќи дека моделите на вештачка интелигенција бараат огромни количини на податоци за да функционираат и да го подобрат квалитетот.

Иако обуката на AI Meta за лични податоци од нејзините социјални мрежи е критикувана, обидите да се запре технолошкиот гигант според законите за приватност на ЕУ досега не успеаја.

Се очекува вештачката интелигенција да станува сè повеќе вградена во нашиот секојдневен живот, бидејќи водечките компании се стремат да развијат „агенти за вештачка интелигенција“, наводно уште понапредна верзија на генеративна вештачка интелигенција дизајнирана да понуди персонализирана помош со еден клик. Ова, предупредува порталот, може да биде „уште поопасно бидејќи на овие агенти ќе им биде потребен пристап до огромни количини лични податоци“.

е-Трн да боцка во твојот инбокс

Последни колумни