Коосновачот на Anthropic, Џаред Каплан, предупредува дека вештачката интелигенција еден ден би можела да дизајнира свои наследници, загрозувајќи ја човечката контрола. Тој повикува на внимателен надзор за да се осигури дека вештачката интелигенција останува усогласена со човечките вредности и избегнува злоупотреби.
Коосновачот и главен научник на Anthropic, Џаред Каплан, изрази сериозна загриженост за можноста напредните системи за вештачка интелигенција еден ден да почнат да дизајнираат свои наследници. Во интервју за Guardian, тој нагласи дека таков развој би можел да означи пресвртница во способноста на човештвото да ја одржи контролата врз сè помоќните технологии. Неговата порака не е дека катастрофата е неизбежна, туку дека е потребна исклучителна грижа пред да се донесат такви одлуки.
Каплан истакна дека иако водечките компании за вештачка интелигенција како што се OpenAI, Google и Anthropic работат на развој на вештачка општа интелигенција, општеството сè уште не сфатило целосно што би можеле да претставуваат ваквите системи. Иако дебатата за дефиницијата и импликациите на вештачката интелигенција продолжува, напредокот во развојот на модели во голем обем ги прави овие прашања поитни од кога било.
Приближување кон критичниот праг
Според Каплан, периодот помеѓу 2027 и 2030 година би можел да го означи моментот кога системите со вештачка интелигенција ќе станат способни да дизајнираат понапредни верзии од себе. Таквата промена целосно би го променила начинот на кој се развива вештачката интелигенција: наместо луѓето да дизајнираат секоја нова генерација модели, процесот би можел да биде забрзан од самата вештачка интелигенција.
Иако Каплан е генерално оптимист во врска со сегашните алатки за вештачка интелигенција и нивното усогласување со човечките вредности, тој повлекува јасна линија во моментот кога системите почнуваат да го надминуваат нивото на човечката интелигенција. Ако се премине тој праг, постојните безбедносни мерки можеби повеќе нема да бидат доволни. Каплан верува дека таков скок бара сериозна подготовка и глобално внимание.
Ризикот од систем со вештачка интелигенција кој го обучува својот наследник
Каплан опишува сценарио каде што вештачка интелигенција способна за самоподобрување почнува да развива уште понапреден модел. Тој понапреден модел, бидејќи е поинтелигентен, потоа би можел да создаде уште поспособен систем, што би предизвикало верижна реакција на забрзан развој. Тој предупредува дека таквата „експлозија на интелигенција“ би можела да напредува премногу брзо за луѓето да можат да ја следат или контролираат.
Во таква ситуација, проблемот со „црната кутија“ во системите со вештачка интелигенција би можел да стане апсолутен. Наместо едноставно да не ги разбираме индивидуалните одлуки на вештачката интелигенција, би можеле да го изгубиме увидот во самата насока на нејзиниот развој. Каплан истакнува дека таквата неизвесност бара посебна претпазливост пред да се дозволи вештачката интелигенција да го преземе сопствениот процес на развој.
Прашање за човечка контрола
Една од клучните загрижености на Каплан е дали луѓето ќе ја задржат својата агенција во свет обликуван од самоподобрувачки системи со вештачка интелигенција. Тој верува дека општеството мора да се запраша дали овие системи ќе останат корисни, безбедни и усогласени со човечките потреби. Кога луѓето повеќе не се директно вклучени во процесот на обука, станува многу потешко да се гарантира дека вештачката интелигенција ќе остане симпатична кон човечките интереси.
Каплан нагласува дека предизвикот не е само технички, туку и етички и социјален. Ако луѓето не можат да видат како вештачката интелигенција функционира или се развива, би можеле да ја изгубат способноста да влијаат на светот околу нив. Ова, според него, претставува една од „најголемите одлуки“ што човештвото треба да ги донесе, дали да ја прифати длабоката неизвесност што го придружува автономниот развој на вештачката интелигенција.
Спречување на злоупотреба и борба за моќ
Покрај ризикот од губење на контролата, Каплан предупредува на уште еден голем проблем: можноста поединци или групи да злоупотребуваат моќни системи со вештачка интелигенција за свои интереси. Ако самоучената вештачка интелигенција напредува побрзо отколку што луѓето можат да бидат во чекор со научниот и технолошкиот развој, се отвора вратата за манипулација и злоупотреба.
Тој предупредува дека ваквите системи во погрешни раце би можеле да бидат исклучително опасни. Некој би можел да се обиде да користи напредна вештачка интелигенција за да ја наметне својата волја или да постигне штетни цели. Каплан верува дека спречувањето на борбите за моќ и обезбедувањето одговорно користење на технологијата е неопходно пред општеството да дозволи вештачката интелигенција да го премине прагот на независен развој.
