Звучи ли познато: технолошка компанија тврди дека создала нова вештачка интелигенција толку моќна што и самата се плаши од неа. Наводно е премногу опасна за јавна употреба бидејќи последиците би биле катастрофални – па засега ја чуваат „под клуч“. Токму таква порака испраќа Anthropic за својот најнов модел Claude Mythos, за кој тврди дека може да има светски последици ако падне во погрешни раце, пишува BBC.
Овој начин на комуникација е невообичаен за било која индустрија. Тешко дека би слушнале McDonald’s да каже дека направил толку добар бургер што не е етички да се продава. Но, лидерите во индустријата за вештачка интелигенција редовно предупредуваат дека нивните производи би можеле да го уништат човештвото.
Критичарите сметаат дека ваквиот наратив им одговара на компаниите – го насочува вниманието кон апокалиптични сценарија, додека реалните проблеми што веќе постојат остануваат во сенка. Според нив, ширењето страв ја надувува перцепцијата за моќта на технологијата, ги зголемува вредностите на компаниите и создава впечаток дека само тие можат одговорно да управуваат со неа. „Ако технологијата ја претставите како речиси натприродно опасна, луѓето се чувствуваат немоќни“, вели Шенон Валор од Универзитетот во Единбург.
Ова не е нова стратегија. Во 2019 година, додека Дарио Амодеи работел во OpenAI, компанијата објави дека не може да го пушти моделот GPT-2 поради можни злоупотреби – но подоцна сепак го објави. Интересно, и Сем Алтман неодамна го критикуваше „маркетингот базиран на страв“ на Anthropica, иако и самиот со години користел слична реторика.
Во 2023 година, стотици технолошки лидери, меѓу кои Бил Гејтс и Демис Хасабис, потпишаа изјава дека ризикот од истребување поради вештачката интелигенција треба да биде глобален приоритет. Истата година, Илон Маск повика на пауза во развојот на напредна AI, но набрзо ја најави сопствената компанија xAI.
Сепак, некои експерти се скептични кон тврдењата за новиот модел Mythos. Хејди Клааф од AI Now Institute посочува дека недостасуваат клучни податоци, како стапката на лажно позитивни резултати – важен показател за ефикасноста на ваквите алатки. Без такви докази, тврдењата за супериорност остануваат непотврдени.
Во меѓувреме, додека се зборува за потенцијална апокалипса, реалните проблеми се натрупуваат: употребата на AI во здравството со ризик од погрешни дијагнози, огромното влијание на дата-центрите врз животната средина, ширењето на deepfake содржини и можните последици врз менталното здравје.
Компаниите тврдат дека овие прашања ги сфаќаат сериозно, но критичарите велат дека фокусот на „крајот на светот“ ги прави овие проблеми да изгледаат помалку важни. Во исто време, истите луѓе кои предупредуваат на уништување ветуваат и спас – од решавање на климатските промени до создавање „утописки“ општества.
Според Валор, и апокалипсата и утопијата се дел од ист наратив: тие ја прават технологијата да изгледа толку моќна што изгледа невозможно да се регулира. Но, таа потсетува дека станува збор за производи создадени од компании со цел профит, а не за неконтролирани сили. „Ништо во врска со нив не е неуправливо – освен ако не одлучиме да не ги управуваме“, заклучува таа.