Во анализа на 145 страници, Google DeepMind ги изложува ризиците што произлегуваат од развојот на вештачка општа интелигенција (AGI), вклучително и можноста од „екстремни штети“ како егзистенцијални ризици кои би можеле трајно да ја уништат човечката цивилизација.
Авторите на трудот, меѓу кои е и коосновачот на DeepMind, Шејн Лег, не наведуваат конкретни сценарија за таков исход, но повикуваат на општествена расправа околу прифатливоста на ризикот и концептот на штета, нагласувајќи дека не треба само технолошките компании да го дефинираат тоа.
Документот ги класифицира ризиците од напредната вештачка интелигенција во четири категории: злоупотреба (намерна употреба на ВИ за штетни цели), неусогласеност (развој на несакано и штетно однесување), грешки (неочекувани дефекти во дизајнот или обуката) и структурни ризици (конфликти на интереси меѓу различни актери – држави, компании или ВИ системи). Иако DeepMind ја нагласува важноста на рана идентификација на опасни способности, во документот има и индиректни критики на пристапите на конкуренцијата, како Anthropic и OpenAI.
Сепак, трудот не ги убеди сите експерти за безбедност на ВИ. Ентони Агире од Future of Life Institute го оцени напорот како „пофалбен“, но и предупреди дека сме поблиску до создавање на AGI отколку до разбирање како да го контролираме. Дополнително, нејасната дефиниција на AGI претставува пречка за научна евалуација, велат критичари како Хајди Хлааф од AI Now Institute. Според неа, без јасни граници што претставува AGI, тешко е да се разработи ефективна стратегија за безбедност.
Додека DeepMind прогнозира можен развој на AGI до 2030 година, други гласови во секторот се уште пооптимистични – или алармантни. Антропик предвидува дека ВИ што ќе ги надмине човечките способности во „речиси сè“ може да се појави за две до три години, додека OpenAI верува дека веќе сме на прагот на системи што водат кон AGI. Во меѓувреме, експерти како професорот Гери Маркус остануваат скептични дека сегашните ВИ методи – базирани на јазични модели – можат вистински да постигнат човечко ниво на интелигенција, особено кога се зема предвид здравиот разум и учење од малку примери.
Google, во својот одговор, нагласува дека нивниот пристап може да се примени на повеќе дефиниции на AGI и дека централно прашање не е дефиницијата, туку проценката на долгорочните способности и справувањето со потенцијалните закани. Компанијата бара меѓународен консензус за тоа како најдобро да се менаџира и регулира оваа технологија, подвлекувајќи дека безбедноста и скромноста се клучни при развојот на толку моќна иновација.