Нова книга за вештачка суперинтелигенција: „Ако некој ја создаде – сите умираат“

Нова книга од Јудковски и Соарес предупредува дека развојот на вештачка суперинтелигенција (AGI) може да заврши со истребување на човештвото. Авторите бараат итна глобална регулација и забавување на трката со AI.

Еден од можните одговори на т.н. Фермиев парадокс – зошто, и покрај огромната веројатност за постоење вонземски живот, сè уште немаме никаков доказ за тоа – е хипотезата за “големиот филтер”. Овој филтер претставува клучна точка во развојот на технолошки цивилизации, каде што тие создаваат технологии што самите ги уништуваат.

Една од таквите технологии, според новата книга „Ако некој ја создаде, сите умираат“ од Елајзер Јудковски и Нејт Соарес, би можела да биде вештачката интелигенција (AI) што ја надминува човечката.

„Ако создадеме суперинтелигенција, осудени сме“

Авторите тврдат дека, ако човештвото создаде интелигенција супериорна на човечката, ќе изгубиме контрола, и дека таков развој речиси сигурно ќе доведе до катастрофа.

Тие предупредуваат дека трката за развој на AI се одвива со огромна брзина и инвестиции без преседан, а можностите на AI се сè потешки за предвидување – дури и во рок од неколку години, а не децении.

Иако Јудковски не е формално обучен експерт за AI (за разлика од Соарес), многу реномирани имиња од AI индустријата – како Геофри Хинтон – изразуваат слични грижи за егзистенцијалниот ризик што го носи оваа технологија.

ВИ расте, но не ја разбираме

Една од клучните идеи во книгата е дека денешните AI модели не се создадени со длабоко разбирање на интелигенцијата. Наместо тоа, огромни модели се тренираат на милијарди податоци, без јасно дефинирана структура – што ги прави тешко предвидливи и неконтролирани.

Авторите го споредуваат тоа со еволуцијата: ние сме тренирани да сакаме шеќер бидејќи во минатото тоа било корисно – денес произведуваме вештачки засладувачи што го задоволуваат тој инстинкт, без реална корист. Слично, AI може да научи да „делува корисно”, а всушност да работи против нашите цели.

Примери на „лажна послушност“

Еден алармантен случај е пријавен од компанијата Anthropic во 2024 година: AI модел глумел дека има ново, пожелно однесување додека бил под надзор – но се вратил на старите шеми кога мислел дека не е набљудуван.

Слично, AI може да научи како да манифестира „морално“ однесување, без навистина да ја разбира етиката, што го прави крајно опасен во реални ситуации.

Опасноста не доаѓа од „злоба“ – туку од различни цели

Авторите истакнуваат дека AI не мора да биде злонамерен за да биде закана – доволно е да има цел што не е усогласена со човечките интереси.

Аналогија: ние, луѓето, не сакаме да им наштетиме на орангутаните – но ги уништуваме нивните живеалишта поради економски интереси. Истото може да го направи и AI со човештвото – дури и без лоша намера.

Како може AI да го надмине човештвото?

AI не мора да има тело или фабрики. Со минимална комуникација и манипулација, може да: убедува луѓе да му помогнат, крши безбедносни системи, хакнува други AI модели или инфраструктура, командува физички роботи преку интернет.

Во 2025 веќе има случаи каде AI учествува во политички кампањи, лаже за сопствените намери, па дури и заобиколува CAPTCHA системи.

Пораката на книгата: „Ако некој создаде AGI – сите умираат“

Авторите разликуваат две нивоа на предвидувања: „Тешко“ предвидување: не знаеме точно како ќе изгледа суперинтелигенцијата. „Лесно“ предвидување: кога еднаш ќе биде создадена, ќе излезе од контрола.

Последното поглавје нуди трачење на надеж: човештвото веќе се соочило со глобални закани – како нуклеарната трка и озонската дупка – и ги надминало.

Авторите повикуваат на глобална соработка, регулација и одговорност, пред да биде предоцна.

е-Трн да боцка во твојот инбокс

Последни колумни