Човекот кој одлучува за иднината на вештачката интелигенција, дали навистина може да му се верува?

Нови сведоштва и интерни документи фрлаат сенка врз Сем Алтман, прв човек на OpenAI. Оние кои го познаваат најдобро велат: не треба да му се верува.

🔵 НАСЛ

Сем Алтман со години гради слика на одговорен визионар, човек кој разбира колку е вештачката интелигенција моќна и опасна, и токму затоа инсистира таа да се развива внимателно, под надзор и со јасни правила. Токму на таа идеја настанал OpenAI необична организација која, барем во теорија, требало да ја постави добробитта на човештвото пред профитот.

Но опсежен текст на реномираните новинари Ронан Фароу и Ендру Маранц во Њујоркер, заснован на нови интервјуа и интерни документи, открива нешто друго: дека длабоко внатре во самата компанија одамна тлее длабок страв дека човекот кој ветувал безбедно управување можеби не е доволно доверлив за да му се довери технологија која може да го смени светот.

Обвинувања за лажење

Најдраматичниот дел од приказната нè враќа во есента 2023 година. Иља Суцкевер, тогашен главен научник на OpenAI и еден од клучните луѓе во развојот на современите АИ модели, испраќал доверливи писма до членовите на управниот одбор. Врз основа на Slack преписки, HR документи и интерни белешки, се обидувал да покаже дека Алтман има „доследен образец” на проблематично однесување. Прва ставка на листата „лажење.”

Суцкевер тогаш заклучил: „Не мислам дека Сем е човек кој треба да го держи прстот на копчето.”

Идејата на OpenAI: Безбедност над профит

Тоа не е мало прашање. OpenAI не бил замислен како обичен стартап. Основачите меѓу кои Алтман, Суцкевер, Грег Брокман и Илон Маск тргнале од претпоставката дека вештачката интелигенција може да стане најмоќниот, но и најопасниот пронајдок во историјата на човештвото. Затоа компанијата е основана како непрофитна организација, со управа која имала обврска да го заштити човештвото дури и по цена на успехот на самата компанија.

Во таков модел, директорот не смеел да биде само способен бизнисмен морал да биде човек со исклучителен интегритет. Токму таму почнале сомнежите.

Растечки сомнежи внатре во компанијата

Дел од членовите на одборот и истражувачите со текот на времето почнале да веруваат дека Алтман им кажува на сите она што сакаат да слушнат дека дава различни ветувања на различни луѓе и дека безбедносните обврски ги користи само како дел од продажната приказна, додека компанијата во пракса сè повеќе се свртува кон раст, капитал и пазарна доминација.

Мира Мурати, која подоцна кратко ја вршела функцијата директор, изјавила: „Ни требаат институции достојни за моќта која ја имаат.”

Кога управниот одбор го сменил Алтман кон крајот на 2023, на јавноста само им соопштиле дека „не бил доследно искрен во комуникацијата.” Таа формулација предизвикала потрес. Мајкрософт, кој вложил милијарди во OpenAI, бил затечен. Инвеститорите очекувале дека зад таква одлука стои некој тежок скандал. Но наидувале на ѕид на молчење.

Тоа му отворило простор на Алтман со помош на моќни сојузници да организира брзо и ефикасно врќање.

„Влада во егзил” и враќање за пет дена

Од луксузната куќа во Сан Франциско, Алтман водел она што самиот го опишал како вид „влада во егзил.” Притисокот за негов повраток бил создаден брзо: на вработените им ставено до знање дека големи инвестициски зделки може да пропаднат ако Алтман не се врати. Мајкрософт понудил да ги прими него и сите вработени кои би го напуштиле OpenAI. Мнозинството вработени закануваат со заминување.

Одборот останал притиснат во агол.

Алтман бил вратен за помалку од пет дена. Внатре во OpenAI тој момент подоцна бил наречен „Блип” — по филмскиот мотив на исчезнување и враќање. Луѓето кои го сменила ги изгубиле местата во одборот. Истрагата за обвинувањата против него завршила без јавен писмен извештај.

Обрасцот кој се повторува

Сомнежите во Алтман се многу постари од драмата во OpenAI. Уште од времето на неговата прва компанија Loopt, соработниците велеле дека преувеличува и ја замаглува границата помеѓу она што планира и она што тврди дека веќе го постигнал. Подоцна, додека го водел Y Combinator, стекнал репутација на исклучително влијателен човек но и на личност чии лојалности биле поделени помеѓу институцијата и личните инвестиции.

Во приватни разговори, дури и Пол Грем неговиот ментор и основач на Y Combinator говорел дека Алтман е отстранет од таа организација поради недоверба на партнерите.

Дарио Амодеи, подоцна основач на конкурентскиот Anthropic, со години водел приватни белешки за работата во компанијата. Во еден момент напишал дека проблемот на OpenAI е „самиот Сем.” Во друг дека неговите зборови биле „речиси сигурно бесмислени.”

Безбедноста на второ место?

Посебно сериозни биле обвинувањата дека Алтман внатрешно го намалувал значењето на безбедносните процедури. Според документите, на членовите на одборот пред лансирањето на одредени модели им кажувал дека функциите добиле потребни безбедносни одобренија иако тоа не било точно.

Јан Лeике, еден од водечките истражувачи за безбедност, подоцна предупредил дека компанијата „го ставила производот и приходот пред сè, а усогласувањето и безбедноста дури на третото место.”

Јавна реторика наспроти реалноста

Алтман јавно предупредувал дека АИ може да биде катастрофално опасна. Барал регулација. Се претставувал себеси и OpenAI како брана против неодговорниот развој. Но истовремено, компанијата приватно лобирала против прописи кои би ја поограничиле, ги слабела сопствените безбедносни ветувања и ги гасела тимовите фокусирани на егзистенцијални ризици.

Еден истражувач го сажел проблемот во една реченица: „Тој поставува структури кои на хартија треба да го ограничат. А кога ќе дојде моментот навистина да биде ограничен таа структура ја отстранува.”

Прашањето не е технолошко. Прашањето е едноставно и старо колку и самата моќ: може ли да му се верува на човекот кој ја держи во раце?

е-Трн да боцка во твојот инбокс

Последни колумни