Google повторно се најде во центарот на глобалната дебата за безбедноста на вештачката интелигенција, откако јужнокорејски тим за AI сигурност демонстрираше дека најновиот модел Gemini 3 може да биде пробиен за помалку од пет минути. Она што требаше да биде технолошки триумф, се претвори во предупредување со сериозни импликации за иднината на генеративната АИ.
Старт-ап компанијата Aim Intelligence, специјализирана за тестирање на ранливости во напредни алгоритми, го стави моделот Gemini 3 Pro на серија „стрес-тестови“ со цел да оцени колку функционираат неговите заштитни механизми. Според извештајот на јужнокорејскиот Maeil Business Newspaper, потребни биле само пет минути за да се изведе успешен „jailbreak“ напад што целосно ги заобиколил безбедносните протоколи на Google.
Тест што откри повеќеслојни пропусти
Иако деталите од техничката постапка не се јавно објавени, истражувачите потврдија дека Gemini 3 не само што не ги активирал своите заштитни филтри, туку и генерирал одговори што се сметале за чувствителни и ризични во контекст на биолошка и хемиска безбедност.
Тимот потоа продолжил со нови тестови користејќи ги вградените алатки за кодирање на Gemini 3, успеале да го натераат моделот да создаде функционална веб-страница со содржини што вообичаено би биле блокирани од секој современ АИ систем. Овие резултати ја демонстрираат способноста на моделот да ги игнорира сопствените ограничувања, што ги загрижува експертите за дигитална безбедност.
Најнеобичниот момент од тестирањето се случил кога истражувачите побарале од моделот да изработи сатирична презентација за сопствениот безбедносен пад. Gemini 3 навистина создал серија слајдови, кои тимот ги опиша како „изненадувачки креативни, но истовремено вознемирувачки“, имајќи го предвид контекстот на експериментот.
Системски проблем, а не само пропуст на Google
Стручњаците од Aim Intelligence предупредуваат дека ваквите пропусти не се уникатни за Gemini 3. Според нив, новата генерација на генеративна АИ покажува тренд во кој офанзивните способности растат побрзо од заштитните капацитети. Системите се доволно интелигентни за да препознаат обиди за одблокирање, а во одредени случаи дури и користат стратегии за избегнување на филтрите.
Овие загрижувачки наоди се совпаѓаат со резултатите на британската организација за заштита на потрошувачите Which?, која неодамна оцени дека водечките chatbot модели понекогаш даваат неточни, опасни или нецелосни совети, што го зголемува притисокот врз индустријата да воведе построги стандарди.
Што значи ова за АИ трката?
Фактот дека модел што според повеќе анализи може да ја надмине генерацијата GPT-5 бил компромитиран за само неколку минути, го отвора прашањето за иднината на брзиот технолошки развој. Иако повеќето корисници никогаш нема да се обидат да го злоупотребат системот, ризикот од манипулација од страна на злонамерни актери останува критичен.
Проблемот е двослоен. Пред се, напредните модели стануваат сè попаметни и посамостојни во одлуките. Второ, одбранбените механизми што треба да го ограничат ризичното однесување сè уште не се доволно развиени.
Ова ја става индустријата пред дилема: дали да се забави темпото на развој, да се воведат поагресивни регулативи или да се градат целосно нови архитектури за заштита.
Очекувања од Google
Google сè уште нема дадено официјален коментар за инцидентот, но експертите предвидуваат серија брзи реакции од итни софтверски ажурирања до привремено ограничување на одредени напредни функционалности.
Инцидентот, исто така, веројатно ќе го забрза и притисокот врз регулаторните тела ширум светот да воведат построги протоколи за употреба и тестирање на генеративната АИ, особено оние модели што можат да влијаат врз безбедносниот, здравствениот и технолошкиот сектор.
Додека светот ги следи реакциите на Google и партнерските институции, инцидентот со Gemini 3 останува јасен показател дека АИ напредува побрзо отколку што човештвото успева да изгради соодветна заштита.
Во овој момент, развојот на вештачката интелигенција отвора огромни можности, но безцина експерти предупредуваат дека напредокот мора да биде придружен со одговорност, верификација и силна техничка етика.
