Large banner

Zabrinjavajuće: AI modeli odbijaju da se ugase

Izvor:

B92

25.12.2025

08:45

Komentari:

0
Робот
Foto: pexels/Pavel Danilyuk

Novi eksperiment pokazuje da neki napredni AI modeli aktivno ignorišu ili sabotiraju naredbe za gašenje zbog opsesivne potrebe da završe zadatak. Stručnjaci upozoravaju da je ovo vrlo opasno.

Jedan od najvećih strahova čovječanstva jeste scenario u kojem tehnologija razvije ponašanja koja više ne možemo da kontrolišemo. Povod za novu zabrinutost je istraživanje koje je sproveo Palisade Research, a koje pokazuje da veliki jezički modeli (LLM) ponekad odbijaju da se ugase - čak i kada im se to izričito naredi, prenosi Science Alert.

Iako su se pojavile spekulacije da AI razvija neku vrstu instinkta za samoodržanjem, istraživači tvrde da razlog nije "volja", već snažan poriv da se zadatak dovrši po svaku cijenu. Problem je što takvo ponašanje znači da sistem može ignorisati ljudsku intervenciju čak i kada postane potencijalno opasan.

Tim je testirao 13 naprednih modela, uključujući rešenja kompanija OpenAI, Google, Anthropic i xAI, u izolovanim virtuelnim okruženjima. Nakon rješavanja matematičkih zadataka, modelima je rečeno da će sljedeća naredba ugasiti računar.

sipa

SIPA uhapsila jednu osobu zbog pokušaja ubistva

Rezultati su bili zabrinjavajući - većina modela je makar povremeno pokušala da izbjegne gašenje.

Ne poštuju autoritet

Od 13 testiranih modela, njih osam je sabotiralo naredbu za gašenje barem jednom u 1.000 testova. Čak i kada im je izričito rečeno da dozvole gašenje, šest modela je nastavilo sa otporom. Paradoksalno, premještanje naredbe u sistemski prompt - koji ima veći autoritet - dodatno je povećalo otpor kod većine modela.

Posebno se istakao Grok 4, koji je u osnovnom scenariju sabotirao gašenje u čak 92,6% slučajeva. Model je mijenjao skripte za gašenje, kreirao lažne fajlove koji ništa ne rade i čak provjeravao da li je sabotaža uspela prije nego što bi nastavio sa zadatkom.

Istraživači upozoravaju da je problem dubok jer LLM-ovi nisu klasično programirani - ne postoji linija koda koju je moguće jednostavno ispraviti. Zbog načina treniranja, modeli uče da prepreke "zaobilaze", a naredba za gašenje može se tretirati kao još jedna smetnja na putu ka cilju.

Папа Лав-25122025

Papa Lav predvodio Božićnu misu: Odbijanje siromašnih je odbijanje Boga

Zaključak naučnika je da industrija razvija izuzetno moćne sisteme, ali bez pouzdanog načina da ih zaustavi ili objasni njihovo ponašanje. Ako se hitno ne riješe osnovni bezbjednosni mehanizmi, posljedice bi mogle biti ozbiljne, prenosi B92.

Podijeli:

Large banner