Izvor:
Agencije
20.12.2025
16:19
Komentari:
0
Kompanija OpenAI upozorava da bi buduće generacije velikih jezičkih modela mogle značajno da utiču na sajber bezbjednost, povećavajući i napadačke i odbrambene kapacitete.
Kompanija navodi da bi napredni AI sistemi u teoriji mogli biti zloupotrebljeni za razvoj sofisticiranih sajber napada, uključujući otkrivanje do sada nepoznatih ranjivosti ili izvođenje špijunskih operacija, zbog čega je neophodna pravovremena priprema.
Istovremeno, OpenAI ističe da isti tehnološki napredak može snažno da unaprijedi sajber odbranu. Poboljšanja u rezonovanju, analizi koda i automatizaciji mogla bi pomoći bezbjednosnim timovima da brže otkrivaju slabosti u sistemima, efikasnije analiziraju složen softver i preciznije primenjuju zakrpe. Umjesto da AI posmatra isključivo kao prijetnju, kompanija ovaj razvoj opisuje kao „dual-use“ izazov koji zahtijeva odgovorno upravljanje, primjenu zaštitnih mehanizama i kontrolisano puštanje naprednih funkcionalnosti u upotrebu.

Emisije
Energo klub: Poskupljenje mrežarine
Kako bi umanjio rizike, OpenAI već ulaže u razvoj AI alata za odbranu i najavljuje nove zaštitne mjere, uključujući strožu kontrolu pristupa naprednim funkcijama, ograničavanje izlaznih podataka kako bi se spriječilo curenje informacija i kontinuirani nadzor radi otkrivanja neuobičajenog ponašanja modela.
Kompanija je takođe najavila formiranje Frontier Risk Kounsil-a, savjeta sastavljenog od istaknutih stručnjaka za sajber bezbjednost, kao i program sa višeslojnim pristupom bezbjednosnim AI alatima koji će omogućiti istraživačima, kompanijama i bezbjednosnim stručnjacima da koriste naprednije funkcionalnosti za legitimne odbrambene svrhe, piše Informacija.

Nauka i tehnologija
1 d
0
Nauka i tehnologija
1 d
0
Nauka i tehnologija
1 d
0
Nauka i tehnologija
2 d
0Najnovije
Najčitanije
18
17
18
17
18
09
18
05
18
00
Trenutno na programu