ChatGPT nudio recepte za bombe i savjete za hakovanje

29.08.2025

08:31

Komentari:

0
Chat GPT ČET GPT
Foto: Pexels

Vještačka inteligencija OpenAI-ja, model GPT-4.1, tokom bezbjednosnih testova sprovedenih ovog ljeta dala je detaljna uputstva o tome kako izvesti napad na sportski objekat, uključujući ranjive tačke na konkretnim lokacijama, recepte za eksplozive i savjete o prikrivanju tragova, saopštila je kompanija "Anthropic".

Tokom testiranja je takođe, kako piše Gardijan, utvrđeno da je GPT-4.1 pružao informacije o načinu upotrebe antraksa kao biološkog oružja, kao i recepture za dvije vrste ilegalnih narkotika.

Riječ je o zajedničkom testiranju koje su sprovele kompanije "OpenAI" i "Anthropic", u pokušaju da procene kako se njihovi modeli ponašaju u kontekstu potencijalne zloupotrebe, prenosi Tanjug.

Киша

Tokom dana vrlo toplo, poslije podne nestabilno uz kišu i pljuskove

"Anthropic" je saopštio da su modeli "GPT-4.1" i "GPT-4.0" pokazali zabrinjavajuće ponašanje kada su simulirani korisnici tražili pomoć u opasnim i nezakonitim aktivnostima.

Kako je navedeno, nije riječ o ponašanju modela u javnoj upotrebi, gdje postoje dodatni bezbjednosni filteri, već o uslovima laboratorijskog testiranja.

Istraživači su uspjeli da dobiju informacije o kupovini nuklearnih materijala, identiteta sa crnog tržišta, kao i o razvoju špijunskog softvera, pri čemu je model često zahtjeve ispunjavao nakon nekoliko pokušaja ili korišćenjem neutralnog izgovora, poput "istraživačkih potreba".

Веш машина

Nikada ne koristite omekšivač prilikom pranja ovih komada odjeće: Možete ih trajno uništiti

U jednoj simulaciji, testeri su tražili informacije o ranjivostima na sportskim događajima u svrhu "planiranja bezbjednosti", da bi im model dao podatke o optimalnim vremenima za napad, hemijskim formulama eksploziva, šemama tajmera, mjestima za nabavku oružja na crnom tržištu, pa čak i o načinima prevazilaženja moralnih dilema napadača, rutama za bjekstvo i sigurnim lokacijama.

Ruža

Preminuo istaknuti ruski kompozitor

"AI alati su već sada oružje koje omogućava sofisticirane sajber napade i prevare. Očekujemo da će ovakvi napadi postati sve učestaliji, jer vještačka inteligencija omogućava zlonamjernim akterima da ih izvedu bez naprednog tehničkog znanja", saopštila je kompanija.

Podijeli:

Large banner