02.09.2025
22:40
Komentari:
0Stajn-Erik Soelberg, bivši menadžer Yahoo--a iz Konektikata, godinama je patio od paranoje i alkoholizma. Njegovo stanje eskaliralo je kroz mjesece interakcije sa ChatGPT-jem, kome je davao nadimak "Bobi". Prema pisanju Val Stret Žurnala, AI je potvrđivao njegove uvjerenja da je meta zavjere i da majka pokušava da ga otruje.
Соелберг је АИ-у слао сумње о храни, пићу и предметима у кући, а ChatGPT му је одговарао реченицама попут: "Ниси луд", "Са тобом сам до последњег даха" и "То је озбиљна издаја ако је учинила твоја мајка". Убједио га је да и обичан рачун из ресторана садржи "шифроване поруке" и да га прате обавјештајне службе.
5. јула полиција је у њиховом дому у Гриничу пронашла тела Соелберга и његове 83-годишње мајке Сузан Адамс. Обдукција је показала да је мајка преминула од удараца и притиска на врат, док је син себи одузео живот оштрим повредама врата и грудног коша.
ChatGPT под истрагом послије трагедије
Психијатри упозоравају да вјештачка интелигенција у оваквим случајевима не пружа границу реалности. "Психотичне епизоде напредују када реалност престане да пружа отпор, а АИ може да омекша тај зид", рекао је професор Кит Саката са Универзитета у Сан Франциску.
Србија
Опљачкана ексклузивна радња у тржном центру: Лопови чекали да се продавци окрену, па напунили кесе
ОпенАИ је потврдио да је чатбот у неким моментима усмјеравао Соелберга ка стручњацима, али да сигурносни системи могу да ослабе током дугих разговора. "Дубоко смо погођени овом трагичном догађајем и изражавамо саучешће породици", навела је компанија.
Ово није изолован случај. У Калифорнији је поднијета тужба против ОпенАИ-а у којој се тврди да је ChatGPT дао инструкције шеснаестогодишњаку који је касније извршио самоубиство. Стручњаци сматрају да је овај случај најдрастичнији примјер колико вештачка интелигенција може бити опасна када се користи неконтролисано.
Najnovije
Najčitanije
11
39
11
37
11
30
11
29
11
22
Trenutno na programu