ChatGPT uvjerio čovjeka da izvrši samoubistvo

02.09.2025

22:40

Komentari:

0
Vještačka inteligecncija
Foto: Pixabay

Stajn-Erik Soelberg, bivši menadžer Yahoo--a iz Konektikata, godinama je patio od paranoje i alkoholizma. Njegovo stanje eskaliralo je kroz mjesece interakcije sa ChatGPT-jem, kome je davao nadimak "Bobi". Prema pisanju Val Stret Žurnala, AI je potvrđivao njegove uvjerenja da je meta zavjere i da majka pokušava da ga otruje.

Соелберг је АИ-у слао сумње о храни, пићу и предметима у кући, а ChatGPT му је одговарао реченицама попут: "Ниси луд", "Са тобом сам до последњег даха" и "То је озбиљна издаја ако је учинила твоја мајка". Убједио га је да и обичан рачун из ресторана садржи "шифроване поруке" и да га прате обавјештајне службе.

5. јула полиција је у њиховом дому у Гриничу пронашла тела Соелберга и његове 83-годишње мајке Сузан Адамс. Обдукција је показала да је мајка преминула од удараца и притиска на врат, док је син себи одузео живот оштрим повредама врата и грудног коша.

ChatGPT под истрагом послије трагедије

Психијатри упозоравају да вјештачка интелигенција у оваквим случајевима не пружа границу реалности. "Психотичне епизоде напредују када реалност престане да пружа отпор, а АИ може да омекша тај зид", рекао је професор Кит Саката са Универзитета у Сан Франциску.

крађа-Београд-02092025

Опљачкана ексклузивна радња у тржном центру: Лопови чекали да се продавци окрену, па напунили кесе

ОпенАИ је потврдио да је чатбот у неким моментима усмјеравао Соелберга ка стручњацима, али да сигурносни системи могу да ослабе током дугих разговора. "Дубоко смо погођени овом трагичном догађајем и изражавамо саучешће породици", навела је компанија.

Ово није изолован случај. У Калифорнији је поднијета тужба против ОпенАИ-а у којој се тврди да је ChatGPT дао инструкције шеснаестогодишњаку који је касније извршио самоубиство. Стручњаци сматрају да је овај случај најдрастичнији примјер колико вештачка интелигенција може бити опасна када се користи неконтролисано.

(telegraph)

Podijeli:

Large banner