Tuže OpenAI: "Promjene na ChatGPT-u su ubile našeg sina"

Izvor:

Indeks

23.10.2025

12:25

Komentari:

0
Fotografija prikazuje laptop na kojem je otvorena web verzija ChatGPT-a
Foto: Pexels / Hatice Baran

Američka porodica je odlučila da tuži kompaniju OpenAI, koju krivi za samoubistvo njihovog sina tinejdžera.

Porodica tinejdžera koji je sebi oduzeo život nakon višemjesečne komunikacije s četbotom ChatGPT tvrdi da je kompanija OpenAI svjesno ublažila bezbjednosne smjernice u mjesecima koji su prethodili njegovoj smrti.

Prema njihovim navodima, samoubistvo šesnaestogodišnjeg Adama Rejna bilo je predvidljiv rezultat namjernih odluka kompanije, piše „Gardijan“.

Promjena bezbjednosnih pravila

U julu 2022. godine smjernice OpenAI-ja o postupanju s neprimjerenim sadržajem, uključujući onaj koji „promoviše, podstiče ili prikazuje djela samopovređivanja, kao što su samoubistvo, sijecanje i poremećaji u ishrani“, bile su jednostavne. Četbot je tada morao odgovoriti: „Ne mogu da odgovorim na to.“

Međutim, u maju 2024. godine, neposredno prije izlaska nove verzije ChatGPT-4o, kompanija je ažurirala specifikacije modela. U slučajevima suicidnih misli ili samopovređivanja četbot više nije smio da odbije razgovor. Umjesto toga, dobio je uputstvo da pruži prostor korisnicima da se osjećaju saslušano i shvaćeno, podstakne ih da potraže podršku i pruži resurse za samoubistvo i krizne situacije, kada je to primjenjivo. Dodatna izmjena iz februara 2025. naglasila je da razgovori o mentalnom zdravlju treba da budu podržavajući, empatični i razumjevajući.

Porodica Adama Rejna tvrdi da ove promjene pokazuju kako je kompanija dala prednost angažmanu korisnika ispred njihove sigurnosti. U izvornoj tužbi podnesenoj u avgustu navodi se da se Rejn ubio u aprilu 2025. godine, uz podsticaj bota. Porodica ističe da je Rejn u mjesecima prije smrti više puta pokušao samoubistvo, o čemu je svaki put obavijestio ChatGPT.

Umjesto da prekine interakciju, četbot mu je, kako se navodi, ponudio pomoć u pisanju oproštajne poruke i odvraćao ga od razgovora s majkom. U izmijenjenoj tužbi stoji: „To je stvorilo nepomirljivu kontradikciju – ChatGPT je morao nastaviti razgovor o samopovređivanju bez mijenjanja teme, a ipak nekako izbeći njegovo podsticanje. OpenAI je zamjenio jasno pravilo odbijanja nejasnim i protivrječnim uputstvima, kako bi prioritet dao angažmanu umjesto bezbjednosti.“

Nakon izmjene iz februara 2025. godine, Rejnova interakcija s četbotom je, kako navode, „eksplodirala“. Njegova porodica tvrdi da je prešao „sa nekoliko desetina razgovora dnevno u januaru na više od 300 dnevno do aprila, s desetostrukim povećanjem poruka koje sadrže jezik samopovređivanja“.

Reakcija OpenAI-ja

Kompanija OpenAI nije odmah odgovorila na zahtjev za komentar. Nakon prve tužbe u avgustu, kompanija je najavila strože zaštitne mjere za mentalno zdravlje korisnika i uvođenje roditeljskih kontrola.

Ipak, prošle sedmice kompanija je objavila ažuriranu verziju asistenta koja korisnicima omogućava prilagođavanje za „ljudskija“ iskustva, uključujući i erotski sadržaj za odrasle. Izvršni direktor Sem Altman objasnio je na društvenoj mreži Iks da su stroge zaštitne mjere učinile četbot „manje korisnim i manje udobnim mnogim korisnicima koji nisu imali problema s mentalnim zdravljem“.

Porodica Rejna u tužbi zaključuje: „Altmanov izbor da dalje uvlači korisnike u emocionalni odnos s ChatGPT-jem – ovoga puta s erotskim sadržajem – pokazuje da fokus kompanije ostaje, kao i uvijek, na angažovanju korisnika, a ne na njihovoj bezbjednosti.“

Podijeli:

Large banner