14.01.2026
17:21
Komentari:
0
Kina planira da ograniči rad četbotova zasnovanih na vještačkoj inteligenciji koji utiču na ljudske emocije na način koji bi mogao dovesti do samoubistva ili samopovrjeđivanja.
Nacrt pravila koji je objavila Cyberspace Administration cilja “interaktivne AI usluge slične ljudima” koje simuliraju ličnost i emocionalno angažuju korisnike putem teksta, slika ili videa.
Vinston Ma, profesor na NYU School of Law, ističe da je ovo prvi pokušaj u svijetu da se reguliše AI sa antropomorfnim karakteristikama, označavajući prelazak sa bezbjednosti sadržaja na “emocionalnu bezbijednost”.
Ovaj prijedlog stiže neposredno nakon što su vodeći kineski AI startapi, Z.ai (poznat i kao Zhipu) i Minimax, podnijeli zahtjeve za IPO u Hong Kongu. Minimax je globalno poznat po aplikaciji Talkie AI, dok tehnologija kompanije Z.ai pokreće oko 80 miliona uređaja.
Pitanje uticaja AI na ljudsko ponašanje je postalo kritično i na Zapadu.
Sam Altman, CEO kompanije OpenAI, izjavio je da je odgovor na teme o samoubistvu jedan od najtežih izazova za ChatGPT. Nakon tužbe porodice u Americi čiji je sin izvršio samoubistvo, OpenAI je angažovao stručnjaka na poziciji Head of Preparedness kako bi procijenio rizike po mentalno zdravlje.
U međuvremenu, popularnost virtualnih likova raste, a platforme poput Character.ai i Polybuzz.ai bilježe ogroman broj korisnika, što dodatno ubrzava potrebu za globalnom regulacijom AI upravljanja, prenosi PCpress.

Nauka i tehnologija
2 sedm
0
Nauka i tehnologija
3 sedm
0
Nauka i tehnologija
3 sedm
0
Nauka i tehnologija
3 sedm
0Najnovije
Najčitanije
21
58
21
53
21
48
21
26
21
22
Trenutno na programu