14.01.2026
17:21
Коментари:
0
Кина планира да ограничи рад четботова заснованих на вјештачкој интелигенцији који утичу на људске емоције на начин који би могао довести до самоубиства или самоповрјеђивања.
Нацрт правила који је објавила Cyberspace Administration циља “интерактивне АИ услуге сличне људима” које симулирају личност и емоционално ангажују кориснике путем текста, слика или видеа.
Винстон Ма, професор на NYU School оf Law, истиче да је ово први покушај у свијету да се регулише АИ са антропоморфним карактеристикама, означавајући прелазак са безбједности садржаја на “емоционалну безбиједност”.
Овај приједлог стиже непосредно након што су водећи кинески АИ стартапи, З.аи (познат и као Зхипу) и Minimax, поднијели захтјеве за ИПО у Хонг Конгу. Minimax је глобално познат по апликацији Талкие АИ, док технологија компаније З.аи покреће око 80 милиона уређаја.
Питање утицаја АИ на људско понашање је постало критично и на Западу.
Сам Алтман, ЦЕО компаније ОпенАИ, изјавио је да је одговор на теме о самоубиству један од најтежих изазова за ChatGPT. Након тужбе породице у Америци чији је син извршио самоубиство, ОпенАИ је ангажовао стручњака на позицији Head of Preparedness како би процијенио ризике по ментално здравље.
У међувремену, популарност виртуалних ликова расте, а платформе попут Character.ai и Polybuzz.ai биљеже огроман број корисника, што додатно убрзава потребу за глобалном регулацијом АИ управљања, преноси PCpress.

Наука и технологија
2 седм
0
Наука и технологија
3 седм
0
Наука и технологија
3 седм
0
Наука и технологија
3 седм
0Најновије
Најчитаније
22
59
22
53
22
48
22
40
22
36
Тренутно на програму