Технолошки гигант "ОпенАИ" рекламира свој алат за транскрипцију са вјештачком интелигенцијом "Виспер" као поуздан и тачан на људском нивоу, али се испоставило да се у транскрипцијама појављују измишљене реченице, наводе стручњаци.
Софтвер измишља дијелове текста или читаве реченице, потврдило је више од десет софтверских инжењера, програмера и академских истраживача, пренијела је агенција ПА медија.
Стручњаци су рекли да измишљени дијелови, које у индустрији називају халуцинацијама, могу да садрже расистичке коментаре, насилну реторику, чак и измишљене медицинске третмане.
Они наводе да су такве измишљотине проблематичне јер се “Виспер” користи у индустријским гранама широм свијета за превођење и транскрипцију интервјуа, генерисање текста у популарним потрошачким технологијама и креирање титлова за видео-записе.
Још више забрињава, кажу стручњаци, журба медицинских центара да почну да користе алате засноване на “Висперу” за транскрипцију консултација пацијената са љекарима, упркос упозорењима из компаније “ОпенАИ” да алат не смије да се користи у “доменима високог ризика”.
Истраживач са Универзитета у Мичигену који је проучио записе са јавних састанака рекао је да је пронашао халуцинације у осам од сваких десет аудио-транскрипција које је прегледао.
Други инжењер за машинско учење рекао је да је открио сувишне дијелове текста у отприлике половини од преко 100 сати “Висперових” транскрипција које је анализирао.
Трећи програмер је рекао да је пронашао халуцинације у готово сваком од 26.000 транскрипта које је направио помоћу “Виспера”.
Проблеми постоје чак и код добро снимљених кратких аудио-записа. Недавно истраживање компјутерских научника открило је 187 халуцинација у преко 13.000 јасних аудио-исјечака које су прегледали.