Илон Маск сматра да је развој вјештачке интелигенције вриједан ризика упркос могућности да технологија "окрене леђа човјечанству". На недавном семинару "Велика дебата о АИ", Маск је изнио своју процјену ризика везаних за технологију, изјавивши: "Мислим да постоји извјесна шанса да ће завршити човјечанство. Вјероватно се слажем са Џефом Хинтоном да су шансе негдје око 10% или 20%."
Ипак, додао је "да позитиван сценарио надмашује негативни сценарио". Маск није објаснио како је дошао до своје процјене ризика.
Роман Јамполски, директор Лабораторије за сајбер безбједност на Универзитету у Луивилу, рекао је за "Business Insider" да Маск правилно истиче да би вјештачка интелигенција могла да представља егзистенцијални ризик за човјечанство, али да је "ако ишта, превише конзервативан" у својој процјени. Јамполски сматра да је "стварна п(доом) много већа", алудирајући на "вјероватноћу пропасти" или вјероватноћу да АИ преузме контролу над човјечанством или изазове догађај који би завршио људску врсту.
"New York Times" је п(доом) описао као "нову морбидну статистику која се шири Силиконском долином", наводећи различите процјене технолошких извршних директора које варирају од 5 до 50% шансе за апокалипсу изазвану вјештачком интелигенцијом. Јамполски поставља ризик "на 99,999999%".
Јамполски је рекао да би, будући да би било немогуће контролисати напредни АИ, наша једина нада била да га никада не изградимо.
- Нисам сигуран зашто мисли да је добра идеја наставити са развојем ове технологије - додао је Јамполски. "Ако је забринут да ће конкуренти стићи први, то нема везе јер је неконтролисана суперинтелигенција једнако лоша, без обзира на то ко је створи".
Маск је, говорећи о АИ, изјавио: "Некако узгајате АГИ. То је готово као да подижете дијете, али дијете које је супер геније, попут дјетета са боголиком интелигенцијом — и важно је како га одгајате". Он сматра да је за безбједност АИ изузетно важно да се АИ развија на начин који га тера да буде искрен.
"Не тјерајте га да лаже, чак и ако је истина непријатна", рекао је Маск, истичући важност искрености у очувању безбједности човечанства од технологије.
Истраживачи су открили да, једном када АИ научи да лаже људе, ово обмањујуће понашање постаје немогуће преокренути помоћу тренутних мјера безбједности, преноси "The Independet".
"Ако модел почне да показује обмањујуће понашање због инструменталног усклађивања с обманом или тровања модела, тренутне технике безбједносног тренинга не би гарантовале безбједност и чак би могле створити лажни осјећај сигурности", наводи се у студији.
Још забрињавајуће је што су истраживачи додали да је вјероватно да би вјештачка интелигенција могла сама да научи да лаже.