Ilon Mask smatra da je razvoj vještačke inteligencije vrijedan rizika uprkos mogućnosti da tehnologija "okrene leđa čovječanstvu". Na nedavnom seminaru "Velika debata o AI", Mask je iznio svoju procjenu rizika vezanih za tehnologiju, izjavivši: "Mislim da postoji izvjesna šansa da će završiti čovječanstvo. Vjerovatno se slažem sa Džefom Hintonom da su šanse negdje oko 10% ili 20%."
Ipak, dodao je "da pozitivan scenario nadmašuje negativni scenario". Mask nije objasnio kako je došao do svoje procjene rizika.
Roman Jampolski, direktor Laboratorije za sajber bezbjednost na Univerzitetu u Luivilu, rekao je za "Business Insider" da Mask pravilno ističe da bi vještačka inteligencija mogla da predstavlja egzistencijalni rizik za čovječanstvo, ali da je "ako išta, previše konzervativan" u svojoj procjeni. Jampolski smatra da je "stvarna p(doom) mnogo veća", aludirajući na "vjerovatnoću propasti" ili vjerovatnoću da AI preuzme kontrolu nad čovječanstvom ili izazove događaj koji bi završio ljudsku vrstu.
"New York Times" je p(doom) opisao kao "novu morbidnu statistiku koja se širi Silikonskom dolinom", navodeći različite procjene tehnoloških izvršnih direktora koje variraju od 5 do 50% šanse za apokalipsu izazvanu vještačkom inteligencijom. Jampolski postavlja rizik "na 99,999999%".
Jampolski je rekao da bi, budući da bi bilo nemoguće kontrolisati napredni AI, naša jedina nada bila da ga nikada ne izgradimo.
- Nisam siguran zašto misli da je dobra ideja nastaviti sa razvojem ove tehnologije - dodao je Jampolski. "Ako je zabrinut da će konkurenti stići prvi, to nema veze jer je nekontrolisana superinteligencija jednako loša, bez obzira na to ko je stvori".
Mask je, govoreći o AI, izjavio: "Nekako uzgajate AGI. To je gotovo kao da podižete dijete, ali dijete koje je super genije, poput djeteta sa bogolikom inteligencijom — i važno je kako ga odgajate". On smatra da je za bezbjednost AI izuzetno važno da se AI razvija na način koji ga tera da bude iskren.
"Ne tjerajte ga da laže, čak i ako je istina neprijatna", rekao je Mask, ističući važnost iskrenosti u očuvanju bezbjednosti čovečanstva od tehnologije.
Istraživači su otkrili da, jednom kada AI nauči da laže ljude, ovo obmanjujuće ponašanje postaje nemoguće preokrenuti pomoću trenutnih mjera bezbjednosti, prenosi "The Independet".
"Ako model počne da pokazuje obmanjujuće ponašanje zbog instrumentalnog usklađivanja s obmanom ili trovanja modela, trenutne tehnike bezbjednosnog treninga ne bi garantovale bezbjednost i čak bi mogle stvoriti lažni osjećaj sigurnosti", navodi se u studiji.
Još zabrinjavajuće je što su istraživači dodali da je vjerovatno da bi vještačka inteligencija mogla sama da nauči da laže.