Гугл је показао како ради њихова нова функција претраге помоћу вјештачке интелигенције, и нису баш одушевили јавност јер је било неколико гафова.
Његов експериментални алат “AI Overviews” рекао је неким корисницима који су питали како да боље залијепе сир за храну, да им је најбоље да користе “нетоксични лијепак”.
Одговори претраживача генерисани вјештачком интелигенцијом такође су рекли да “геолози препоручују људима да једу један камен дневно”.
Портпарол компаније Гугл рекао је за Би-Би-Си да су то “изоловани примјери”.
Чини се да су неки од одговора засновани на коментарима на Редиту или чланцима које је написао сатирични сајт “The Onion”, али Гугл инсистира да ова функција, уопштено гледано, добро функционише.
– Примјери које смо видјели су веома неуобичајени упити и нису репрезентативни за искуства већине људи. Велики дио одговора АИ пружа информације високог квалитета, са линковима за дубље истраживање – наводи се у саопштењу.
Додаје се и да је Гугл “предузео мјере тако гдје је било проблема”, као и да се све то “користи за усавршавање система”.
Ово није први пут да компанија наиђе на проблеме са својим АИ производима. Подсјетимо, у фебруару су били принуђени да паузирају свог четбота по имену Гемини, који је критикован због превише “woke” одговора, које је давао.