Голосовой помощник Алекса от Amazon предложил десятилетней девочке опасный для жизни челлендж. Об этом рассказала мама ребенка Кристин Ливдал в «Твиттере».
По словам женщины, в ответ на команду «Скажи, что мне сделать» Алекса посоветовала ее дочери положить монетку между розеткой и зарядным устройством. При этом искусственный интеллект не предупредил, что это представляет смертельную опасность для девочки.
Если бы девочка последовала совету Алексы, то могла бы получить сильный удар током или спровоцировать пожар. К счастью, мама в это время была дома и успела вовремя остановить дочку. При этом позже ребенок заявил, что не стал бы принимать предложение голосового помощника, так как он «слишком умный для этого».
Пользователи «Твиттера» поддержали Ливдал и пояснили, что искусственный интеллект анализирует и собирает весь пользовательский контент в Сети, однако его никто не фильтрует. Из-за этого ответы помощника иногда бывают шокирующими, но в Amazon заявили, что уже устранили проблему, которая спровоцировала инцидент с девочкой.
Заглавное фото: daily.afisha.ru
0 комментариев