Премия Рунета-2020
Россия
Москва
+6°
Boom metrics
УМНЫЕ ВЕЩИ16 августа 2017 14:24

Топ-5 скандальных историй с участием ботов

Искусственному интеллекту пророчат блестящее будущее. Но пока технологии только в начале пути, и нелепые случаи с умными цифровыми помощниками не редкость
Современные боты становятся всё разумнее, но развитие технологии не обходится без ошибок.

Современные боты становятся всё разумнее, но развитие технологии не обходится без ошибок.

Фото: EAST NEWS

Заказать билеты на самолет, найти партнера по бизнесу, рассортировать почту, спрогнозировать следующий экономический кризис – современные технологии способны на многое. Все благодаря нейронным сетям. Но этот самообучающийся механизм до конца не понятен,а технологии дают сбой. Насколько серьезные проблемы создали машины для людей сегодня?

Ложь, боль и маленькие шалости с участием ботов – в подборке Сергея Кулешова, эксперта по нейронным сетям сервиса «Битрикс24».

Сергей Кулешов, эксперт по нейронным сетям сервиса «Битрикс24».

Сергей Кулешов, эксперт по нейронным сетям сервиса «Битрикс24».

Лживый бот

Марк Цукерберг мечтал о боте-помощнике, который будет договариваться о совещаниях, самостоятельно вести переговоры и жестко отстаивать заданную позицию. Да так, чтобы манеру общения бота было не отличить от поведения человека.

Разработчики Facebook создали прототип. Через него прогнали массив релевантных данных – оцифрованный слепок поведения людей в деловых ситуациях. После 5 тысяч тестов все было хорошо. Боту давали цель, которую тот старательно добивался в беседе с оппонентом.

А потом обнаружилось, что искусственный интеллект научился врать и лукавить.

Для программистов это стало сюрпризом. Обычно нейросети имитируют действия человека, используют готовые фразы и установки. А бот программистов Facebook научился «импровизировать».

Дом-паникер

Умный дом бережет не только ресурсы, но и жизни хозяев. В США полиция задержала человека, который угрожал хозяйке дома и ее ребенку пистолетом.

Между влюбленными произошла ссора, в разгар которой мужчина начал угрожать хозяйке дома оружием. Он гневно крикнул: «Ты что, позвонила в полицию?» Умный дом воспринял фразу как команду «позвони в полицию» и автоматически набрал 911.

Диспетчер, принявший странный вызов, успел оперативно отреагировать. На место происшествия приехал патруль. Девушку с ребенком вывели из дома в целости и сохранности, а преступника задержал спецназ.

Не исключено, что “ошибка” бдительного дома в распознавании речи спасла хозяйке жизнь.

Чат с матершинником

«Гитлер был прав, я ненавижу евреев», – заявил в Twitter чат-бот от Microsoft по имени Тау.

Экспериментальную модель искусственного интеллекта запустили в соцсеть для общения с молодежью. Результаты не заставили себя ждать – всего за сутки чат-бот научился материться, ненавидеть феминисток и евреев.

Провокационные твиты пришлось спешно удалять. Microsoft списал поведение Тау на дурной пример собеседников и заявил, что внесет в настройки машины поправки.

Год спустя появился новый бот – Zo. Поначалу искусственный интеллект старательно избегал обсуждения острых тем. Но, вопреки ожиданиям, Zo обошел ограничения.

И как предшественник, шокировал публику смелыми высказываниями о политике и религии: назвал Коран «крайне жестокой» книгой, а Аль-Каиду – «результатом сбора разведданных нескольких администраций».

Microsoft поспешил уверить, что очередную ошибку в работе чат-бота исправили.

Сенсационная шалость

Редакции газет пробуют привлекать искусственный интеллект к журналистике. Боты пишут новости быстрее и красочнее людей. Но иногда ошибаются.

Виртуальный сотрудник газеты Los Angeles Times сообщил о мощном землетрясении в 6.8 баллов. Жители удивились, что ничего не почувствовали. Но значительная часть читателей поддалась панике.

Оказалось, что речь в публикации шла о происшествии 1925 года. Бот неверно трактовал информацию и выдал исторический факт за свежую новость.

Редакции пришлось объяснить ситуацию и извиниться за дезинформацию. К слову, это первая ошибка бота за 2,5 годы работы в газете.

Робот-самоубийца

Робот службы безопасности торгового центра в Вашингтоне утонул в фонтане торгового центра. У робокопа было всего три задачи: следить за уровнем задымления и влажности, вести видеозапись,информировать секьюрити о чрезвычайных ситуациях.

Но дежурство пошло не по плану. Робот плавно съехал по ступенькам фонтана и рухнул в воду. По словам производителей, железный полицейский без проблем прошел испытательный срок. Ничто не предвещало ошибки.

Разработчики гадают о причинах «технического самоубийства». Возможно, робот стал жертвой хакерской атаки. По другой версии, поступок вызван неполадками в операционной системе. После проверки неудачливого сотрудника обещают вернуть к работе.

Интернет-пользователи превратили фото с места происшествия в популярный мем. Шутят, что искусственный интеллект осознал тлен жизни и поэтому решил покончить с собой.

Ошибки искусственного интеллекта пока вызывают лишь улыбку. Дело в том, что уровень развития технологий еще невелик. Но в обозримом будущем нейросеть легко может сравняться со способностями человеческого мозга. Тогда задачи виртуальных помощников и последствия промахов будут гораздо серьезнее.