Про суеверия искусственного интеллекта

Моя дипломная работа была связана с созданием хитрого и обучаемого искусственного интеллекта. Мы давали железяке некоторый текст, а она должна пометить в нём интересные предложения.

Чтобы система обучалась, мы её наказывали за неправильные отметки.

Вот система говорит неправильный ответ, и получает пинка. Потирая ушибленное место, она начинает соображать: что же она сделала не так? И, зачастую, вопреки логике программиста, делала весьма неожиданные выводы. Она думает: «так, меня в очередной раз наказали за то, что я выделила тринадцатое предложение». Смотрит на это тринадцатое предложение и никак не может понять где ошибка. Обычное такое предложение. И она делает вывод: «ага, оно плохое — потому что тринадцатое».

После этого прекрасного заключения, система принципиально перестаёт помечать тринадцатые предложения от греха подальше. Затем она перестаёт помечать предложения из тринадцати букв. И предложения, где тринадцать слов. В чёрный список попадает слово «тринадцать».

Это весьма похоже на человеческие суеверия: если после встречи с чёрной кошкой, пешехода сбил автомобиль, он до конца своей жизни будет винить во всём этом чёртову кошку. И каждая новая чёрная кошка в его жизни будет провоцировать  логический вывод: «тааак, где-то поблизости лихач на тонированной девятке. Пойду-ка я домой».

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *