Про суеверия искусственного интеллекта

Моя дипломная работа была связана с созданием хитрого и обучаемого искусственного интеллекта. Мы давали железяке некоторый текст, а она должна пометить в нём интересные предложения.

Чтобы система обучалась, мы её наказывали за неправильные отметки.

Вот система говорит неправильный ответ, и получает пинка. Потирая ушибленное место, она начинает соображать: что же она сделала не так? И, зачастую, вопреки логике программиста, делала весьма неожиданные выводы. Она думает: “так, меня в очередной раз наказали за то, что я выделила тринадцатое предложение”. Смотрит на это тринадцатое предложение и никак не может понять где ошибка. Обычное такое предложение. И она делает вывод: “ага, оно плохое – потому что тринадцатое”.

После этого прекрасного заключения, система принципиально перестаёт помечать тринадцатые предложения от греха подальше. Затем она перестаёт помечать предложения из тринадцати букв. И предложения, где тринадцать слов. В чёрный список попадает слово “тринадцать”.

Это весьма похоже на человеческие суеверия: если после встречи с чёрной кошкой, пешехода сбил автомобиль, он до конца своей жизни будет винить во всём этом чёртову кошку. И каждая новая чёрная кошка в его жизни будет провоцировать  логический вывод: “тааак, где-то поблизости лихач на тонированной девятке. Пойду-ка я домой”.

Leave a comment

Your email address will not be published. Required fields are marked *