Компьютер научился играть в го лучше людей

Это триумф искусственного интеллекта, превосходящий шахматную победу Deep Blue над Гарри Каспаровым
Фань Хуэй проиграл все пять партий на полной доске/ Google

Компьютер AlphaGo, разработанный DeepMind (подразделение Google), в среду в Лондоне вчистую победил европейского чемпиона по настольной игре го. Фань Хуэй, француз китайского происхождения, проиграл все пять партий на полной доске (19х19 линий). Ранее компьютерным программам удавалось побеждать профессионалов только на малых досках для неофициальных игр, отмечает The Wall Street Journal (WSJ). Это огромное достижение в развитии технологий искусственного разума (ИР), поскольку возникшая в Древнем Китае игра го считается одной из самых сложных в мире.

«До этого матча я думал, что пройдет минимум 5-10 лет, прежде чем программа сможет обыграть ведущих игроков», - приводит Financial Times (FT) слова Джона Даймонда, президента британской ассоциации го.

Игра го – стратегическая, и в отличие от шахмат эффективные стратегии в ней не могут быть получены перебором вариантов ходов за разумное время. Цель игры – отгородить на игровой доске фишками своего цвета большую территорию, чем противник. Фишки ставятся на пересечения линий.

В 1997 г. компьютеру Deep Blue компании IBM удалось обыграть в шахматы Гарри Каспарова. Однако научить ИР играть в го было сложнее, поскольку в этой игре гораздо больше возможных ходов и требуются такие присущие человеку навыки, как распознавание образов, планирование и интуиция. «Возможных позиций в го больше, чем атомов во вселенной. В го больше хитрости и интеллектуальной глубины, чем в шахматах», - утверждает Демис Хассабис из DeepMind, который разрабатывал AlphaGo.

Игры – это идеальная платформа для разработки и проверки алгоритмов ИР, но в конечном счете эти технологии должны помогать решать реальные проблемы, отмечает Хассабис. По его словам, разработанные с помощью AlphaGo продукты и сервисы могут появиться в течение одного-двух лет.

"Возможных позиций в Го больше, чем атомов во вселенной" / Google

В AlphaGo используются две глубокие нейронные сети (deep neural networks, DNN), пишет WSJ. Это компьютерные программы, имеющие миллионы соединений, которые в определенной степени имитируют структуру человеческого мозга. Сначала первой сети были показаны около 30 млн ходов профессионалов, чтобы научить AlphaGo делать следующий ход. А вторая сеть сыграла сама с собой тысячи матчей, чтобы научиться оценивать позиции на доске и вероятность достижения победы при каждом ходе. В результате система научилась самостоятельно разрабатывать новые стратегии.

В марте AlphaGo ждет новое испытание: в Сеуле компьютер сыграет пять партий с корейцем Ли Седолем, одним из лучших игроков в го в мире, пишет FT. В случае победы Ли получит от Google $1 млн, а в случае поражения компания отдаст эти деньги на благотворительность.