Компания Sony сообщила, что её прорывной искусственный интеллект за последние два года научился на высшем уровне играть в популярную и реалистичную гоночную игру Gran Turismo Sport от Polyphony Digital.
ИИ продвинулся в своём обучении так далеко, что даже смог победить лучших в мире игроков-людей.
ИИ по имени GT Sophy обыграл людей даже тогда, когда на трассе наблюдалось множество виртуальных гоночных автомобилей. Последнее значительно повысило сложность прохождения трассы, но компьютер с этим исправился.
Видеоигра про автогонки, такая как Gran Turismo, предлагает неограниченный выбор тактики, а также смоделированные законы физики. По словам одного из геймеров, участвующих в эксперименте, GT Sophy выбрала новые способы стратегического планирования на трассе, поэтому с ней было очень тяжело бороться.

GT Sophy обогнала лучших игроков в гоночной игре.
GT Sophy — это особый эксперимент, демонстрирующий, что ИИ может побеждать в таких играх, как шахматы и го, которые долгое время считались исключительной областью человеческого интеллекта. ИИ также побеждал людей в классических видеоиграх Atari и стратегии в реальном времени Starcraft.
Работа GT Sophy основана на обучающихся нейронных сетях, которые имитируют работу человеческого мозга. Это достижение Sony стало настолько заметно, что удостоилось отдельной статьи в престижном журнале Nature.