хочу обучить нейронку:
на вход подавалась бы текущая позиция, а на выходе нейронка выдавала бы лучший ход из возможных.
Проблема в том, что узнать какой ход был хорошим (даже не лучшим) или плохим можно будет только по факту победы или проигрыша одного из игроков, а ещё бывают и ничейные ситуации (то есть продолжительность партии СИЛЬНО вариативна - от 15 ходов и до 100 (примерно))
Я пока сейчас использую numpy....
тензорфлоу и керасы сейчас пока боюсь использовать.
Посоветуйте пожалуйста:
1) какой алгоритм использовать
2) сколько партий нужно будет дать сыграть чтоб нейронка нормально обучилась?
3)Можно ли это сделать на домашнем компе?
я уже использовал q-learning, в разных вариантах, линейную регрессию, и мне кажется, что я - либо СЛИШКОМ рано заканчиваю обучение, либо стоит побробовать градиентный спуск, но с ним - не понятно как вознаграждать нейронку учитывая при этом количество ходов до победы
ок ребят, вон там 👆помогите пожжалуйста
https://github.com/udacity/deep-reinforcement-learning здесь с вероятностью 99% есть ответ на твой вопрос. берешь алгоритм, пишешь функцию потерь и запускаешь играть саму с собой.
чёт так много ссылок... и ни одного объяснения... даже не знаю с какой ссылки начать чтоб компмне спалить...
Обсуждают сегодня