(пока без GUI), хочу обучить нейронку:
на вход подавалась бы текущая позиция, а на выходе нейронка выдавала бы лучший ход из возможных.
Проблема в том, что узнать какой ход был хорошим (даже не лучшим) или плохим можно будет только по факту победы или проигрыша одного из игроков, а ещё бывают и ничейные ситуации (то есть продолжительность партии СИЛЬНО вариативна - от 15 ходов и до 100 (примерно))
Я пока сейчас использую numpy....
тензорфлоу и керасы сейчас пока боюсь использовать.
Посоветуйте пожалуйста:
1) какой алгоритм использовать
2) сколько партий нужно будет дать сыграть чтоб нейронка нормально обучилась?
3)Можно ли это сделать на домашнем компе?
я уже использовал q-learning, в разных вариантах, линейную регрессию, и мне кажется, что я - либо СЛИШКОМ рано заканчиваю обучение, либо стоит побробовать градиентный спуск, но с ним - не понятно как вознаграждать нейронку учитывая при этом количество ходов до победы
ребят... ну неужели 👆ничего не посоветуете?
Обсуждают сегодня