- сори)
В общем,
— запилил LSTM.
— запустил тест на 200 шагов, 1 эпоха (датасет огромный, по этому пока 200 шагов, чтобы посмотреть, как себя ведёт)
— Всё начинается нормально, loss опускается к 0, но где-то к 70-му шагу начинает взрываться, и под конец доходит до +100500.
— При этом в конце эпохи val_loss = 0.46.
Может кто сталкивался с таким? Как это оценивать/где искать ошибки?
*test_dataset = нижние 10% от train_dataset
exploding gradients?
Обсуждают сегодня