сказали писать на диссертацию что-то с машинным обучением) кажется, что 99% работы касательно deep learning/нейросетей это сбор датасета?
такое ощущение, что во всех гайдах где-то такое: "а возьмем рандомную нейросеть наугад, и прогоним через неё все данные и получим какой-то результат"
Не знаю как у в диплернинге, но в классическом машинлернинге предобработка данных это самая важная часть работы. Фитить модельки дело последнее
Потому что нет способа заранее узнать какая архитектура сети подойдет для данной задачи, вот и берут почти наугад
Я думаю если разрабатывать какую-то новую модель, а не юзать готовый resnet, то 90% времени уйдет на нее
Если задача тупая, так и происходит
Обсуждают сегодня