(xls/csv) либо давать урл на гугл таблицу.
2. В таблице может быть неограниченное число строк - до 80к, например.
3. В каждой строке хранятся данные. Из каждой строки создаётся новая запись в базе данных (postgresql)
4. Каждая запись при сохранении индексируется в ElasticSearch.
5. Перед сохранением записи в бд нужно циклом пройти по каждой строке, чтобы привести данные в нужный формат.
Много времени уходит на саму обработку данных, чтобы привести их к нужному формату. Ну и делать 80к итераций это тоже зашквар ещё тот.
Всё это дело я вынес в celery.
Как можно оптимизировать? Потоки? Мультипроцессы? Селери чанки?
питон хоть и тормозной, но чтоб долго парсить 80тыс строк - это уже перебор. Может дело в " Из каждой строки создаётся новая запись в базе данных (postgresql)"?
Ну а если просто взять таблицу и прогнать описанное в вопросе без селери, без вебапи, но с базой данных это насколько долго?
Можешь 3, 4, 5 по времени замерить и посмотреть, как долго что выполняется
А обработку в самой базе не пробовал делать или медленно?
Обсуждают сегодня