нужно спарсить данные с каждой ссылки.
Ссылки получаю гет запросами. ДУмал с помощью puppeteer переходить по ссылкам и получать данные, но при запуске через Promise.allSettled все крашится от нагрузок)
Опыта с таким парсером у меня еще небыло. Может кто-нибудь подскажет, поможет советом как поступить?
Суть проста: Нужно пропарсить более 300 страниц)
разбей на пачки по 10-20 шт. Парсишь их - сохраняешь. Можно просто эвейтить каждый запрос, тупо но работать будет. А зачем тебе для этой задачи puppeteer? Просто забрать страницу не получается?
волшебное слово queue. ЗЫ. и да, если парсишь простой html кукловод не нужен
p-queue
Обсуждают сегодня