подойдет?
доступ к сайту который парсить есть?
ИМХО, если сайт сразу отдает готовый HTML с контентом (а не пустой шаблон, заполняемый потом яваскриптом), то голова, руки и PHP (preg_match и curl). Не помню, чтобы парсинг всех товаров с сайта занимал по коду более тридцати-пятидесяти строк, а я этих парсеров написал с десяток. Весь набор товаров (все страницы) обычно есть в sitemap.xml, а на страницах обычно всеединообразно и достаточно написать правильные маски на название, описание, картинку и т.п. Другими словами, на мой взгляд, проще и быстрее написать конкретный парсер под конкретный сайт.
я обычно использовал phpquery
Обсуждают сегодня