веб-страницах?
Как, например, wget, который рекурсивно может выкачивать все доки
для НЕ ручного рекурсивного поиска
можешь скрипт запилить. парсером по страницам выкаченным бегаешь
wget может выкачивать рекурсивно по ссылкам
Его, думаю, можно юзать для выкачки html файлов страницы. Но это надо обрабатывать html дополнительно) Казалось, раз пришёл мой вопрос в голову, то его должны уже решить в IT-мире :)
ну почему же только страницы. wget -nd -r -P /save/location -A jpeg,jpg,bmp,gif,png,mov "http://www.somedomain.com"
html страницы — это в частности. Т.к. мне нужен только текст, а не файлы веб-страниц
Ты в курсе, что сегодня куча сайтов это не много html-страничек, а SPA или даже PWA?
Обсуждают сегодня