Здравствуй, двачик. Подскажи, какой программой можно сделать копию сайта? Но, не целиком, а только те страницы, которые содержат определенные символы в url. Попробовал WinHTTrack, но не разобрался с регулярками для отсеивания ненужных страниц - качает все без разбора. Может есть чего полегче?
>>140591786 (OP)Разбирайся, смотри видео на ютубе. Легче уже некуда.
Лул сап камчадал
Ебучий спутниковый интернет>>140592597>>140592569
>>140592085Ну вот смотри: есть сайт - yyy.xxx.com/###/ruдомены yyy и xxx всегда одинаковые,### - переменные символы,/ru - именно это и интересует, чтоб находились все страницы с таким окончанием и скачивались. Как сделать такую настройку?
wget?
>>140592763Это конечно классно, но: 1. У меня окошки. 2. Я не разобрался с настройками в ГУИшке, а тут вообще консоль
>>140592701Искать в гугле по запросу crawler?
>>140593064Правильно ли я понимаю, что нужно сначала запустить паука, чтоб он составил список необходимых мне линков, а потом скормить этот список тому же WinHTTrack?
>>140593551Да потом хоть wget корми, хоть в анус пихай. Сперва crawler-ом сайт просканировал, получил текстовый файл со списком ссылок. Дальше оставил только нужные, ненужные удалил нахуй. И скачал. Все.
>>140593719Понял, спасибо. Скачал Win Web Crawler, бегает шарится. Вот только один вопрос, как написать выражение, которое делает ограничение - необходимые символы исключительно в конце URL.
>>140594062Бля, да напиши в гугле, че ты как бич.
>>140594366Хм, даже не могу корректно сформулировать запрос, а на сайте девов, в разделе помощи ничего про это не написано.
>>140594567"crawler filter urls by last symbols"