[Ответить в тред] Ответить в тред

15/11/16 - **НОВЫЙ ФУНКЦИОНАЛ** - Стикеры
09/10/16 - Открыта доска /int/ - International, давайте расскажем о ней!
30/09/16 - BREAKING NEWS ШОК АБУ ПРОДАЛСЯ МЭЙЛУ (на самом деле нет)


Новые доски: /2d/ - Аниме/Беседка • /wwe/ - WorldWide Wrestling Universe • /ch/ - Чатики и конфочки • /int/ - International • /ruvn/ - Российские визуальные новеллы • /math/ - Математика • Создай свою

[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 14 | 1 | 4
Назад Вниз Каталог Обновить

Аноним 22/11/16 Втр 00:20:34  140591786  
14794877316920.jpg (75Кб, 811x649)
Здравствуй, двачик. Подскажи, какой программой можно сделать копию сайта? Но, не целиком, а только те страницы, которые содержат определенные символы в url. Попробовал WinHTTrack, но не разобрался с регулярками для отсеивания ненужных страниц - качает все без разбора. Может есть чего полегче?
Аноним 22/11/16 Втр 00:25:33  140592085
>>140591786 (OP)
Разбирайся, смотри видео на ютубе. Легче уже некуда.
Аноним 22/11/16 Втр 00:32:51  140592569
Лул сап камчадал
Аноним 22/11/16 Втр 00:33:16  140592597
Лул сап камчадал
Аноним 22/11/16 Втр 00:34:05  140592655
Ебучий спутниковый интернет
>>140592597
>>140592569
Аноним 22/11/16 Втр 00:34:49  140592701
>>140592085
Ну вот смотри: есть сайт - yyy.xxx.com/###/ru

домены yyy и xxx всегда одинаковые,
### - переменные символы,
/ru - именно это и интересует, чтоб находились все страницы с таким окончанием и скачивались. Как сделать такую настройку?
Аноним 22/11/16 Втр 00:35:52  140592763
wget?
Аноним 22/11/16 Втр 00:38:28  140592922
>>140592763
Это конечно классно, но: 1. У меня окошки. 2. Я не разобрался с настройками в ГУИшке, а тут вообще консоль
Аноним 22/11/16 Втр 00:40:41  140593064
>>140592701
Искать в гугле по запросу crawler?
Аноним 22/11/16 Втр 00:48:32  140593551
>>140593064
Правильно ли я понимаю, что нужно сначала запустить паука, чтоб он составил список необходимых мне линков, а потом скормить этот список тому же WinHTTrack?
Аноним 22/11/16 Втр 00:51:10  140593719
>>140593551
Да потом хоть wget корми, хоть в анус пихай. Сперва crawler-ом сайт просканировал, получил текстовый файл со списком ссылок. Дальше оставил только нужные, ненужные удалил нахуй. И скачал. Все.
Аноним 22/11/16 Втр 00:56:11  140594062
>>140593719
Понял, спасибо. Скачал Win Web Crawler, бегает шарится. Вот только один вопрос, как написать выражение, которое делает ограничение - необходимые символы исключительно в конце URL.
Аноним 22/11/16 Втр 01:01:17  140594366
>>140594062
Бля, да напиши в гугле, че ты как бич.
Аноним 22/11/16 Втр 01:05:37  140594567
>>140594366
Хм, даже не могу корректно сформулировать запрос, а на сайте девов, в разделе помощи ничего про это не написано.
Аноним 22/11/16 Втр 01:10:04  140594792
>>140594567
"crawler filter urls by last symbols"

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 14 | 1 | 4
Назад Вверх Каталог Обновить

Топ тредов
Избранное