ВСЯ ИНФОРМАЦИЯ СОЗДАНА В ОЗНАКОМИТЕЛЬНЫХ ЦЕЛЯХ!АВТОР НЕ НЕСЁТ ОТВЕТСТВЕННОСТЬ ЗА ВАШИ ДЕЙСТВИЯ! Привет всем,сегодня я бы хотел рассказать о такой утилите как wget. Данная программа может слить сайт полностью со скриптами,иконками и т.д Для этого нам понадобится: 1.Программа wget http://gnuwin32.sourceforge.net/packages/wget.htm 2.Интернет 3.Сайт который будем сливать Для начала мы заходим в Мой компьютер,нажимаем правой кнопкой мыши и выбираем свойства. Далее слева с краю выбираем Дополнительные параметры системы. Далее мы находим строку Path и нажимаем изменить вот так: Далее ставим ; и после этого пишем путь wget и потом опять ставим ; вот путь: Далее открываем cmd и пишем такую команду: wget -r -k -l 7 -p -E -nc http://ваш сайт -r указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы -k используется для того, чтобы wget преобразовывал все ссылки в скаченных файлах таким образом, чтобы они ссылались на локальную копию -p указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css, js и т.д.) -l определяет максимальную глубину вложенности страниц, которые wget должен скачивать (по умолчанию значение равно 5, а в примере мы используем 7). Так как в большинстве случаев сайты имеют страницы с большой степенью вложенности и wget в этом случае может просто "утонуть", скачивая новые страницы. А чтобы этого не произошло мы указываем ограничение. -E добавлять к загружаемым файлам расширение .html -nc при использовании данного параметра существующие файлы не будут заново перезаписаны. Это удобно в том случае, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз И всё,если всё хорошо то программа запуститься и сохранит сайт в папку пользователи вот что получилось: Все удачи,всем пока!