Несколько лет назад я думала, что это задача практически не требует никаких специальных знаний - можно в браузере нажать "сохранить как вэб-архив" или "сохранить с картинками", а потом из браузера открыть этот самый архив. И я так делала. Потом обнаружилось, что браузеры не хотят отображать свои сохраненки, а если и отображают после полчаса бубнов - то явно криво. Потом, когда меня в очередной раз стукнуло пыльным мешком стала везде по возможности использовать консоль - сохраняла wget-ом. Вроде директива такая (Вы извините, опций не помню и сейчас лень разбираться, просто копирую сохранившийся у меня элиас для <wgetwww>):
Код: Выделить всё
wget -p --convert-links -nH -nd -P
Результат - на поверку оказался практически такой-же, как и в случае сохранения через гуи вэб-броузера. Поверка эта была давно и я пробовала мучить wget по разному. Все комбинации, найденные на резонных сайтах (в том числе и на данном форуме) так и не привели к выполнению поставленной задачи.
Пробовала httrack. На данный момент для меня это наиболее адекватная программа для выполнения поставленной задачи т.к. она хоть корректно локализирует все нужные ссылочки на странице, пусть во многих случаях и приходится качать раз в 100 больше необходимого.
Я понимаю, что для программы не ясно что мне надо а что нет, и я должна явно указать то, что мне надо. Но ведь когда речь о том, чтоб просто просматривать одну какую-то страничку в оффлайне - неужели нет какого-то простого синтаксиса/умолчания, при котором указав адрес только этой странички, качальщик сам бы закачал все что надо закачать для нее?? Ну вот например хочу эту страницу себе на компутер, чтоб ее в оффлайне смотреть. Будете смеяться, но уже часа полтора не могу сохранить ее по требованиям, описанным выше.
Ну, если Вы дочитали таки эту мою не очень здоровую простыню мысленного потока, то может чего посоветуте? Надо все-таки учить html сотоварищей, вэб-программирование, и тогда я наконец смогу закачать ровно то, что мне надо?