V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
66beta
V2EX  ›  问与答

如何打包某个网站的某个目录内所有页面?

  •  
  •   66beta · Jan 30, 2013 · 3596 views
    This topic created in 4835 days ago, the information mentioned may be changed or developed.
    有没有这样一个软件,可以把某个网站的特定目录给爬一边,然后down下来打包成单个/多个HTML或者一个PDF?

    比如我要将整本《Learn Python The Hard Way》http://learnpythonthehardway.org/book/ 给down下来,以后可以离线阅读。

    我知道也用过某些个软件可以把整个网站跑一边根据图片/JS/CSS什么分目录下载的,但是效果不是很理想。

    也想过用InstaPaper这种标记阅读类工具,但是这样的话,不如我手工把每个页面开一边保存个PDF算了,作为半个码农,这么低效率的方法是绝对无法接受的!!!
    5 replies    1970-01-01 08:00:00 +08:00
    hanai
        1
    hanai  
       Jan 30, 2013   ❤️ 2
    这样?
    wget -r -p -np -k http://learnpythonthehardway.org/book/
    qiayue
        2
    qiayue  
    PRO
       Jan 30, 2013
    搜索“网站整站下载器”
    Muninn
        3
    Muninn  
       Jan 30, 2013 via Android
    在linux下很简单 见一楼 我每次都是到vps上这么干
    66beta
        4
    66beta  
    OP
       Jan 31, 2013
    @hanai @Muninn 记得以前在ubuntu下弄过,我再去试试
    FallenMax
        5
    FallenMax  
       Jan 31, 2013 via iPhone
    idm 小说下载阅读器
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   3200 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 41ms · UTC 13:40 · PVG 21:40 · LAX 06:40 · JFK 09:40
    ♥ Do have faith in what you're doing.