能不能将这个http://dwarffortresswiki.org/index.php/Main_Page网站的相关联的网页下载到本地并能在本地关联打开查看的方法?
主要是中间部分的帮助说明文档,每次都要联网,有点麻烦(主要是有时无法联网)。
如果有人知道,麻烦详细的指点下,本人有点菜
求 将wiki 网站的文档下载到本地方法
版面规则
我们都知道新人的确很菜,也喜欢抱怨,并且带有浓厚的Windows习惯,但既然在这里询问,我们就应该有责任帮助他们解决问题,而不是直接泼冷水、简单的否定或发表对解决问题没有任何帮助的帖子。乐于分享,以人为本,这正是Ubuntu的精神所在。
我们都知道新人的确很菜,也喜欢抱怨,并且带有浓厚的Windows习惯,但既然在这里询问,我们就应该有责任帮助他们解决问题,而不是直接泼冷水、简单的否定或发表对解决问题没有任何帮助的帖子。乐于分享,以人为本,这正是Ubuntu的精神所在。
-
- 帖子: 64
- 注册时间: 2012-12-26 20:32
- 麦斯特
- 帖子: 1034
- 注册时间: 2005-03-28 0:00
- 系统: Gentoo x64
- 来自: ☸我佛山人
Re: 求 将wiki 网站的文档下载到本地方法
wget specify recursive download.
Je ne suis pas d'accord avec ce que vous dites, mais je me battrai jusqu'à la mort pour que vous ayez le droit de le dire.
-
- 帖子: 64
- 注册时间: 2012-12-26 20:32
Re: 求 将wiki 网站的文档下载到本地方法
麦斯特 写了:wget specify recursive download.
哦,能不能详细点?如果可以直接写个详细地命令行给我,我想下载到/home/下载/dwarf目录下
-
- 帖子: 11
- 注册时间: 2010-07-15 10:07
Re: 求 将wiki 网站的文档下载到本地方法
在win下用的网站下载器,用wget或者curl应该可以。不过应该有直接下载文档的吧/》?!!
- eexpress
- 帖子: 58428
- 注册时间: 2005-08-14 21:55
- 来自: 长沙
- lainme
- 论坛版主
- 帖子: 7805
- 注册时间: 2008-09-13 19:17
- 系统: Arch Linux (x86_64)
- 联系: