当前时区为 UTC + 8 小时



发表新帖 回复这个主题  [ 7 篇帖子 ] 
作者 内容
1 楼 
 文章标题 : 使用 axel的问题
帖子发表于 : 2007-09-11 12:43 

注册: 2007-03-05 20:45
帖子: 768
送出感谢: 0 次
接收感谢: 0 次
使用axel是需要填入正确的 url,但是很多网站并不直接写出那个地址,使用FF的复制链接地址,也不是真正的地址,比如http://www.getdeb.net/release.php?id=1307这里的pidgin,复制链接地址下载的话,只能下载到一个网页(?)

如何才能正确得解析呢?


页首
 用户资料  
 
2 楼 
 文章标题 :
帖子发表于 : 2007-09-11 12:54 
头像

注册: 2006-04-12 20:05
帖子: 8495
地址: 杭州
送出感谢: 0 次
接收感谢: 8
这就要你在给axel传地址前解析好了,axel本身做不到这点。


_________________
关注我的blog: ε==3


页首
 用户资料  
 
3 楼 
 文章标题 :
帖子发表于 : 2007-09-11 12:58 
头像

注册: 2005-08-14 21:55
帖子: 58428
地址: 长沙
送出感谢: 4
接收感谢: 272
wget解析


_________________
● 鸣学


页首
 用户资料  
 
4 楼 
 文章标题 :
帖子发表于 : 2007-09-11 13:02 
头像

注册: 2005-12-28 1:16
帖子: 3916
地址: 火星
系统: Ubuntu 12.10 X64
送出感谢: 1
接收感谢: 0 次
live http headers抓包


_________________
目前负债150多万


页首
 用户资料  
 
5 楼 
 文章标题 :
帖子发表于 : 2007-09-11 13:31 

注册: 2007-03-05 20:45
帖子: 768
送出感谢: 0 次
接收感谢: 0 次
wget解析 如何解析?
使用 wget url 还是下载到一个网页 :oops:
即使解析到正确的地址,那它自己也开始下载了,到时还得删除它下载的部分,这样不是很麻烦 :shock:


live http headers可以正确解析。
但这样每次都得调用它了。。


页首
 用户资料  
 
6 楼 
 文章标题 :
帖子发表于 : 2008-06-25 17:23 
头像

注册: 2008-04-18 20:58
帖子: 136
送出感谢: 0 次
接收感谢: 0 次
就是个麻烦 干脆用个讯雷还快


页首
 用户资料  
 
7 楼 
 文章标题 :
帖子发表于 : 2008-06-25 18:54 
头像

注册: 2007-09-10 20:20
帖子: 1352
地址: 南京
系统: Debian
送出感谢: 0 次
接收感谢: 0 次
呵呵,我一般看到这种情况就是点用DOWNTHEMALL下载

然后把地址复制过来


页首
 用户资料  
 
显示帖子 :  排序  
发表新帖 回复这个主题  [ 7 篇帖子 ] 

当前时区为 UTC + 8 小时


在线用户

正在浏览此版面的用户:没有注册用户 和 2 位游客


不能 在这个版面发表主题
不能 在这个版面回复主题
不能 在这个版面编辑帖子
不能 在这个版面删除帖子
不能 在这个版面提交附件

前往 :  
本站点为公益性站点,用于推广开源自由软件,由 DiaHosting VPSBudgetVM VPS 提供服务。
我们认为:软件应可免费取得,软件工具在各种语言环境下皆可使用,且不会有任何功能上的差异;
人们应有定制和修改软件的自由,且方式不受限制,只要他们自认为合适。

Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
简体中文语系由 王笑宇 翻译