崇拜技术大佬 大佬有话说 :
下载网站根目录的软件用什么?
比如我发现一个网站,假设是静态的
我想把它/下的所有内容目录都下载下来
用什么工具?
bbsbbs 大佬有话说 :
需要下载某个目录下面的所有文件。命令如下
wget -c -r -np -k -L -p -e robots=off www.xxx.org/pub/path/
删除多余的index文件
find ./ -name "index.html?*" -print -exec rm -rf {} ;
-c 断点续传
-r 递归下载,下载指定网页某一目录下(包括子目录)的所有文件
-nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录
-np 递归下载时不搜索上层目录,如wget -c -r www.xxx.org/pub/path/
没有加参数-np,就会同时下载path的上一级目录pub下的其它文件
-k 将绝对链接转为相对链接,下载整个站点后脱机浏览网页,最好加上这个参数
-L 递归时不进入其它主机,如wget -c -r www.xxx.org/
如果网站内有一个这样的链接:
www.yyy.org,不加参数-L,就会像大火烧山一样,会递归下载www.yyy.org网站
-p 下载网页所需的所有文件,如图片等
-A 指定要下载的文件样式列表,多个样式用逗号分隔
-i 后面跟一个文件,文件内指明要下载的URL
-e robots=off 使用-e robots=off参数即可绕过该限制。
还有其他的用法,我从网上搜索的,也一并写上来,方便以后自己使用。
在下载时。有用到外部域名的图片或连接。如果需要同时下载就要用-H参数。
wget -np -nH -r –span-hosts www.xxx.org/pub/path/
admin2 大佬有话说 :
详细搜索wget扒站
sqliuchang 大佬有话说 :
楼上的wget就行了
mmc199 大佬有话说 :
好问码住
tzchz 大佬有话说 :
IDM Download Manager全站抓取
gger 大佬有话说 :
技术贴啊 Mark下、
燕十三丶 大佬有话说 :
idm 站点采集 :lol
今晚不吃饭 大佬有话说 :
有偿我都给你搞下来:lol
citywar 大佬有话说 :
这个记录一下