扒站==一条代码?

在Linux下,通过一个命令就可以把整个站相关的文件全部下载下来。
wget -r -p -k -np [网址]
参数说明:
-r   :  递归下载
-p  :  下载所有用于显示 HTML 页面的图片之类的元素
-k  :   在转换文件 X 前先将它备份为 X.orig。
-np:   不追溯至父目录
$ wget -r -np -nd http://example.com/packages/
这条命令可以下载 http://example.com 网站上 packages 目录中的所有文件。其中,-np 的作用是不遍历父目录,-nd 表示不在本机重新创建目录结构。
$ wget -m -k (-H) http://www.example.com/
该命令可用来镜像一个网站,wget 将对链接进行转换。如果网站中的图像是放在另外的站点,那么可以使用 -H 选项。


wget不止适应于Linux

windows照样适用(下载文章附件)

解压运行bat批量处理文件就行

qq%e6%88%aa%e5%9b%be20161120132035

 

 

然后输入网址(我测试的百度的网站)

等几秒之后就会生成一个文件夹,里面就是源码了

qq%e6%88%aa%e5%9b%be20161120132107

windows版扒站神器见文章底部附件

Linux版命令为wget -r -p -k -np [网址]

 


 

 文章:扒站==一条代码?,来自小文's blog,原文地址:https://www.qcgzxw.cn/486.html转载请注明出处。

点赞

发表评论

在发表评论前请确认您的言论中没有违反中国各项法律、法规和违背社会道德的内容。任何无意义的留言内容都会被直接删除。

上传图片