站点图标 小文's blog

扒站==一条代码?

在Linux下,通过一个命令就可以把整个站相关的文件全部下载下来。
wget -r -p -k -np [网址]
参数说明:
-r   :  递归下载
-p  :  下载所有用于显示 HTML 页面的图片之类的元素
-k  :   在转换文件 X 前先将它备份为 X.orig。
-np:   不追溯至父目录
$ wget -r -np -nd http://example.com/packages/
这条命令可以下载 http://example.com 网站上 packages 目录中的所有文件。其中,-np 的作用是不遍历父目录,-nd 表示不在本机重新创建目录结构。
$ wget -m -k (-H) http://www.example.com/
该命令可用来镜像一个网站,wget 将对链接进行转换。如果网站中的图像是放在另外的站点,那么可以使用 -H 选项。


wget不止适应于Linux

windows照样适用(下载文章附件)

解压运行bat批量处理文件就行

 

 

然后输入网址(我测试的百度的网站)

等几秒之后就会生成一个文件夹,里面就是源码了

windows版扒站神器见文章底部附件

Linux版命令为wget -r -p -k -np [网址]

 


退出移动版