wget递归下载整个网站(网站扒皮必备)

原文  https://wujunze.com/linux_wget.jsp
有时间看到别人网站的页面比较漂亮,就想给扒皮下来,学习学习。分享一个我常用网站扒皮命令wget这个命令可以以递归的方式下载整站,并可以将下载的页面中的链接转换为本地链接。
wget加上参数之后,即可成为相当强大的下载工具。
wget命令详解
wget -r -p -np -k https://baidu.com/xxx

-r, –recursive(递归) specify recursive download.(指定递归下载)
-k, –convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p, –page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np, –no-parent(不追溯至父级) don’t ascend to the parent directory.

另外断点续传用-nc参数 日志 用-o参数

拿我自己的网站扒皮试一下吧
执行 wget -r -p -np -k https://wujunze.com/ 命令
wget递归下载整个网站(网站扒皮必备) | JUST FOR FUN
等网站递归下载完毕,你会发现你当前目录会有一个 wujunze.com的目录
进入这个目录看一下wget递归下载整个网站(网站扒皮必备) | JUST FOR FUN
熟练掌握wget命令,可以帮助你扒皮网站。
代码·功能

【v友福利】OpenVZ uml 开启BBR之最小镜像,仅需 16M 内存!

2017-3-23 16:19:57

代码·功能

FRP内网穿透一键脚本|适用于Linux服务端

2017-8-3 22:26:36

个人中心
今日签到
有新私信 私信列表
搜索