美文网首页
【屠龙技】整站抓取的好工具:wget

【屠龙技】整站抓取的好工具:wget

作者: 星际大镖客 | 来源:发表于2018-09-27 11:19 被阅读0次

姓朱者学屠龙于支离益,单千金之家,三年技成,而无所用其巧。
战国·郑·列御寇《庄子·列御寇》

wget是一个从网络上自动下载文件的自由工具。它支持HTTP,HTTPS和FTP协议。

获取wget工具

 yum install wget -y

食用方法

 wget -r -p -np -k http://www.xxx.com

食材配料

  • -b 后台运行
  • -r 递归抓取
  • -p 下载显示HTML文件的所有图片
  • -k 转换非相对链接为相对链接
  • -np:不要追溯到父目录

wget各种选项分类列表

启动
 -V,  –version           显示wget的版本后退出
 -h,  –help              打印语法帮助
 -b,  –background        启动后转入后台执行
 -e,  –execute=COMMAND   执行`.wgetrc'格式的命令

记录和输入文件
 -o,  –output-file=FILE     把记录写到FILE文件中
 -a,  –append-output=FILE   把记录追加到FILE文件中
 -d,  –debug                打印调试输出
 -q,  –quiet                安静模式(没有输出)
 -v,  –verbose              冗长模式(这是缺省设置)
 -nv, –non-verbose          关掉冗长模式,但不是安静模式
 -i,  –input-file=FILE      下载在FILE文件中出现的URLs
 -F,  –force-html           把输入文件当作HTML格式文件对待
 -B,  –base=URL             将URL作为在-F -i参数指定的文件中出现的相对链接的前缀
      –sslcertfile=FILE     可选客户端证书
      –sslcertkey=KEYFILE   可选客户端证书的KEYFILE
      –egd-file=FILE        指定EGD socket的文件名

下载
      –bind-address=ADDRESS   指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)
 -t,  –tries=NUMBER           设定最大尝试链接次数(0 表示无限制).
 -O   –output-document=FILE   把文档写到FILE文件中
 -nc, –no-clobber             不要覆盖存在的文件或使用.#前缀
 -c,  –continue               接着下载没下载完的文件
      –progress=TYPE          设定进程条标记
 -N,  –timestamping           不要重新下载文件除非比本地文件新
 -S,  –server-response        打印服务器的回应
      –spider                 不下载任何东西
 -T,  –timeout=SECONDS        设定响应超时的秒数
 -w,  –wait=SECONDS           两次尝试之间间隔SECONDS秒
      –waitretry=SECONDS      在重新链接之间等待1…SECONDS秒
      –random-wait            在下载之间等待0…2*WAIT秒
 -Y,  –proxy=on/off           打开或关闭代理
 -Q,  –quota=NUMBER           设置下载的容量限制
      –limit-rate=RATE        限定下载输率

目录
 -nd  –no-directories            不创建目录
 -x,  –force-directories         强制创建目录
 -nH, –no-host-directories       不创建主机目录
 -P,  –directory-prefix=PREFIX   将文件保存到目录 PREFIX/…
      –cut-dirs=NUMBER           忽略 NUMBER层远程目录

HTTP 选项
      –http-user=USER      设定HTTP用户名为 USER.
      –http-passwd=PASS    设定http密码为 PASS.
 -C,  –cache=on/off        允许/不允许服务器端的数据缓存 (一般情况下允许).
 -E,  –html-extension      将所有text/html文档以.html扩展名保存
      –ignore-length       忽略 `Content-Length'头域
      –header=STRING       在headers中插入字符串 STRING
      –proxy-user=USER     设定代理的用户名为 USER
      –proxy-passwd=PASS   设定代理的密码为 PASS
      –referer=URL         在HTTP请求中包含 `Referer: URL'头
 -s,  –save-headers        保存HTTP头到文件
 -U,  –user-agent=AGENT    设定代理的名称为 AGENT而不是 Wget/VERSION.
      –no-http-keep-alive  关闭 HTTP活动链接 (永远链接).
      –cookies=off         不使用 cookies.
      –load-cookies=FILE   在开始会话前从文件 FILE中加载cookie
      –save-cookies=FILE   在会话结束后将 cookies保存到 FILE文件中

FTP 选项
 -nr, –dont-remove-listing   不移走 `.listing'文件
 -g,  –glob=on/off           打开或关闭文件名的 globbing机制
      –passive-ftp           使用被动传输模式 (缺省值).
      –active-ftp            使用主动传输模式
      –retr-symlinks         在递归的时候,将链接指向文件(而不是目录)

递归下载
 -r,  –recursive          递归下载--慎用!
 -l,  –level=NUMBER       最大递归深度 (inf 或 0 代表无穷).
      –delete-after       在现在完毕后局部删除文件
 -k,  –convert-links      转换非相对链接为相对链接
 -K,  –backup-converted   在转换文件X之前,将之备份为 X.orig
 -m,  –mirror             等价于 -r -N -l inf -nr.
 -p,  –page-requisites    下载显示HTML文件的所有图片

递归下载中的包含和不包含(accept/reject)
 -A,  –accept=LIST                分号分隔的被接受扩展名的列表
 -R,  –reject=LIST                分号分隔的不被接受的扩展名的列表
 -D,  –domains=LIST               分号分隔的被接受域的列表
      –exclude-domains=LIST       分号分隔的不被接受的域的列表
      –follow-ftp                 跟踪HTML文档中的FTP链接
      –follow-tags=LIST           分号分隔的被跟踪的HTML标签的列表
 -G,  –ignore-tags=LIST           分号分隔的被忽略的HTML标签的列表
 -H,  –span-hosts                 当递归时转到外部主机
 -L,  –relative                   仅仅跟踪相对链接
 -I,  –include-directories=LIST   允许目录的列表
 -X,  –exclude-directories=LIST   不被包含目录的列表
 -np, –no-parent                  不要追溯到父目录

在递归下载的时候,遇到目录中有中文的时候,wget创建的本地目录名会用URL编码规则处理。

相关文章

  • 【屠龙技】整站抓取的好工具:wget

    姓朱者学屠龙于支离益,单千金之家,三年技成,而无所用其巧。战国·郑·列御寇《庄子·列御寇》 wget是一个从网络上...

  • wget 抓取整站

    wget -r -p -np -k -E http://www.xxx.com 抓取整站wget -l 1 ...

  • python wget

    wget 下载整个网站,或者特定目录 - DP. - 博客园 windows wget下载地址 wget抓取整站做...

  • 几款整站抓取的工具

    TeleportUltra Teleport Ultra所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网...

  • wget下载整站

  • wget 全站抓取

    wget 一般作为 curl 的替代工具,但是实际上它有一个更为强大的功能,递归下载或者称为全站抓取。 这里有一个...

  • 屠龙技

    “妈妈,村里的卡奥叔叔说他学过屠龙的本领,是真的吗?”小苏珊一回到家,就跑到妈妈跟前好奇地问。 “卡奥那小子又在跟...

  • 【Python3】南京链家二手房信息采集

    写在前面的话 本文参考的信息如下: 【房价网房价信息爬虫】整站40万条房价数据并行抓取,可更换抓取城市 pytho...

  • 整站工具下载

    关注HAS社区公众号,让你生活更加简单 小飞兔整站下载是一款可以下载整个网站内容的软件,你只要输入一个网址,软件能...

  • Linux使用Wget实现整站下载

    引言 在Windows下有个叫做"整站下载器"的软件,可以用来抓取网站的数据下载到本地,而Linux上只需要用到我...

网友评论

      本文标题:【屠龙技】整站抓取的好工具:wget

      本文链接:https://www.haomeiwen.com/subject/zcxeoftx.html