美文网首页
Python爬虫系列4-优化普通数据下载性能的速度

Python爬虫系列4-优化普通数据下载性能的速度

作者: Tony_Pm | 来源:发表于2020-09-22 13:47 被阅读0次

序言

很多人在学习爬虫的时候,总是参照着书本中的内容或者是从网上学习的案例,但是那些案例你会,别人也会 ,如此怎么能提高我们的市场竞争力呢?Tony老师不服,于是,此篇文章顺利诞生;也是想让大家在学习的过程中真正的 学以致用

众所周知目前的互联网行业发展非常的激烈,在这个充满斗争的行业里,如果你想独树一帜,你想真正的在这里面有所作为,就必须得去折腾、去学习;而且是高效率的学习; 因为机会一定都是留给有准备的人的,但并不是说你想抓住就能抓的住的。需要我们付出很多精力和时间。

所以我们就需要不断提醒和逼迫自己去进步。因为过一个平凡无趣的人生实在太容易了,你可以不读书,不运动,不折腾。但是,人生最后悔的事情就是:我本可以。 💪

今天要抓取的目标是一个具有APP端的美图网站,为了方便大家的阅读及理解;整个代码的业务逻辑步骤我都已做了二次封装。

爬虫流程三部曲:

第一步:请求网络,获取服务器返回数据

第二步:处理数据,对获取到的数据进行解析,提取数据

第三步:将解析的内容进行存储

当我们确定好要抓取的网站目标时,按照传统方式大家也许直接就开始根据URL抓取数据下方数据了,但是今天咱们来玩儿点不一样的;

image
这里我在多次对网站测试的时候,发现本网站的数据是流动性的,什么意思呢?就是做了局部刷新的操作,会根据用户不断向下浏览的情况,不断的多次加载数据;当滑动至底端的时候,加载刷新了5次数据;这里引起了我的好奇 image

通过访问url,发现获取的是网站的原数据,它以json类型而存在

image
整理一下,发现其中几个字段很重要,以及图片的url也都在其中,如此,我就有了一个想法,既然数据是根据每一次的下滑而加载的,是不是我可以把url给动态的修改一下,当然这块属于前端知识,大家只需要知道可以这么做就行。事实证明是可以的。完全避开了大家通过selenium控制浏览器下滑刷新的办法。
image
首先这里我对url做了一次优化,我们发现,结构变了;
ps:因为数据太多就不展示了,有心的同学,可以尝试一下,不仅如此,我们发现网站的数据也更加有条理性,更加的清晰;给我的感觉也舒服了好多;

哈哈!可能是因为强迫症原因。。。不否认所有的程序员都有强迫症哈 😅

image

不过这样一来新的问题出现了;

我们所看到的网站url链接中是有中文存在的,那如果我直接填写一个中文可以吗?NO,这里我们需要对中文进行转码;Why ? 我们看一下这串字符 kw=%E8%B5%B5%E4%B8%BD%E9%A2%96

大家下意识的也许会认为它就是一串乱码,这里要纠正一下,实质上它不是乱码,它只是一个url编码,什么是url编码呢?其实从本质上讲就是一个ASCII码!大家也许奇怪了,什么情况,直接用中文它不香吗? 何必要换来换去的,其实这追溯到根源,很简单,因为计算机是老外发明的,所以人家根本不可能用中文去进行命名的;至此,相信大家应该也都能明白为什么了。

在了解完网站结构之后,二话不说,咱们先拿到数据再说,一切不以先拿到数据就去处理的行为都是耍流氓。 - 逻辑-Tony 😁

-实战

需要安装的库:
pip install requests

第一步:请求网络,获取数据

考虑到为了方便大家的阅读,所以在请求的时候我这里就直接给进行二次封装了。

import requests

# 通过 url 获取数据
def get_requests_page(url):
    # 请求网络 设置字符编码 将bytes进行转换
    page = requests.get(url).content.decode('utf-8')
    return page

第二步:解析并处理数据

处理数据的时候,我这里就不通过第三方的框架解析了,以一个最简单的str方式,给大家演示一遍。

除此之外也是可以通过别的方式进行解析,有心的同学可以自行尝试。

#第二步: 单个页面数据里通过查找字符串获取所有图片链接
def findall_in_page(page, startpart, endpart):
    all_strings = []
    #  向下查找 如果!=-1 就说明找到了
    while page.find(startpart, end) != -1:
        # 起始坐标 
        start = page.find(startpart, end) + len(startpart)
        # 结尾坐标 "
        end = page.find(endpart, start)
        # 切片
        string = page[start:end]
        all_strings.append(string)
    return all_strings

关键的地方我都通过注释的方式,给大家标注了,如果某地方不理解,可以在下方联系我进行咨询。

import urllib.parse

#第三步: 得到所有页面的 url ,分别得到各个数据
def pages_from_duitang(label):
    pages = []
    url = 'https://www.duitang.com/napi/blog/list/by_search/?kw={}&start={}&limit=1000'
    # 将中文转成 url 编码
    label = urllib.parse.quote(label)
    for index in range(0, 3600, 100):
        u = url.format(label, index)
        page = get_requests_page(u)
        pages.append(page)

image
#第四步: 获取所有页面的图片链接
def pic_urls_from_pages(pages):
    pic_urls = []
    for page in pages:
        urls = findall_in_page(page, 'path:"', '"')
        pic_urls.append(urls)
    return pic_urls

这里我们已经将所有需要的url全部解析出来了;至此,我们第二步的解析数据就完成了。


image

第三步:下载数据进行存储

#第五步: 通过 url 下载单张图片
def download_pics(url, name):
    r = requests.get(url)
    path = 'tony_pics/' + str(name) + '.jpg'
    with open(path, 'wb+') as file:
        file.write(r.content)

第四步:代码逻辑汇总、整合

# 第六步 : 总函数
def main(label):
    # 获取所有页面的数据
    pages = pages_from_duitang(label)
    # 获取所有图片的链接
    pic_urls = pic_urls_from_pages(pages)
    numbers = 0
    for url in pic_urls:
        numbers += 1
        print('正在下载第 {} 张图片'.format(numbers))
        download_pics(url, numbers)

第五步:效果展示


if __name__ == '__main__':
    main('赵丽颖')

普通数据下载速度

这里以下载数据时3秒计时为期限;可以看到数据已经下载至第24张图片。

image

接下来,核心点来了;我会对代码进行改造,在提高程序对数据下载的速度以外;还能对代码的性能进行优化。

这里我使用的方式是多线程;不否认除此之外还有更优的方案;大家可以自行尝试。

import threading

# 设置线程锁 
thread_lock = threading.BoundedSemaphore(value=10)
# 开启线程池
t = threading.Thread(target=download_pics, args=(url, numbers))
t.start()

优化之后的数据下载速度

运行效果的时间 这里以下载数据时3秒计时为期限;可以看到数据已经下载至第108张图片了。

这就是程序优化的魅力,所以大家在学习的过程中一定要有深度的学习,因为任何知识点如果大家只是学习了浅显的表面,是没有任何用处的。因为时间在变,互联网在变,我们若不想被淘汰只能去追赶;这就是互联网。。。

image

在这个浮躁的时代;竟然还有人能坚持篇篇原创;

如果本文对你学习有所帮助-可以点赞👍+ 关注!将持续更新更多新的文章。

支持原创。感谢!

相关文章

  • Python爬虫系列4-优化普通数据下载性能的速度

    序言 很多人在学习爬虫的时候,总是参照着书本中的内容或者是从网上学习的案例,但是那些案例你会,别人也会 ,如此怎么...

  • Python代理IP爬虫的简单使用

    前言 Python爬虫要经历爬虫、爬虫被限制、爬虫反限制的过程。当然后续还要网页爬虫限制优化,爬虫再反限制的一系列...

  • Python网络数据采集之图像识别与文字处理

    网络采集系列文章 Python网络数据采集之创建爬虫Python网络数据采集之HTML解析Python网络数据采集...

  • 学会爬虫抓取竞争对手数据,《Python3网络爬虫开发实战》PD

    众所周知python的拿手好戏就是爬虫抓取数据,性能优秀,抓取时间快,消耗低,这是python的优势。学会了爬虫后...

  • Android 性能优化系列视频(三)

    Android 性能优化系列视频如下 Android 性能优化系列视频(四)Android 性能优化系列视频(五...

  • webpakc性能优化

    webpakc性能优化 开发环境性能优化1.优化打包构建速度2.优化代码调试 生产环境性能优化1.优化打包构建速度...

  • 资料

    Python爬虫系列(一)初期学习爬虫的拾遗与总结(11.4更) Python爬虫学习系列教程 Python爬虫学习手册

  • 性能优化

    本文为性能优化系列的总纲,主要介绍性能调优专题计划、何为性能问题、性能调优方式及前面介绍的数据库优化、布局优化、J...

  • Python爬虫学习系列教程

    转自: 静觅»Python爬虫学习系列教程 Python爬虫学习系列教程 Python版本:2.7 一、爬虫入门 ...

  • webpack 性能优化

    webpack性能优化 开发环境性能优化 生产环境性能优化 开发环境性能优化 优化打包构建速度 优化调试功能 生产...

网友评论

      本文标题:Python爬虫系列4-优化普通数据下载性能的速度

      本文链接:https://www.haomeiwen.com/subject/eogeyktx.html