爬虫爬 JSON HTML 数据

栏目: Python · 发布时间: 5年前

内容简介:最近这两周在忙着给公司爬一点数据,更文的速度有一点下降,预计今天就爬完了,总结总结经验。其实之前我司是有专门做爬虫的,不用前端这边出人干活。后来那人离职了,有可能就没有爬虫这方面的需求了。突然又有了一些,前端这边出人做一下。老大说用爬虫其实原理上很简单,

最近这两周在忙着给公司爬一点数据,更文的速度有一点下降,预计今天就爬完了,总结总结经验。

其实之前我司是有专门做爬虫的,不用前端这边出人干活。后来那人离职了,有可能就没有爬虫这方面的需求了。突然又有了一些,前端这边出人做一下。老大说用 py 做,前期先调研一下。

原理

爬虫其实原理上很简单, 我们==客户端他们==服务端

客户端发送请求 req ,服务端返回响应 rsp 。拿到响应之后解析数据,入库,就完事了。

请求数据 req

一般来说请求分为两种,拉数据 get 比较多。

偶尔部分接口需要登录,那就是多带 cookie 或者 headers

其实还有一部分工作就是 分析入参

  1. get
    参数拼接在 url
  2. post
    参数放在 body

响应数据 rsp

返回数据大体上是两种

  1. JSON
    一般来说,通过 抓包 或者说 network 工具 。我们找到了服务端的接口,那么我直接访问这个接口即可。
    本文第一个重点来了:切换到移动端再查一遍,往往有不一样的收获 ,一般来说 PCM 端的进度不了,有可能都不是一个项目组,所以实现方式就会有差别。
  2. html
    比较坑的一种方式,因为没有找到 JSON 接口。无奈只能走解析 HTML 的路子。

调研

  1. Node 之前给后台搭架子的时候使用过,主要功能点如下:

    headers、cookie
    token
    
  2. py 老大说要用这个东西。咨询了一下其他朋友,说可以使用下面的工具。

    1. requests + beautifulSoup
      使用起来其实就是 requests 发请求, beautifulSoup 解析 HTML 。比较原始。
    2. scrapy
      一个爬虫的框架。 我在这里学的 www.scrapyd.cn 。实现上比较完整,可以设置请求间隔,随机 ua 等功能。
  3. 前端实现我一个铁头娃,怎么能轻言放弃?身为一个 前端er ,还是这些 api 让我更加亲切

    1. XHR
      发请求利器,打开对方页面, cookie 啥的都自带。 无敌就是这么寂寞
      其实还可以找到对方请求发起的位置,打个断点,把对方内部的代码绑定到全局,这样一些内部逻辑什么的也都没问题。
      而且还 JSON HTML 通吃。
    2. iframe
      针对 HTML 类型的处理。同域的情况下,也无敌好吗?

      1. HTML 获取 DOM 节点?
      2. 甚至可以取 window 上的对象。vue SSR 你感觉到了威胁吗?
  4. 网上其他服务商提供的接口( 真香啊 )。有免费的有收费的,一般免费的限量。

    1. 比如抖音热度?
    2. 比如各类音乐的歌单和作品?
    3. IP 查询
    4. 天气查询

好了上面说了那么多,建议老大限制,我选择了 scrapy

scrapy

scrapy 是一个网页爬虫框架,神马叫做爬虫,如果没听说过,那就:内事不知问度娘,外事不决问谷歌,百度或谷歌一下吧!……(这里的省略号代表 scrapy 很牛逼,基本神马都能爬,包括你喜欢的苍老师……这里就不翻译了)

看到这个骚的飞起的介绍了吗?没错,我就是在上面学的。 scrapy 中文站 。接下来我就介绍一下我认为对于新手比较关注的东西

scrapy HTML

scrapy 处理器中的 response 标识你拿到的 rsp 上面自带了一些方法,一般来说需要关注的只有两个

css 选择器

quote.css('span.text::text').extract_first() 中的 'span.text::text' 眼熟吗?

没错,就是我们常用的选择器。通过这个 api ,我们可以把我们想要的数据,限时在一个很小的范围,然后拿字符串即可。

啥?你说你不会 css 选择器? 前端培训-初级阶段(5 - 8)-CSS选择器(基本、层级、属性、伪类、伪状态)

  1. extract() 函数提取列表
  2. extract_first() 代表提取第一个元素。基本等价于 extract()[0]
  3. ::text 选择其中的文字
  4. ::attr(href) 提取属性

xpath

quote.xpath('span/small/text()').extract_first()
文档 ,这个我不会,我也没看

scrapy JSON

import json 使用这个类库解析如: json.loads(response.body.decode('utf-8'))

scrapy 请求方式

get

import urllib 可以用来给中文字符 encode

yield scrapy.FormRequest(
    url, 
    method = 'GET', 
    headers = self.headers, 
    formdata={}, 
    callback = self.parse_list, 
    dont_filter = True, 
    meta = {
        'offset': 0,
    })

post

数据放入 formdata 传递即可。

yield scrapy.FormRequest(
    url, 
    method = 'GET', 
    headers = self.headers, 
    formdata={}, 
    callback = self.parse_list, 
    dont_filter = True, 
    meta = {
        'offset': 0,
    })

外部传参方式

scrapy crawl argsSpider -a tag=爱情
内部是使用如下命令可以接收到。

def start_requests(self):
        url = 'http://lab.scrapyd.cn/'
        tag = getattr(self, 'tag', None)  # 获取tag值,也就是爬取时传过来的参数

scrapy mysql

大数据那边说爬回来的数据要入库。

  1. scrapyMysql/scrapyMysql/items.py 编写对应入库字段。

    import scrapy
    
    class ScrapymysqlItem(scrapy.Item):
        # define the fields for your item here like:
        # name = scrapy.Field()
        tag = scrapy.Field()  # 标签字段
        cont = scrapy.Field()  # 名言内容
        pass
  2. scrapyMysql/scrapyMysql/spiders/inputMysql.py 写爬虫处理操作时,入库

    item = ScrapymysqlItem()  # 实例化item类
        for v in mingyan:  # 循环获取每一条名言里面的:名言内容、作者、标签
            item['cont'] = v.css('.text::text').extract_first()  # 提取名言
            tags = v.css('.tags .tag::text').extract()  # 提取标签
            item['tag'] = ','.join(tags)  # 数组转换为字符串
            yield item  # 把取到的数据提交给pipline处理
  3. 编写 MySQL 存储插件: MySQLPipeline.py

    import pymysql.cursors
    class MySQLPipeline(object):
        def __init__(self):
            # 连接数据库
            self.connect = pymysql.connect(
                host='127.0.0.1',  # 数据库地址
                port=3306,  # 数据库端口
                db='scrapyMysql',  # 数据库名
                user='root',  # 数据库用户名
                passwd='root',  # 数据库密码
                charset='utf8',  # 编码方式
                use_unicode=True)
            # 通过cursor执行增删查改
            self.cursor = self.connect.cursor()
    
        def process_item(self, item, spider):
            self.cursor.execute(
                """insert into mingyan(tag, cont)
                value (%s, %s)""",  # 纯属 python 操作mysql知识,不熟悉请恶补
                (item['tag'],  # item里面定义的字段和表字段对应
                 item['cont'],))
            # 提交 sql 语句
            self.connect.commit()
            return item  # 必须实现返回
  4. settings启动MySQLPipline组件

    ITEM_PIPELINES = {
       'scrapyMysql.MySQLPipline.MySQLPipeline': 300,
    }

总结一下

到现在,我们已经完成了所有基础知识的积累。 遇到不会我们去里看?

总结一下需要注意点的

  1. 切换 PC 和 M 端,寻找可行的方案
  2. 注意节制(部分容易限量)
  3. python 编码问题(真的好烦)
  4. 网上提供的那个 mysql 库和我的不合,我换了一个 MySQLdb
  5. 第三方的接口是真香

微信公众号

爬虫爬 JSON HTML 数据


以上所述就是小编给大家介绍的《爬虫爬 JSON HTML 数据》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

精通Spring

精通Spring

罗时飞 / 第1版 (2005年4月1日) / 2005-4 / 39.0

本书深入剖析了当前流行的轻量级开发框架Spring技术。本书总共分成3部分。第一部分,重点阐述Spring的架构。这部分内容循序渐进带领开发者进入Spring中。主要在于阐述Spring IoC和Spring AOP。第二部分,重点阐述Spring的使用。这部分内容从简化Java/J2EE的角度出发,从J2EE平台各个技术层面分析、并给出大量的研究实例,对Spring提供的API进行阐述。主要在于......一起来看看 《精通Spring》 这本书的介绍吧!

JS 压缩/解压工具
JS 压缩/解压工具

在线压缩/解压 JS 代码

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码

UNIX 时间戳转换
UNIX 时间戳转换

UNIX 时间戳转换