如何构建一个分布式爬虫:基础篇

栏目: 后端 · 发布时间: 6年前

内容简介:如何构建一个分布式爬虫:基础篇

上篇 我们谈论了Celery的基本知识后,本篇继续讲解如何一步步使用Celery构建分布式爬虫。这次我们抓取的对象定为 celery官方文档

首先,我们新建目录 distributedspider ,然后再在其中新建文件 workers.py ,里面内容如下

from celery import Celery
app = Celery('crawl_task', include=['tasks'], broker='redis://223.129.0.190:6379/1', backend='redis://223.129.0.190:6379/2')
# 官方推荐使用json作为消息序列化方式
app.conf.update(
    CELERY_TIMEZONE='Asia/Shanghai',
    CELERY_ENABLE_UTC=True,
    CELERY_ACCEPT_CONTENT=['json'],
    CELERY_TASK_SERIALIZER='json',
    CELERY_RESULT_SERIALIZER='json',
)

上述代码主要是做Celery实例的初始化工作, include 是在初始化celery app的时候需要引入的内容,主要就是注册为网络调用的函数所在的文件。然后我们再编写任务函数,新建文件 tasks.py ,内容如下

import requests
from bs4 import BeautifulSoup
from workers import app
@app.task
def crawl(url):
    print('正在抓取链接{}'.format(url))
    resp_text = requests.get(url).text
    soup = BeautifulSoup(resp_text, 'html.parser')
    return soup.find('h1').text

它的作用很简单,就是抓取指定的url,并且把标签为 h1 的元素提取出来

最后,我们新建文件 task_dispatcher.py ,内容如下

from workers import app
url_list = [
    'http://docs.celeryproject.org/en/latest/getting-started/introduction.html',
    'http://docs.celeryproject.org/en/latest/getting-started/brokers/index.html',
    'http://docs.celeryproject.org/en/latest/getting-started/first-steps-with-celery.html',
    'http://docs.celeryproject.org/en/latest/getting-started/next-steps.html',
    'http://docs.celeryproject.org/en/latest/getting-started/resources.html',
    'http://docs.celeryproject.org/en/latest/userguide/application.html',
    'http://docs.celeryproject.org/en/latest/userguide/tasks.html',
    'http://docs.celeryproject.org/en/latest/userguide/canvas.html',
    'http://docs.celeryproject.org/en/latest/userguide/workers.html',
    'http://docs.celeryproject.org/en/latest/userguide/daemonizing.html',
    'http://docs.celeryproject.org/en/latest/userguide/periodic-tasks.html'
]
def manage_crawl_task(urls):
    for url in urls:
        app.send_task('tasks.crawl', args=(url,))
if __name__ == '__main__':
    manage_crawl_task(url_list)

这段代码的作用主要就是给worker发送任务,任务是 tasks.crawl ,参数是 url (元祖的形式)

现在,让我们在节点A(hostname为 resolvewang 的主机)上启动worker

celery -A workers worker -c 2 -l info

这里 -c 指定了线程数为2, -l 表示日志等级是 info 。我们把代码拷贝到节点B(节点名为 wpm 的主机),同样以相同命令启动worker,便可以看到以下输出

如何构建一个分布式爬虫:基础篇

可以看到左边节点(A)先是 all alone ,表示只有一个节点;后来再节点B启动后,它便和B同步了

sync with celery@wpm

这个时候,我们运行给这两个worker节点发送抓取任务

python task_dispatcher.py

可以看到如下输出

如何构建一个分布式爬虫:基础篇

可以看到两个节点都在执行抓取任务,并且它们的任务不会重复。我们再在 redis 里看看结果

如何构建一个分布式爬虫:基础篇

可以看到一共有11条结果,说明 tasks.crawl 中返回的数据都在db2(backend)中了,并且以json的形式存储了起来,除了返回的结果,还有执行是否成功等信息。

到此,我们就实现了一个很基础的分布式网络爬虫,但是它还不具有很好的扩展性,而且貌似太简单了...下一篇我将以微博数据采集为例来演示如何构建一个稳健的分布式网络爬虫。

对微博大规模数据采集感兴趣的同学可以关注一下 分布式微博爬虫 ,用用也是极好的


以上所述就是小编给大家介绍的《如何构建一个分布式爬虫:基础篇》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

金字塔原理

金字塔原理

[美] 巴巴拉·明托 / 王德忠、张珣 / 民主与建设出版社 / 2002-12 / 39.80元

《金字塔原理》是一本讲解写作逻辑与思维逻辑的读物,全书分为四个部分。 第一篇主要对金字塔原理的概念进行了解释,介绍了如何利用这一原理构建基本的金字塔结构。目的是使读者理解和运用简单文书的写作技巧。 第二篇介绍了如何深入细致地把握思维的环节,以保证使用的语句能够真实地反映希望表达的思想要点。书中列举了许多实例,突出了强迫自己进行“冷静思维”对明确表达思想的重要性。 第三篇主要针对的......一起来看看 《金字塔原理》 这本书的介绍吧!

JS 压缩/解压工具
JS 压缩/解压工具

在线压缩/解压 JS 代码

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

HEX HSV 转换工具
HEX HSV 转换工具

HEX HSV 互换工具