小编是一个爬虫初学者,学习 python爬虫已有 一段时间了 ,对 Scrapy框架开发有自己的一点小见解,如果有说不对的地方,希望大家多多指点。 小编用的是 Python2.7,如果觉得版本太旧,也可以用3.x版本,可能语法上有点不同。为了方便,小编在windows系统下开发案例。小编这次做了关于对拉勾网招聘信息采集的简单爬虫,并将采集的信息存放到 MongoDB 数据库中。
在开始代码之前,还没有安装过 MongoDB的朋友,可以先去官网下载并安装。MongoDB下载官网: https://www.mongodb.com/download-center ;安装和使用教程:
http://www.runoob.com/mongodb/mongodb-window-install.html .安装和配置完成后,因为权限不足的问题,需要在管理员模式下启动MongoDB,MongoDB的开启方法已在使用教程中展示,如下图所示.
然后打开任意浏览器,输入地址: http://localhost:27017 ,如果一切正常,如下图所示 ,表示 MongoDB 数据正常使用 .
启动 MongoDB后,创建爬虫工程,以lagou为例,具体代码如下:
编写 lagourecruit.py文件
编写 items.py文件
编写 setting.py文件,同时设置好自己的User-Agent
编写 pipelines.py文件
编写 start.py文件
执行 start.py脚本(ps:在这里小编只展示一部分)
在 MongoDB启动的状态下,数据已成功写入到数据库中,小编向大家展示两种数据库的查阅方式。
方式一:另外打开一个以管理员身份运行的 cmd窗口,进入到MongoDB安装盘的mongodb\bin文件目录下,输入mongo命令,小编这里以F盘为例,如下图所示.
完成之后,输入 use+工程名(如use lagou),接着输入查看数据库命令:show collections,再输入db.数据库名称.find()(如db.lagourecruit.find())查看数据库内容,如下图所示.
方式二:利用 MongoDB可视化工具RoboMongo,RoboMongo下载地址:
http://www.softpedia.com/get/Internet/Servers/Database-Utils/Robomongo.shtml#download ,安装完成并打开,建立主机连接,如下图所示.
连接成功后,即可查阅数据库内容,如下图所示.
END
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- Python3网络爬虫实战---31、数据存储:文件存储
- TableStore:爬虫数据存储和查询利器
- Python3网络爬虫实战---32、数据存储:关系型数据库存储:MySQL
- Golang实现简单爬虫框架(5)——项目重构与数据存储
- golang[59]-分布式爬虫-jsonrpc抽离存储数据引擎
- 爬虫需谨慎,那些你不知道的爬虫与反爬虫套路!
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
了不起的Node.js
劳奇 (Guillermo Rauch) / 赵静 / 电子工业出版社 / 2014-1 / 79.00元
本书是一本经典的 Learning by Doing的书籍。它由 Node社区著名的 Socket.IO作者—— Guillermo Rauch,通过大量的实践案例撰写,并由 Node社区非常活跃的开发者—— Goddy Zhao翻译而成。 本书内容主要由对五大部分的介绍组成: Node核心设计理念、 Node核心模块 API、Web开发、数据库以及测试。从前到后、由表及里地对使用 Node......一起来看看 《了不起的Node.js》 这本书的介绍吧!