内容简介:基于大众对Python的大肆吹捧和赞赏,作为一名Java从业人员,看了Python的书籍之后,决定做一名python的脑残粉。作为一名合格的脑残粉(标题党ノ◕ω◕)ノ),为了发展我的下线,接下来我会详细的介绍Python的安装到开发工具的简单介绍,并编写一个抓取天气信息数据并储存到数据库的例子。(这篇文章适用于完全不了解Python的小白超超超快速入门)
基于大众对 Python 的大肆吹捧和赞赏,作为一名 Java 从业人员,看了Python的书籍之后,决定做一名python的脑残粉。
作为一名合格的脑残粉(标题党ノ◕ω◕)ノ),为了发展我的下线,接下来我会详细的介绍Python的安装到开发 工具 的简单介绍,并编写一个抓取天气信息数据并储存到数据库的例子。(这篇文章适用于完全不了解Python的小白超超超快速入门)
如果有时间的话,强烈建议跟着一起操作一遍,因为介绍的真的很详细了。
源码视频书籍练习题等资料可以私信小编01获取
1、Python 安装
2、PyCharm(ide) 安装
3、抓取天气信息
4、数据写入excel
5、数据写入数据库
1、Python安装
下载 Python: 官网地址: https://www.python.org/ 选择download 再选择你电脑系统,小编是Windows系统的 所以就选择
2、Pycharm安装
下载 PyCharm : 官网地址:http://www.jetbrains.com/pycharm/
免费版本的可以会有部分功能缺失,所以不推荐,所以这里我们选择下载企业版。
安装好 PyCharm,首次打开可能需要你 输入邮箱 或者 输入激活码
获取免费的激活码:http://idea.lanyus.com/
3、抓取天气信息
我们计划抓取的数据:杭州的天气信息,杭州天气 可以先看一下这个网站。
实现数据抓取的逻辑:使用python 请求 URL,会返回对应的 HTML 信息,我们解析 html,获得自己需要的数据。(很简单的逻辑)
第一步:创建 Python 文件
写第一段Python代码
if __name__ == '__main__': url = 'http://www.weather.com.cn/weather/101210101.shtml' print('my frist python file')
这段代码类似于 Java 中的 Main 方法。可以直接鼠标右键,选择 Run。
第二步:请求RUL
python 的强大之处就在于它有大量的模块(类似于Java 的 jar 包)可以直接拿来使用。
我们需要安装一个 request 模块: File - Setting - Product - Product Interpreter
点击如上图的 + 号,就可以安装 Python 模块了。搜索
我们顺便再安装一个 beautifulSoup4 和 pymysql 模块,beautifulSoup4 模块是用来解析 html 的,可以对象化 HTML 字符串。pymysql 模块是用来连接 mysql 数据库使用的。
相关的模块都安装之后,就可以开心的敲代码了。
定义一个 getContent 方法:
# 导入相关联的包 import requests import time import random import socket import http.client import pymysql from bs4 import BeautifulSoup def getContent(url , data = None): header={ 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate, sdch', 'Accept-Language': 'zh-CN,zh;q=0.8', 'Connection': 'keep-alive', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.235' } # request 的请求头 timeout = random.choice(range(80, 180)) while True: try: rep = requests.get(url,headers = header,timeout = timeout) #请求url地址,获得返回 response 信息 rep.encoding = 'utf-8' break except socket.timeout as e: # 以下都是异常处理 print( '3:', e) time.sleep(random.choice(range(8,15))) except socket.error as e: print( '4:', e) time.sleep(random.choice(range(20, 60))) except http.client.BadStatusLine as e: print( '5:', e) time.sleep(random.choice(range(30, 80))) except http.client.IncompleteRead as e: print( '6:', e) time.sleep(random.choice(range(5, 15))) print('request success') return rep.text # 返回的 Html 全文
在 main 方法中调用:
if __name__ == '__main__': url ='http://www.weather.com.cn/weather/101210101.shtml' html = getContent(url) # 调用获取网页信息 print('my frist python file')
第三步:分析页面数据
定义一个 getData 方法:
def getData(html_text): final = [] bs = BeautifulSoup(html_text, "html.parser") # 创建BeautifulSoup对象 body = bs.body #获取body data = body.find('div',{'id': '7d'}) ul = data.find('ul') li = ul.find_all('li') for day in li: temp = [] date = day.find('h1').string temp.append( date) #添加日期 inf = day.find_all('p') weather = inf[0].string #天气 temp.append(weather) temperature_highest = inf[1].find('span').string #最高温度 temperature_low = inf[1].find('i').string # 最低温度 temp.append(temperature_low) temp.append(temperature_highest) final.append(temp) print('getDate success') return final
上面的解析其实就是按照 HTML 的规则解析的。可以打开 杭州天气 在开发者模式中(F12),看一下页面的元素分布。
在 main 方法中调用:
if __name__ == '__main__': url ='http://www.weather.com.cn/weather/101210101.shtml' html = getContent(url) # 获取网页信息 result = getData(html) # 解析网页信息,拿到需要的数据 print('my frist python file')
数据写入excel
现在我们已经在 Python 中拿到了想要的数据,对于这些数据我们可以先存放起来,比如把数据写入 csv 中。
定义一个 writeDate 方法:
import csv #导入包 def writeData(data, name): with open( name, 'a', errors='ignore', newline='') as f: f_csv = csv.writer(f) f_csv.writerows(data) print('write_csv success')
在 main 方法中调用:
if __name__ == '__main__': url ='http://www.weather.com.cn/weather/101210101.shtml' html = getContent(url) # 获取网页信息 result = getData(html) # 解析网页信息,拿到需要的数据 writeData(result, 'D:/py_work/venv/Include/weather.csv') #数据写入到 csv文档中 print('my frist python file')
执行之后呢,再指定路径下就会多出一个 weather.csv 文件,可以打开看一下内容。
到这里最简单的数据抓取--储存就完成了。
数据写入数据库
因为一般情况下都会把数据存储在数据库中,所以我们以 mysql 数据库为例,尝试着把数据写入到我们的数据库中。
第一步创建WEATHER 表:
创建表可以在直接在 mysql 客户端进行操作,也可能用 python 创建表。在这里 我们使用 python 来创建一张 WEATHER 表。
定义一个 createTable 方法:(之前已经导入了 import pymysql 如果没有的话需要导入包)
def createTable(): # 打开数据库连接 db = pymysql.connect("localhost", "zww", "960128", "test") # 使用 cursor() 方法创建一个游标对象 cursor cursor = db. cursor() # 使用 execute() 方法执行 SQL 查询 cursor. execute("SELECT VERSION()") # 使用 fetchone() 方法获取单条数据. data = cursor.fetchone() print("Database version : %s " % data) # 显示数据库版本(可忽略,作为个栗子) # 使用 execute() 方法执行 SQL,如果表存在则删除 cursor. execute("DROP TABLE IF EXISTS WEATHER") # 使用预处理语句创建表 sql = """CREATE TABLE WEATHER ( w_id int(8) not null primary key auto_increment, w_date varchar(20) NOT NULL , w_detail varchar(30), w_temperature_low varchar(10), w_temperature_high varchar(10)) DEFAULT CHARSET=utf8""" # 这里需要注意设置编码格式,不然中文数据无法插入 cursor. execute(sql) # 关闭数据库连接 db.close() print('create table success')
在 main 方法中调用:
if __name__ == '__main__': url ='http://www.weather.com.cn/weather/101210101.shtml' html = getContent(url) # 获取网页信息 result = getData(html) # 解析网页信息,拿到需要的数据 writeData(result, 'D:/py_work/venv/Include/weather.csv') #数据写入到 csv文档中 createTable() #表创建一次就好了,注意 print('my frist python file')
执行之后去检查一下数据库,看一下 weather 表是否创建成功了。
第二步批量写入数据至 WEATHER 表:
定义一个 insertData 方法:
def insert_data(datas): # 打开数据库连接 db = pymysql.connect("localhost", "zww", "960128", "test") # 使用 cursor() 方法创建一个游标对象 cursor cursor = db. cursor() try: # 批量插入数据 cursor.executemany('insert into WEATHER(w_id, w_date, w_detail, w_temperature_low, w_temperature_high) value(null, %s,%s,%s,%s)', datas) # sql = "INSERT INTO WEATHER(w_id, # w_date, w_detail, w_temperature) # VALUES ( null, '%s','%s','%s')" % # (data[0], data[1], data[2]) # cursor. execute(sql) #单条数据写入 # 提交到数据库执行 db.commit() except Exception as e: print('插入时发生异常' + e) # 如果发生错误则回滚 db.rollback() # 关闭数据库连接 db.close()
在 main 方法中调用:
if __name__ == '__main__': url ='http://www.weather.com.cn/weather/101210101.shtml' html = getContent(url) # 获取网页信息 result = getData(html) # 解析网页信息,拿到需要的数据 writeData(result, 'D:/py_work/venv/Include/weather.csv') #数据写入到 csv文档中 # createTable() #表创建一次就好了,注意 insertData(result) #批量写入数据 print('my frist python file')
检查:执行这段 Python 语句后,看一下数据库是否有写入数据。有的话就大功告成了。
全部代码看这里:
# 导入相关联的包 import requests import time import random import socket import http.client import pymysql from bs4 import BeautifulSoup import csv def getContent(url , data = None): header={ 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate, sdch', 'Accept-Language': 'zh-CN,zh;q=0.8', 'Connection': 'keep-alive', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.235' } # request 的请求头 timeout = random.choice(range(80, 180)) while True: try: rep = requests.get(url,headers = header,timeout = timeout) #请求url地址,获得返回 response 信息 rep.encoding = 'utf-8' break except socket.timeout as e: # 以下都是异常处理 print( '3:', e) time.sleep(random.choice(range(8,15))) except socket.error as e: print( '4:', e) time.sleep(random.choice(range(20, 60))) except http.client.BadStatusLine as e: print( '5:', e) time.sleep(random.choice(range(30, 80))) except http.client.IncompleteRead as e: print( '6:', e) time.sleep(random.choice(range(5, 15))) print('request success') return rep.text # 返回的 Html 全文 def getData(html_text): final = [] bs = BeautifulSoup(html_text, "html.parser") # 创建BeautifulSoup对象 body = bs.body #获取body data = body.find('div',{'id': '7d'}) ul = data.find('ul') li = ul.find_all('li') for day in li: temp = [] date = day.find('h1').string temp.append( date) #添加日期 inf = day.find_all('p') weather = inf[0].string #天气 temp.append(weather) temperature_highest = inf[1].find('span').string #最高温度 temperature_low = inf[1].find('i').string # 最低温度 temp.append(temperature_highest) temp.append(temperature_low) final.append(temp) print('getDate success') return final def writeData(data, name): with open( name, 'a', errors='ignore', newline='') as f: f_csv = csv.writer(f) f_csv.writerows(data) print('write_csv success') def createTable(): # 打开数据库连接 db = pymysql.connect("localhost", "zww", "960128", "test") # 使用 cursor() 方法创建一个游标对象 cursor cursor = db. cursor() # 使用 execute() 方法执行 SQL 查询 cursor. execute("SELECT VERSION()") # 使用 fetchone() 方法获取单条数据. data = cursor.fetchone() print("Database version : %s " % data) # 显示数据库版本(可忽略,作为个栗子) # 使用 execute() 方法执行 SQL,如果表存在则删除 cursor. execute("DROP TABLE IF EXISTS WEATHER") # 使用预处理语句创建表 sql = """CREATE TABLE WEATHER ( w_id int(8) not null primary key auto_increment, w_date varchar(20) NOT NULL , w_detail varchar(30), w_temperature_low varchar(10), w_temperature_high varchar(10)) DEFAULT CHARSET=utf8""" cursor. execute(sql) # 关闭数据库连接 db.close() print('create table success') def insertData(datas): # 打开数据库连接 db = pymysql.connect("localhost", "zww", "960128", "test") # 使用 cursor() 方法创建一个游标对象 cursor cursor = db. cursor() try: # 批量插入数据 cursor.executemany('insert into WEATHER(w_id, w_date, w_detail, w_temperature_low, w_temperature_high) value(null, %s,%s,%s,%s)', datas) # 提交到数据库执行 db.commit() except Exception as e: print('插入时发生异常' + e) # 如果发生错误则回滚 db.rollback() # 关闭数据库连接 db.close() print('insert data success') if __name__ == '__main__': url ='http://www.weather.com.cn/weather/101210101.shtml' html = getContent(url) # 获取网页信息 result = getData(html) # 解析网页信息,拿到需要的数据 writeData(result, 'D:/py_work/venv/Include/weather.csv') #数据写入到 csv文档中 # createTable() #表创建一次就好了,注意 insertData(result) #批量写入数据 print('my frist python file')
【责任编辑:庞桂玉 TEL:(010)68476606】
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- Python爬虫入门教程 18-100 煎蛋网XXOO图片抓取
- Python爬虫入门教程 16-100 500px摄影师社区抓取摄影师数据
- Fiddler抓包工具入门:软件测试员必知的抓取https协议的方法
- 如何使用代理IP进行数据抓取,PHP爬虫抓取亚马逊商品数据
- 抓取 Grafana Panel 视图
- 常用 Windows 抓取Hash
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Mathematica Cookbook
Sal Mangano / O'Reilly Media / 2009 / GBP 51.99
As the leading software application for symbolic mathematics, Mathematica is standard in many environments that rely on math, such as science, engineering, financial analysis, software development, an......一起来看看 《Mathematica Cookbook》 这本书的介绍吧!