内容简介:房价高是北漂们一直关心的话题,本文就对北京的二手房数据进行了分析。本文主要分为两部分:Python爬取赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Python&R的同学们学习参考。
房价高是北漂们一直关心的话题,本文就对北京的二手房数据进行了分析。
本文主要分为两部分:Python爬取赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Python&R的同学们学习参考。
01、 Python 爬取赶集网北京二手房数据
入门爬虫一个月,所以对每一个网站都使用了Xpath、Beautiful Soup、正则三种方法分别爬取,用于练习巩固。数据来源如下:
Xpath爬取:
这里主要解决运用Xpath如何判断某些元素是否存在的问题,比如如果房屋没有装修信息,不加上判断,某些元素不存在就会导致爬取中断。
import requests from lxml import etree from requests.exceptions import RequestException import multiprocessing import time headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'} def get_one_page(url): try: response = requests.get(url, headers=headers) if response.status_code == 200: return response.text return None except RequestException: return None def parse_one_page(content): try: selector = etree.HTML(content) ALL = selector.xpath('//*[@id="f_mew_list"]/div[6]/div[1]/div[3]/div[1]/div') for div in ALL: yield { 'Name': div.xpath('dl/dd[1]/a/text()')[0], 'Type': div.xpath('dl/dd[2]/span[1]/text()')[0], 'Area': div.xpath('dl/dd[2]/span[3]/text()')[0], 'Towards': div.xpath('dl/dd[2]/span[5]/text()')[0], 'Floor': div.xpath('dl/dd[2]/span[7]/text()')[0].strip().replace('\n', ""), 'Decorate': div.xpath('dl/dd[2]/span[9]/text()')[0], #地址需要特殊处理一下 'Address': div.xpath('dl/dd[3]//text()')[1]+div.xpath('dl/dd[3]//text()')[3].replace('\n','')+div.xpath('dl/dd[3]//text()')[4].strip(), 'TotalPrice': div.xpath('dl/dd[5]/div[1]/span[1]/text()')[0] + div.xpath('dl/dd[5]/div[1]/span[2]/text()')[0], 'Price': div.xpath('dl/dd[5]/div[2]/text()')[0] } if div['Name','Type','Area','Towards','Floor','Decorate','Address','TotalPrice','Price'] == None:##这里加上判断,如果其中一个元素为空,则输出None return None except Exception: return None def main(): for i in range(1, 500):#这里设置爬取500页数据,在数据范围内,大家可以自设置爬取的量 url = 'http://bj.ganji.com/fang5/o{}/'.format(i) content = get_one_page(url) print('第{}页抓取完毕'.format(i)) for div in parse_one_page(content): print(div) if __name__ == '__main__': main()
Beautiful Soup爬取:
import requests import re from requests.exceptions import RequestException from bs4 import BeautifulSoup import csv import time headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'} def get_one_page(url): try: response = requests.get(url,headers = headers) if response.status_code == 200: return response.text return None except RequestException: return None def parse_one_page(content): try: soup = BeautifulSoup(content,'html.parser') items = soup.find('div',class_=re.compile('js-tips-list')) for div in items.find_all('div',class_=re.compile('ershoufang-list')): yield { 'Name':div.find('a',class_=re.compile('js-title')).text, 'Type': div.find('dd', class_=re.compile('size')).contents[1].text,#tag的 .contents 属性可以将tag的子节点以列表的方式输出 'Area':div.find('dd',class_=re.compile('size')).contents[5].text, 'Towards':div.find('dd',class_=re.compile('size')).contents[9].text, 'Floor':div.find('dd',class_=re.compile('size')).contents[13].text.replace('\n',''), 'Decorate':div.find('dd',class_=re.compile('size')).contents[17].text, 'Address':div.find('span',class_=re.compile('area')).text.strip().replace(' ','').replace('\n',''), 'TotalPrice':div.find('span',class_=re.compile('js-price')).text+div.find('span',class_=re.compile('yue')).text, 'Price':div.find('div',class_=re.compile('time')).text } #有一些二手房信息缺少部分信息,如:缺少装修信息,或者缺少楼层信息,这时候需要加个判断,不然爬取就会中断。 if div['Name', 'Type', 'Area', 'Towards', 'Floor', 'Decorate', 'Address', 'TotalPrice', 'Price'] == None: return None except Exception: return None def main(): for i in range(1,50): url = 'http://bj.ganji.com/fang5/o{}/'.format(i) content = get_one_page(url) print('第{}页抓取完毕'.format(i)) for div in parse_one_page(content): print(div) with open('Data.csv', 'a', newline='') as f: # Data.csv 文件存储的路径,如果默认路径就直接写文件名即可。 fieldnames = ['Name', 'Type', 'Area', 'Towards', 'Floor', 'Decorate', 'Address', 'TotalPrice', 'Price'] writer = csv.DictWriter(f, fieldnames=fieldnames) writer.writeheader() for item in parse_one_page(content): writer.writerow(item) time.sleep(3)#设置爬取频率,一开始我就是爬取的太猛,导致网页需要验证。 if __name__=='__main__': main()
正则爬取:我研究了好久,还是没有解决。
这一过程中容易遇见的问题有:
- 有一些房屋缺少部分信息,如缺少装修信息,这个时候需要加一个判断,如果不加判断,爬取就会自动终止(我在这里跌了很大的坑)。
Data.csv知识点存储文件路径默认是工作目录,关于Python中如何查看工作目录:
import os #查看pyhton 的默认工作目录 print(os.getcwd()) #修改时工作目录 os.chdir('e:\\workpython') print(os.getcwd()) #输出工作目录 e:\workpython
- 爬虫打印的是字典形式,每个房屋信息都是一个字典,由于Python中excel相关库是知识盲点,所以爬虫的时候将字典循环直接写入了CSV。
Pycharm中打印如下:
将字典循环直接写入CSV效果如下:
- 很多初学者对于Address不知如何处理,这里强调一下Beautiful Soup 中.contents的用法,亲身体会,我在这里花了好多时间才找到答案。
02、R对爬取的二手房房价做一般线性回归分析
下面我们用R对抓取的赶集网北京二手房数据做一些简单的分析。
数据的说明
- Name:主要是商家的醒目标题,不具备分析参考意义
- Type:卧室数、客厅数、卫生间数
- Area:面积(平方米)
- Towards:朝向
- Floor:楼层
- Decorate:装修情况,如精装修、简单装修、毛坯房
- Address:二手房的地址
- TotalPrice:总价
- Price:均价(元/平方米)
数据清洗
data<-read.csv("E://Data For R/RData/data.csv") DATA<-data[,-c(1,7)]#将Name和Address两列去掉 DATA[sample(1:nrow(DATA),size=10),]
#在爬取的时候加入了判断,所以不知道爬取的数据中是否存在缺失值,这里检查一下 colSums(is.na(DATA))
#这里将Type的卧室客厅和卫生间分为三个不同的列 ##这里需要注意,有一些房屋没有客厅如:1室1卫这时候需要单独处理,还有一些没有厕所信息。 library(tidyr) library(stringr) DATA=separate(data=DATA,col=Type,into = c("Bedrooms","Halls"),sep="室") DATA=separate(data=DATA,col=Halls,into = c("Halls","Toilet"),sep="厅") ##将卫生间后面的汉字去掉 DATA$Toilet<-str_replace(DATA$Toilet,"卫","") ###如图六,将Halls中带有汉字去掉,因为有一些房屋信息没有客厅,如:1室1厅,在分成卧室和客厅时,会将卫生间分到客厅一列。 DATA$Halls<-str_replace(DATA$Halls,"卫","") ##取出没有客厅信息的数据,这些数据被separate到Halls列 newdata<-DATA[which(DATA$Toilet %in% NA),2] newdata ##将没有客厅的房屋信息Halls列填充为0 DATA[which(DATA$Toilet %in% NA),2]<-0 DATA[which(DATA$Toilet %in% NA),3]<-newdata colSums(DATA=="") Bedrooms Halls Toilet Area Towards Floor Decorate 0 0 2 0 0 0 0 TotalPrice Price 0 0 ##发现有2个厕所没有信息,将其填写为0。 DATA$Toilet[DATA$Toilet == ""]<-0
##这里将Area后的㎡去掉 DATA$Area<-str_replace(DATA$Area,"㎡","") ##查看Towards的类型 table(DATA$Towards) Towards 北向 东北向 东南向 东西向 东向 南北向 南向 西北向 51 25 23 50 65 32 1901 678 38 西南向 西向 28 26 ##将Floor信息带括号的全部去除 DATA$Floor<-str_replace(DATA$Floor,"[(].*[)]","")##正则表达式 #查看Floor的类别信息 低层 地下 高层 共1层 共2层 共3层 共4层 共5层 中层 632 32 790 36 61 101 68 130 1016 #分别将TotalPrice和Price后面的万元、元/㎡去掉 DATA$TotalPrice<-str_replace(DATA$TotalPrice,"万元","") DATA$Price<-str_replace(DATA$Price,"元/㎡","") head(DATA)
##将数据转换格式 DATA$Bedrooms<-as.factor(DATA$Bedrooms) DATA$Halls<-as.factor(DATA$Halls) DATA$Toilet<-as.factor(DATA$Toilet) DATA$Area<-as.numeric(DATA$Area) DATA$TotalPrice<-as.numeric(DATA$TotalPrice) DATA$Price<-as.numeric(DATA$Price) DATA$Towards<-as.factor(DATA$Towards) DATA$Decorate<-as.factor(DATA$Decorate) str(DATA)
以上数据清洗完毕。
03、描述性分析
这部分的主要思路是探究单个自变量对因变量的影响,对房价的影响因素进行模拟探究之前,首先对各变量进行描述性分析,以初步判断房价的影响因素。这里探究各个因素对总价影响。
探究Bedrooms与TotalPrice的关系
table(DATA$Bedrooms) 1 2 3 4 5 6 7 9 541 1225 779 193 102 20 5 1 ##由于拥有6、7、9个卧室数的数量较少,这里我们排出这些数据。 DATA<-DATA[-(which(DATA$Bedrooms %in% "6")),] DATA<-DATA[-(which(DATA$Bedrooms %in% "7")),] DATA<-DATA[-(which(DATA$Bedrooms %in% "9")),] table(DATA$Bedrooms) 1 2 3 4 5 541 1225 779 193 102 library(ggplot2) ggplot(DATA,aes(x=Bedrooms,y=TotalPrice))+geom_boxplot(col="red")
DATA$Bedrooms<-as.numeric(DATA$Bedrooms) ##这里将卧室数为1、2、3命名为A,4为B,5为C DATA$Bedrooms[DATA$Bedrooms=='1']<-"A" DATA$Bedrooms[DATA$Bedrooms=='2']<-"A" DATA$Bedrooms[DATA$Bedrooms=='3']<-"A" DATA$Bedrooms[DATA$Bedrooms=='4']<-"B" DATA$Bedrooms[DATA$Bedrooms=='5']<-"C"
不同卧室数,TotalPrice不同。且随着卧室数的增多,总价越高,符合大众的认知。
探究Halls与TotalPrice的关系
table(DATA$Halls) 0 1 2 3 4 5 9 20 1674 1050 77 18 1 0 ##5个客厅只有一个个体,我们这里将其排出 DATA<-DATA[-(which(DATA$Halls %in% "5")),] table(DATA$Halls) 0 1 2 3 4 5 9 20 1674 1050 77 18 0 0 ggplot(DATA,aes(x=Halls,y=TotalPrice))+geom_boxplot(col="red")
客厅数为3时候总价最高,客厅数为0、1和2的时候总价低于客厅数3和客厅数4。
探究Toilet与TotalPrice的关系
#探究卫生间与总价的关系 table(DATA$Toilet) 0 1 2 3 4 5 6 7 9 2 2142 470 116 74 26 7 2 0 #这里将卫生间数为0、6和7的去掉 DATA<-DATA[-(which(DATA$Toilet %in% "0")),] DATA<-DATA[-(which(DATA$Toilet %in% "6")),] DATA<-DATA[-(which(DATA$Toilet %in% "7")),] table(DATA$Toilet) 0 1 2 3 4 5 6 7 9 0 2142 470 116 74 26 0 0 0 ggplot(DATA,aes(x=Toilet,y=TotalPrice))+geom_boxplot(col="red")
一般卧室数越多,卫生间数也越多,即卫生间数越多,总价越高。
探究Area与TotalPrice的关系
ggplot(DATA, aes(x=Area, y=TotalPrice)) + geom_point(col='red')
这个完全符合住房面积越大,总价越高。
探究Towards与TotalPrice的关系
ggplot(DATA,aes(x=Towards,y=TotalPrice))+geom_boxplot(col="red")
探究Floor与TotalPrice的关系
ggplot(DATA,aes(x=Floor,y=TotalPrice))+geom_boxplot(col="red")
图中信息显示楼层一共只有1、2、3、地下的总价较高。
探究Decorate与TotalPrice的关系
ggplot(DATA,aes(x=Decorate,y=TotalPrice))+geom_boxplot(col="red")
不同装修信息对总价影响较小。
04、模型建立
fit <-lm(TotalPrice~Bedrooms+Halls+Toilet+Area+Towards+Floor+Decorate,data=DATA) summary(fit) Call: lm(formula = TotalPrice ~ Bedrooms + Halls + Toilet + Area + Towards + Floor + Decorate, data = DATA) Residuals: Min 1Q Median 3Q Max -1330.80 -103.49 -21.41 63.88 2961.59 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -112.7633 88.3010 -1.277 0.201697 Bedrooms2 -43.5934 16.2533 -2.682 0.007359 ** Bedrooms3 -82.6565 20.7641 -3.981 7.04e-05 *** Bedrooms4 -63.3096 34.9521 -1.811 0.070198 . Bedrooms5 79.0618 54.0763 1.462 0.143842 Halls1 -5.0663 64.2764 -0.079 0.937182 Halls2 -53.8905 65.4427 -0.823 0.410307 Halls3 -303.9750 79.2280 -3.837 0.000127 *** Halls4 -528.5427 104.0849 -5.078 4.07e-07 *** Toilet2 112.9566 19.1171 5.909 3.87e-09 *** Toilet3 543.7304 38.8056 14.012 < 2e-16 *** Toilet4 735.1894 55.0977 13.343 < 2e-16 *** Toilet5 338.7906 84.2851 4.020 5.98e-05 *** Area 5.1091 0.1619 31.557 < 2e-16 *** Towards东北向 138.9088 79.3817 1.750 0.080248 . Towards东南向 187.1895 68.5388 2.731 0.006351 ** Towards东西向 176.3055 65.8384 2.678 0.007453 ** Towards东向 210.9435 73.2744 2.879 0.004022 ** Towards南北向 75.7831 57.1199 1.327 0.184704 Towards南向 60.1949 56.9678 1.057 0.290763 Towards西北向 75.4326 71.1415 1.060 0.289091 Towards西南向 169.8106 75.9626 2.235 0.025467 * Towards西向 234.0816 76.5585 3.058 0.002253 ** Floor地下 -812.3578 63.3277 -12.828 < 2e-16 *** Floor高层 12.3525 14.2466 0.867 0.385991 Floor共1层 -313.7278 52.1342 -6.018 2.00e-09 *** Floor共2层 -453.3692 41.6829 -10.877 < 2e-16 *** Floor共3层 -601.7032 44.3336 -13.572 < 2e-16 *** Floor共4层 -183.7866 36.3396 -5.057 4.52e-07 *** Floor共5层 -41.4184 25.7922 -1.606 0.108419 Floor中层 -1.7223 13.5961 -0.127 0.899204 Decorate简单装修 -63.1591 22.0584 -2.863 0.004224 ** Decorate精装修 -49.3276 19.8544 -2.484 0.013033 * Decorate毛坯 -157.0299 24.3012 -6.462 1.22e-10 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 265.5 on 2794 degrees of freedom Multiple R-squared: 0.6852, Adjusted R-squared: 0.6815 F-statistic: 184.3 on 33 and 2794 DF, p-value: < 2.2e-16
模型的F检验拒绝原假设,说明建立的模型是显著的;Ajusted R-squared为0.6815,模型的拟合程度尚可接受。
作者:徐麟,知乎同名专栏作者,目前就职于上海唯品会产品技术中心,哥大统计数据狗,从事数据挖掘&分析工作,喜欢用R&Python玩一些不一样的数据。
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Python金融衍生品大数据分析:建模、模拟、校准与对冲
【德】Yves Hilpisch(伊夫·希尔皮斯科) / 蔡立耑 / 电子工业出版社 / 2017-8 / 99.00
Python 在衍生工具分析领域占据重要地位,使机构能够快速、有效地提供定价、交易及风险管理的结果。《Python金融衍生品大数据分析:建模、模拟、校准与对冲》精心介绍了有效定价期权的四个领域:基于巿场定价的过程、完善的巿场模型、数值方法及技术。书中的内容分为三个部分。第一部分着眼于影响股指期权价值的风险,以及股票和利率的相关实证发现。第二部分包括套利定价理论、离散及连续时间的风险中性定价,并介绍......一起来看看 《Python金融衍生品大数据分析:建模、模拟、校准与对冲》 这本书的介绍吧!