以豌豆荚为例,用 Scrapy 爬取分类多级页面

栏目: 编程工具 · 发布时间: 5年前

内容简介:使用 Scrapy 爬取豌豆荚全网 70000+ App。摘要:使用 Scrapy 爬取豌豆荚全网 70000+ App,并进行探索性分析。写在前面:若对数据抓取部分不感兴趣,可以直接下拉到数据分析部分。

使用 Scrapy 爬取豌豆荚全网 70000+ App。

摘要:使用 Scrapy 爬取豌豆荚全网 70000+ App,并进行探索性分析。

写在前面:若对数据抓取部分不感兴趣,可以直接下拉到数据分析部分。

1 分析背景

之前我们使用了 Scrapy 爬取并分析了酷安网 6000+ App,为什么这篇文章又在讲抓 App 呢?

因为我喜欢折腾 App,哈哈。当然,主要是因为下面这几点:

第一、之前抓取的网页很简单

在抓取酷安网时,我们使用 for 循环,遍历了几百页就完成了所有内容的抓取,非常简单,但现实往往不会这么 easy,有时我们要抓的内容会比较庞大,比如抓取整个网站的数据,为了增强爬虫技能,所以本文选择了「豌豆荚」这个网站。

目标是: 爬取该网站所有分类下的 App 信息并下载 App 图标 ,数量在 70,000 左右,比酷安升了一个数量级。

第二、再次练习使用强大的 Scrapy 框架

之前只是初步地使用了 Scrapy 进行抓取,还没有充分领会到 Scrapy 有多么牛逼,所以本文尝试深入使用 Scrapy,增加随机 UserAgent、代理 IP 和图片下载等设置。

第三、对比一下酷安和豌豆荚两个网站

相信很多人都在使用豌豆荚下载 App,我则使用酷安较多,所以也想比较一下这两个网站的 App 特点。

话不多说,下面开始抓取流程。

▌分析目标

首先,我们先来了解一下要抓取的豌豆荚网页是什么样的,可以看到该网站上的 App 分成了很多类,包括:「应用播放」、「系统工具」等,一共有 14 个大类别,每个大类下又细分了多个小类,例如,影音播放下包括:「视频」、「直播」等。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

点击「视频」进入第二级子类页面,可以看到每款 App 的部分信息,包括:图标、名称、安装数量、体积、评论等。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

在之前的一篇文章中(见下方链接),我们分析了这个页面:采用 AJAX 加载,GET 请求,参数很容易构造,但是具体页数不确定,最后分别使用了 For 和 While 循环抓取了所有页数的数据。

∞ Python For 和 While 循环爬取不确定页数的网页

接着,我们可以再进入第三级页面,也就是每款 App 的详情页,可以看到多了下载数、好评率、评论数这几样参数,抓取思路和第二级页面大同小异,同时为了减小网站压力,所以 App 详情页就不抓取了。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

所以,这是一个分类多级页面的抓取问题,依次抓取每一个大类下的全部子类数据。

学会了这种抓取思路,很多网站我们都可以去抓,比如很多人爱爬的「豆瓣电影」也是这样的结构。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

▌分析内容

数据抓取完成后,本文主要是对分类型数据的进行简单的探索性分析,包括这么几个方面:

  • 下载量最多 / 最少的 App 总排名
  • 下载量最多 / 最少的 App 分类 / 子分类排名
  • App 下载量区间分布
  • App 名称重名的有多少
  • 和酷安 App 进行对比

▌分析工具

  • Python
  • Scrapy
  • MongoDB
  • Pyecharts
  • Matplotlib

2 数据抓取

▌网站分析

我们刚才已经初步对网站进行了分析,大致思路可以分为两步,首先是提取所有子类的 URL 链接,然后分别抓取每个 URL 下的 App 信息就行了。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

可以看到,子类的 URL 是由两个数字构成,前面的数字表示分类编号,后面的数字表示子分类编号,得到了这两个编号,就可以抓取该分类下的所有 App 信息,那么怎么获取这两个数值代码呢?

回到分类页面,定位查看信息,可以看到分类信息都包裹在每个 li 节点中,子分类 URL 则又在子节点 a 的 href 属性中, 大分类一共有 14 个,子分类一共有 88 个

以豌豆荚为例,用 Scrapy 爬取分类多级页面

到这儿,思路就很清晰了,我们可以用 CSS 提取出全部子分类的 URL,然后分别抓取所需信息即可。

另外还需注意一点,该网站的 首页信息是静态加载的,从第 2 页开始是采用了 Ajax 动态加载 ,URL 不同,需要分别进行解析提取。

▌Scrapy抓取

我们要爬取两部分内容,一是 APP 的数据信息,包括前面所说的:名称、安装数量、体积、评论等,二是下载每款 App 的图标,分文件夹进行存放。

由于该网站有一定的反爬措施,所以我们需要添加随机 UA 和代理 IP,关于这两个知识点,我此前单独写了两篇文章进行铺垫,传送门:

∞ Scrapy 中设置随机 User-Agent 的方法汇总

∞ Python 爬虫的代理 IP 设置方法汇总

这里随机 UA 使用 scrapy-fake-useragent 库,一行代码就能搞定,代理 IP 直接上阿布云付费代理,几块钱搞定简单省事。

下面,就直接上代码了:

items.py

import scrapy

class WandoujiaItem(scrapy.Item):
    cate_name = scrapy.Field() #分类名
    child_cate_name = scrapy.Field() #分类编号
    app_name = scrapy.Field()   # 子分类名
    install = scrapy.Field()    # 子分类编号
    volume = scrapy.Field()     # 体积
    comment = scrapy.Field()    # 评论
    icon_url = scrapy.Field()   # 图标url

middles.py

中间件主要用于设置代理 IP。

import base64
proxyServer = "http://http-dyn.abuyun.com:9020"
proxyUser = "你的信息"
proxyPass = "你的信息"

proxyAuth = "Basic " + base64.urlsafe_b64encode(bytes((proxyUser + ":" + proxyPass), "ascii")).decode("utf8")
class AbuyunProxyMiddleware(object):
    def process_request(self, request, spider):
        request.meta["proxy"] = proxyServer
        request.headers["Proxy-Authorization"] = proxyAuth
        logging.debug('Using Proxy:%s'%proxyServer)

pipelines.py

该文件用于存储数据到 MongoDB 和下载图标到分类文件夹中。

存储到 MongoDB:

MongoDB 存储
class MongoPipeline(object):
    def __init__(self,mongo_url,mongo_db):
        self.mongo_url = mongo_url
        self.mongo_db = mongo_db
    
    @classmethod
    def from_crawler(cls,crawler):
        return cls(
            mongo_url = crawler.settings.get('MONGO_URL'),
            mongo_db = crawler.settings.get('MONGO_DB')
        )
    
    def open_spider(self,spider):
        self.client = pymongo.MongoClient(self.mongo_url)
        self.db = self.client[self.mongo_db]

    def process_item(self,item,spider):
        name = item.__class__.__name__
        # self.db[name].insert(dict(item))
        self.db[name].update_one(item, {'$set': item}, upsert=True)
        return item

    def close_spider(self,spider):
        self.client.close()

按文件夹下载图标:

# 分文件夹下载
class ImagedownloadPipeline(ImagesPipeline):
    def get_media_requests(self,item,info):
        if item['icon_url']:
            yield scrapy.Request(item['icon_url'],meta={'item':item})

    def file_path(self, request, response=None, info=None):
        name = request.meta['item']['app_name']
        cate_name = request.meta['item']['cate_name']
        child_cate_name = request.meta['item']['child_cate_name']
      
        path1 = r'/wandoujia/%s/%s' %(cate_name,child_cate_name)
        path = r'{}\{}.{}'.format(path1, name, 'jpg')
        return path

    def item_completed(self,results,item,info):
        image_path = [x['path'] for ok,x in results if ok]
        if not image_path:
            raise DropItem('Item contains no images')
        return item

settings.py

BOT_NAME = 'wandoujia'
SPIDER_MODULES = ['wandoujia.spiders']
NEWSPIDER_MODULE = 'wandoujia.spiders'

MONGO_URL = 'localhost'
MONGO_DB = 'wandoujia'

# 是否遵循机器人规则
ROBOTSTXT_OBEY = False
# 下载设置延迟 由于买的阿布云一秒只能请求5次,所以每个请求设置了 0.2s延迟
DOWNLOAD_DELAY = 0.2

DOWNLOADER_MIDDLEWARES = {
    'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
    'scrapy_fake_useragent.middleware.RandomUserAgentMiddleware': 100, # 随机UA
    'wandoujia.middlewares.AbuyunProxyMiddleware': 200 # 阿布云代理
    )
    
ITEM_PIPELINES = {
   'wandoujia.pipelines.MongoPipeline': 300,
   'wandoujia.pipelines.ImagedownloadPipeline': 400,
}
    
# URL不去重
DUPEFILTER_CLASS = 'scrapy.dupefilters.BaseDupeFilter'

wandou.py

主程序这里列出关键的部分:

def __init__(self):
        self.cate_url = 'https://www.wandoujia.com/category/app'
        # 子分类首页url
        self.url = 'https://www.wandoujia.com/category/'
        # 子分类 ajax请求页url
        self.ajax_url = 'https://www.wandoujia.com/wdjweb/api/category/more?'
        # 实例化分类标签
        self.wandou_category = Get_category()
def start_requests(self):
        yield scrapy.Request(self.cate_url,callback=self.get_category)
        
def get_category(self,response):    
        cate_content = self.wandou_category.parse_category(response)
        # ...

这里,首先定义几个 URL,包括:分类页面、子分类首页、子分类 AJAX 页,也就是第 2 页开始的 URL,然后又定义了一个类 Get_category() 专门用于提取全部的子分类 URL,稍后我们将展开该类的代码。

程序从 start_requests 开始运行,解析首页获得响应,调用 get_category() 方法,然后使用 Get_category() 类中的 parse_category() 方法提取出所有 URL,具体代码如下:

class Get_category():
    def parse_category(self, response):
        category = response.css('.parent-cate')
        data = [{
            'cate_name': item.css('.cate-link::text').extract_first(),
            'cate_code': self.get_category_code(item),
            'child_cate_codes': self.get_child_category(item),
        } for item in category]
        return data
    
    # 获取所有主分类标签数值代码
    def get_category_code(self, item):
        cate_url = item.css('.cate-link::attr("href")').extract_first()
        pattern = re.compile(r'.*/(\d+)')  # 提取主类标签代码
        cate_code = re.search(pattern, cate_url)
        return cate_code.group(1)

    # 获取所有子分类名称和编码
    def get_child_category(self, item):
        child_cate = item.css('.child-cate a')
        child_cate_url = [{
            'child_cate_name': child.css('::text').extract_first(),
            'child_cate_code': self.get_child_category_code(child)
        } for child in child_cate]
        return child_cate_url

    # 正则提取子分类编码
    def get_child_category_code(self, child):
        child_cate_url = child.css('::attr("href")').extract_first()
        pattern = re.compile(r'.*_(\d+)')  # 提取小类标签编号
        child_cate_code = re.search(pattern, child_cate_url)
        return child_cate_code.group(1)

这里,除了分类名称 cate_name 可以很方便地直接提取出来,分类编码和子分类的子分类的名称和编码,我们使用了 get_category_code() 等三个方法进行提取。提取方法使用了 CSS 和正则表达式,比较简单。

最终提取的分类名称和编码结果如下,利用这些编码,我们就可以构造 URL 请求开始提取每个子分类下的 App 信息了。

{'cate_name': '影音播放', 'cate_code': '5029', 'child_cate_codes': [
    {'child_cate_name': '视频', 'child_cate_code': '716'}, 
    {'child_cate_name': '直播', 'child_cate_code': '1006'}, 
    ...
	]}, 
{'cate_name': '系统工具', 'cate_code': '5018', 'child_cate_codes': [
    {'child_cate_name': 'WiFi', 'child_cate_code': '895'}, 
    {'child_cate_name': '浏览器', 'child_cate_code': '599'}, 
    ...
	]}, 
...

接着前面的 get_category() 继续往下写,提取 App 的信息:

def get_category(self,response):    
        cate_content = self.wandou_category.parse_category(response)
        # ...
        for item in cate_content:
            child_cate = item['child_cate_codes']
            for cate in child_cate:
                cate_code = item['cate_code']
                cate_name = item['cate_name']
                child_cate_code = cate['child_cate_code']
                child_cate_name = cate['child_cate_name']
                
                page = 1 # 设置爬取起始页数
                if page == 1:
                    # 构造首页url
                    category_url = '{}{}_{}' .format(self.url, cate_code, child_cate_code)
                else:
                    params = {
                        'catId': cate_code,  # 类别
                        'subCatId': child_cate_code,  # 子类别
                        'page': page,
                        }
                    category_url = self.ajax_url + urlencode(params)
                dict = {'page':page,'cate_name':cate_name,'cate_code':cate_code,'child_cate_name':child_cate_name,'child_cate_code':child_cate_code}
                yield scrapy.Request(category_url,callback=self.parse,meta=dict)

这里,依次提取出全部的分类名称和编码,用于构造请求的 URL。由于首页的 URL 和第 2 页开始的 URL 形式不同,所以使用了 if 语句分别进行构造。接下来,请求该 URL 然后调用 self.parse() 方法进行解析,这里使用了 meta 参数用于传递相关参数。

def parse(self, response):
        if len(response.body) >= 100:  # 判断该页是否爬完,数值定为100是因为无内容时长度是87
            page = response.meta['page']
            cate_name = response.meta['cate_name']
            cate_code = response.meta['cate_code']
            child_cate_name = response.meta['child_cate_name']
            child_cate_code = response.meta['child_cate_code']

            if page == 1:
                contents = response
            else:
                jsonresponse = json.loads(response.body_as_unicode())
                contents = jsonresponse['data']['content']
                # response 是json,json内容是html,html 为文本不能直接使用.css 提取,要先转换
                contents = scrapy.Selector(text=contents, type="html")

            contents = contents.css('.card')
            for content in contents:
                # num += 1
                item = WandoujiaItem()
                item['cate_name'] = cate_name
                item['child_cate_name'] = child_cate_name
                item['app_name'] = self.clean_name(content.css('.name::text').extract_first())  
                item['install'] = content.css('.install-count::text').extract_first()
                item['volume'] = content.css('.meta span:last-child::text').extract_first()
                item['comment'] = content.css('.comment::text').extract_first().strip()
                item['icon_url'] = self.get_icon_url(content.css('.icon-wrap a img'),page)
                yield item
            
            # 递归爬下一页
            page += 1
            params = {
                    'catId': cate_code,  # 大类别
                    'subCatId': child_cate_code,  # 小类别
                    'page': page,
                    }
            ajax_url = self.ajax_url + urlencode(params)
            dict = {'page':page,'cate_name':cate_name,'cate_code':cate_code,'child_cate_name':child_cate_name,'child_cate_code':child_cate_code}
            yield scrapy.Request(ajax_url,callback=self.parse,meta=dict)

最后,parse() 方法用来解析提取最终我们需要的 App 名称、安装量等信息,解析完成一页后,page 进行递增,然后重复调用 parse() 方法循环解析,直到解析完全部分类的最后一页。

最终,几个小时后,我们就可以完成全部 App 信息的抓取,我这里得到 73,755 条信息和 72,150 个图标,两个数值不一样是因为有些 App 只有信息没有图标。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

图标下载:

以豌豆荚为例,用 Scrapy 爬取分类多级页面

下面将对提取的信息,进行的数据分析。

3 数据分析

▌总体情况

首先来看一下 App 的安装量情况,毕竟 70000 多款 App,自然很感兴趣 哪些 App 使用地最多,哪些又使用地最少

以豌豆荚为例,用 Scrapy 爬取分类多级页面

代码实现如下:

plt.style.use('ggplot')
colors = '#6D6D6D' #字体颜色
colorline = '#63AB47'  #红色CC2824  #豌豆荚绿
fontsize_title = 20
fontsize_text = 10

# 下载量总排名
def analysis_maxmin(data):
    data_max = (data[:10]).sort_values(by='install_count')
    data_max['install_count'] = (data_max['install_count'] / 100000000).round(1)
    data_max.plot.barh(x='app_name',y='install_count',color=colorline)
    for y, x in enumerate(list((data_max['install_count']))):
        plt.text(x + 0.1, y - 0.08, '%s' %
                 round(x, 1), ha='center', color=colors)

    plt.title('安装量最多的 10 款 App ?',color=colors)
    plt.xlabel('下载量(亿次)')
    plt.ylabel('App')
    plt.tight_layout()
    # plt.savefig('安装量最多的App.png',dpi=200)
    plt.show()

看了上图,有两个「 没想到 」:

  • 排名第一的居然是一款手机管理软件

    对豌豆荚网上的这个第一名感到意外,一是,好奇大家都那么爱手机清理或者怕中毒么?毕竟,我自己的手机都「裸奔」了好些年;二是,第一名居然不是鹅厂的其他产品,比入「微信」或者「QQ」。

  • 榜单放眼望去,以为会出现的没有出现,没有想到的却出现了

    前十名中,居然出现了书旗小说、印客这些比较少听过的名字,而国民 App 微信、支付宝等,甚至都没有出现在这个榜单中。

带着疑问和好奇,分别找到了「腾讯手机管家」和「微信」两款 App 的主页:

腾讯手机管家下载和安装量:

以豌豆荚为例,用 Scrapy 爬取分类多级页面

微信下载和安装量:

以豌豆荚为例,用 Scrapy 爬取分类多级页面

这是什么情况?

腾讯管家 3 亿多的下载量等同于安装量,而微信 20 多亿的下载量,只有区区一千多万的安装量,两组数据对比,大致反映了两个问题:

  • 要么是腾讯管家的下载量实际并没有那么多

  • 要么是微信的下载量写少了

不管是哪个问题,都反映了一个问题: 该网站做得不够走心啊

为了证明这个观点,将前十名的安装量和下载量都作了对比,发现很多 App 的安装量都和下载量是一样的,也就是说: 这些 App 的实际下载量并没有那么多 ,而如果这样的话,那么这份榜单就有很大水分了。

难道,辛辛苦苦爬了那么久,就得到这样的结果?

不死心,接着再看看安装量最少的 App 是什么情况,这里找出了其中最少的 10 款:

以豌豆荚为例,用 Scrapy 爬取分类多级页面

扫了一眼,更加没想到了:

「QQ 音乐」竟然是倒数第一,竟然只有 3 次安装量!

确定这和刚刚上市、市值千亿的 QQ 音乐是同一款产品?

再次核实了一下:

以豌豆荚为例,用 Scrapy 爬取分类多级页面

没有看错,是写着 3人安装

这是已经不走心到什么程度了? 这个安装量,鹅厂还能「用心做好音乐」?

说实话,到这儿已经不想再往下分析下去了,担心爬扒出更多没想到的东西,不过辛苦爬了这么久,还是再往下看看吧。

看了首尾,我们再看看整体,了解一下全部 App 的安装数量分布,这里去除了有很大水分的前十名 App。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

很惊讶地发现,竟然有 多达 67,195 款,占总数的 94% 的 App 的安装量不足 1万!

如果这个网站的所有数据都是真的话,那么上面排名第一的手机管家,它 一款就差不多抵得上这 6 万多款 App 的安装量 了!

对于多数 App 开发者,只能说: 现实很残酷,辛苦开发出来的 App,用户不超过 1万人的可能性高达近 95%

代码实现如下:

def analysis_distribution(data):
    data = data.loc[10:,:]
    data['install_count'] = data['install_count'].apply(lambda x:x/10000)
    bins = [0,1,10,100,1000,10000]
    group_names = ['1万以下','1-10万','10-100万','100-1000万','1000万-1亿']
    cats = pd.cut(data['install_count'],bins,labels=group_names)
    cats = pd.value_counts(cats)
    bar = Bar('App 下载数量分布','高达 94% 的 App 下载量低于1万')
    bar.use_theme('macarons')
    bar.add(
        'App 数量',
        list(cats.index),
        list(cats.values),
        is_label_show = True,
        xaxis_interval = 0,
        is_splitline_show = 0,
        )
    bar.render(path='App下载数量分布.png',pixel_ration=1)

▌分类情况

下面,我们来看看各分类下 App 情况,不再看安装量,而看数量,以排出干扰。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

可以看到 14 个大分类中, 每个分类的 App 数量差距都不大 ,数量最多的「生活休闲」是「摄影图像」的两倍多一点。

接着,我们进一步看看 88 个子分类的 App 数量情况,筛选出数量最多和最少的 10 个子类:

以豌豆荚为例,用 Scrapy 爬取分类多级页面

可以发现两点有意思的现象:

  • 「收音机」类别 App 数量最多,达到 1,300 多款

    这个很意外,当下收音机完全可以说是个老古董了,居然还有那么人去开发。

  • App 子类数量差距较大

    最多的「收音机」是最少的「动态壁纸」近 20 倍,如果我是一个 App 开发者, 那我更愿意去尝试开发些小众类的 App,竞争小一点 ,比如:「背单词」、「小儿百科」这些。

看完了总体和分类情况,突然想到一个问题: 这么多 App,有没有重名的呢?

以豌豆荚为例,用 Scrapy 爬取分类多级页面

惊奇地发现,叫「一键锁屏」的 App 多达 40 款,这个功能 App 很难再想出别的名字了么? 现在很多手机都支持触控锁屏了,比一键锁屏操作更加方便。

接下来,我们简单对比下豌豆荚和酷安两个网站的 App 情况。

▌对比酷安

二者最直观的一个区别是在 App 数量上,豌豆荚拥有绝对的优势,达到了酷安的十倍之多,那么我们自然感兴趣:

豌豆荚是否包括了酷安上所有的 App ?

如果是,「你有的我都有,你没有的我也有」,那么酷安就没什么优势了。统计之后,发现豌豆荚 仅包括了 3,018 款,也就是一半左右 ,剩下的另一半则没有包括。

这里面固然存在两个平台上 App 名称不一致的现象,但更有理由相信 酷安很多小众的精品 App 是独有的,豌豆荚并没有。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

代码实现如下:

include = data3.shape[0]
notinclude = data2.shape[0] - data3.shape[0]
sizes= [include,notinclude]
labels = [u'包含',u'不包含']
explode = [0,0.05]
plt.pie(
    sizes,
    autopct = '%.1f%%',
    labels = labels,
    colors = [colorline,'#7FC161'], # 豌豆荚绿
    shadow = False,
    startangle = 90,
    explode = explode,
    textprops = {'fontsize':14,'color':colors}
)
plt.title('豌豆荚仅包括酷安上一半的 App 数量',color=colorline,fontsize=16)
plt.axis('equal')
plt.axis('off')
plt.tight_layout()
plt.savefig('包含不保包含对比.png',dpi=200)
plt.show()

接下来,我们看看所包含的 App 当中,在两个平台上的下载量是怎么样的:

以豌豆荚为例,用 Scrapy 爬取分类多级页面

可以看到,两个平台上 App 下载数量差距还是很明显。

最后,我面再看看豌豆荚上没有包括哪些APP:

以豌豆荚为例,用 Scrapy 爬取分类多级页面

可以看到很多神器都没有包括,比如:RE、绿色守护、一个木函等等。豌豆荚和酷安的对比就到这里,如果用一句话来总结,我可能会说:

豌豆荚太牛逼了, App 数量是酷安的十倍,所以我选酷安。

以上,就是利用 Scrapy 爬取分类多级页面的抓取和分析的一次实战。

感兴趣的话可以找类似的网站练练手,如需本文的完整代码,可以加入我的知识星球:「 第2脑袋 」获得,里面有很多干货,可以扫描下方二维码预览下,觉得合适就入圈。

以豌豆荚为例,用 Scrapy 爬取分类多级页面

本文完。


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Writing Windows VxDs and Device Drivers, Second Edition

Writing Windows VxDs and Device Drivers, Second Edition

Karen Hazzah / CMP / 1996-01-12 / USD 54.95

Software developer and author Karen Hazzah expands her original treatise on device drivers in the second edition of "Writing Windows VxDs and Device Drivers." The book and companion disk include the a......一起来看看 《Writing Windows VxDs and Device Drivers, Second Edition》 这本书的介绍吧!

RGB转16进制工具
RGB转16进制工具

RGB HEX 互转工具

随机密码生成器
随机密码生成器

多种字符组合密码

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具