如何给你PyTorch里的Dataloader打鸡血

栏目: Python · 发布时间: 5年前

内容简介:同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流

加入极市 专业CV交流群,与 6000+来自腾讯,华为,百度,北大,清华,中科院 等名企名校视觉开发者互动交流!更有机会与 李开复老师 等大牛群内互动!

同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流 点击文末“ 阅读原文 ”立刻申请入群~

作者 | MKFMIKU

来源 | https://zhuanlan.zhihu.com/p/66145913  

已获作者授权,请勿二次转载

在利用DL解决图像问题时,影响训练效率最大的有时候是GPU,有时候也可能是CPU和你的磁盘。

很多设计不当的任务,在训练神经网络的时候,大部分时间都是在从磁盘中读取数据,而不是做 Backpropagation 。这种症状的体现是使用 Nividia-smi 查看 GPU 使用率时,Memory-Usage 占用率很高,但是 GPU-Util 时常为 0% ,如下图所示:

如何给你PyTorch里的Dataloader打鸡血

如何解决这种问题呢?在 Nvidia 提出的分布式框架 Apex 里面,我们在源码里面找到了一个简单的解决方案:

https://github.com/NVIDIA/apex/blob/f5cd5ae937f168c763985f627bbf850648ea5f3f/examples/imagenet/main_amp.py#L256


  

class data_prefetcher():

def __init__(self, loader):

self.loader = iter(loader)

self.stream = torch.cuda.Stream()

self.mean = torch.tensor([0.485 * 255, 0.456 * 255, 0.406 * 255]).cuda().view(1,3,1,1)

self.std = torch.tensor([0.229 * 255, 0.224 * 255, 0.225 * 255]).cuda().view(1,3,1,1)

# With Amp, it isn't necessary to manually convert data to half.

# if args.fp16:

# self.mean = self.mean.half()

# self.std = self.std.half()

self.preload()


def preload(self):

try:

self.next_input, self.next_target = next(self.loader)

except StopIteration:

self.next_input = None

self.next_target = None

return

with torch.cuda.stream(self.stream):

self.next_input = self.next_input.cuda(non_blocking=True)

self.next_target = self.next_target.cuda(non_blocking=True)

# With Amp, it isn't necessary to manually convert data to half.

# if args.fp16:

# self.next_input = self.next_input.half()

# else:

self.next_input = self.next_input.float()

self.next_input = self.next_input.sub_(self.mean).div_(self.std)

我们能看到 Nvidia 是在读取每次数据返回给网络的时候,预读取下一次迭代需要的数据,那么对我们自己的训练代码只需要做下面的改造:


  

training_data_loader = DataLoader(

dataset=train_dataset,

num_workers=opts.threads,

batch_size=opts.batchSize,

pin_memory=True,

shuffle=True,

)

for iteration, batch in enumerate(training_data_loader, 1):

# 训练代码


#-------------升级后---------


data, label = prefetcher.next()

iteration = 0

while data is not None:

iteration += 1

# 训练代码

data, label = prefetcher.next()

这样子我们的 Dataloader 就像打了鸡血一样提高了效率很多,如下图:

如何给你PyTorch里的Dataloader打鸡血

当然,最好的解决方案还是从硬件上,把读取速度慢的机械硬盘换成 NVME 固态吧~

补充几个原帖评论区的优质解释:

雨宫夏一

1.把内存变成硬盘,把需要读的数据塞到里面去,这样加快了io。代码实例:mount -t tmpfs -o size=xxG tmpfs /your_path

2.上NVIDIA的dali模块,这样把一些预处理放到GPU上,加速一大波。

某一个吃货

原理: https://github.com/NVIDIA/apex/issues/304#issuecomment-493562789

也欢迎各位留言评论一起交流~

*延伸阅读

点击左下角 阅读原文 ”, 即可申请加入极市 目标跟踪、目标检测、工业检测、人脸方向、视觉竞赛等技术交流群, 更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流, 一起来让思想之光照的更远吧~

如何给你PyTorch里的Dataloader打鸡血

觉得有用麻烦给个好看啦~    如何给你PyTorch里的Dataloader打鸡血


以上所述就是小编给大家介绍的《如何给你PyTorch里的Dataloader打鸡血》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Facebook效应

Facebook效应

[美] 大卫·柯克帕特里克 / 沈路、梁军、崔筝 / 华文出版社 / 2010-10 / 49.80

本书作者近距离地采访了与Facebook相关的人士,其中包括Facebook的创始人、员工、投资人、意向投资人以及合作伙伴,加起来超过了130人。这是真切详实的访谈,更是超级精彩的故事。作者以其细腻的笔触,精巧的叙事结构,解密了Facebook如何从哈佛的宿舍里萌发,创始人的内讧,权力之争,如何放弃华盛顿邮报的投资,怎样争取到第一个广告客户,而第一轮融资又如何获得一亿美元的估值,让人痴迷的图片产品......一起来看看 《Facebook效应》 这本书的介绍吧!

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

UNIX 时间戳转换
UNIX 时间戳转换

UNIX 时间戳转换

HEX HSV 转换工具
HEX HSV 转换工具

HEX HSV 互换工具