内容简介:Paddle 0.13.0 已发布,PaddlePaddle (PArallel Distributed Deep LEarning 并行分布式深度学习)是百度研发的深度学习平台,具有易用,高效,灵活和可伸缩等特点,为百度内部多项产品提供深度学习算法支持。 支持...
Paddle 0.13.0 已发布,PaddlePaddle (PArallel Distributed Deep LEarning 并行分布式深度学习)是百度研发的深度学习平台,具有易用,高效,灵活和可伸缩等特点,为百度内部多项产品提供深度学习算法支持。
支持的特性
- 易用性:为用户提供了直观且灵活的数据接口和模型定义接口
- 灵活性:PaddlePaddle支持多种神经网络结构和优化算法。简单书写配置文件即可实现复杂模型,如带注意力机制或复杂记忆连接的神经机器翻译模型
- 高效性:为充分发挥多种计算资源的效力,PaddlePaddle在计算、存储、架构、通信等多方面都做了细致优化,性能优异
- 可伸缩性:PaddlePaddle全面支持多核、多GPU、多机环境,优化的通信实现使高吞吐与高性能成为可能,轻松应对大规模数据训练需求
本次更新的内容包括:添加新特性、提升性能以及修复 bug。
主要特性
支持异步分布式训练
使用 ParallelExecutor 进行分布式训练
使用 NCCL2 进行分布式环型培训
支持将 checkpoint 保存在训练器以及存储在训练器和参数服务器上
参数服务器的优雅关闭
发布高级的 inference lib API 和 inference 实现
为每个操作分配角色
发布 C++ 训练 API 以允许将流体嵌入到其他 C++ 系统中
支持 uint8_t 类型的数据文件和数据交换
C++ 阅读器支持定制数据的增长
改进了语音模型的操作器和界面支持
新的 random_crop op
新的 shape op以获取张量(tensor)的形状
新的 resize_bilinear interface.
新的 dice_loss layer.
增强 reduce_op 以支持在多维度上的削减
性能提升
在 P40 GPU ResNet-50 模型上,单个 GPU 速度提升了 23.8% (105 images/sec to 130 images/sec)。8 个 GPU 的加速比达到 6,32 个 GPU 的加速比达到 17.4。
Overlap send/recv op with other operators.
Multi-thread server-side request handling.
Weight decay and clipping moved from trainer to parameter server for performance and correctness.
Improved C++ reader.
主要的 bug 修复
Fix accuracy loss when both ParallelExecutor and memory optimizer are used.
Fix ParallelExecutor hang when multiple inputs duplicate.
Fix Program clone cause memory leak.
Fix GRU unit bias ineffective and wrong activation.
Fix ROI Pooling GPU computation issues.
Fix fill_constant_batch_size_like when input is sequence.
Fix reshape op.
下载地址
【声明】文章转载自:开源中国社区 [http://www.oschina.net]
以上所述就是小编给大家介绍的《Paddle 0.13.0 发布,百度开源的深度学习平台》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 开源 | 深度有趣 - 人工智能实战项目合集
- Facebook开源深度学习推荐模型DLRM
- Uber 开源深度学习分布训练库 Petastorm
- 谷歌开源强化学习深度规划网络 PlaNet
- 阿里开源深度神经网络推理引擎 MNN
- 小米崔宝秋:小米 AIoT 深度拥抱开源
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。