内容简介:雷锋网 AI 科技评论按:NVIDIA 迁移学习工具包对于深度学习应用开发人员和数据科学家来说是理想的工具,这些开发人员和数据科学家正在为各种行业垂直领域(如智能视频分析(IVA)和医学成像)寻求更快、更高效的深度学习训练工作流程。许多应用开发者和数据科学家都正在为智能视频分析(IVA)、医疗影像等各种垂直领域寻找更快、更高效的深度学习训练工作流程。NVIDIA 近期就发布了一个迁移学习工具包( NVIDIA Transfer Learning Toolkit),希望可以成为他们的理想工具。雷锋网 AI
雷锋网 AI 科技评论按:NVIDIA 迁移学习 工具 包对于深度学习应用开发人员和数据科学家来说是理想的工具,这些开发人员和数据科学家正在为各种行业垂直领域(如智能视频分析(IVA)和医学成像)寻求更快、更高效的深度学习训练工作流程。
许多应用开发者和数据科学家都正在为智能视频分析(IVA)、医疗影像等各种垂直领域寻找更快、更高效的深度学习训练工作流程。NVIDIA 近期就发布了一个迁移学习工具包( NVIDIA Transfer Learning Toolkit),希望可以成为他们的理想工具。雷锋网 AI 科技评论编译。
迁移学习工具包通过允许开发人员微调 NVIDIA 提供的特定领域的预训练模型来抽象和加速深度学习训练,而不是从头开始花大量时间来从零开始(说明一下,「从零开始」这个词很重要,它是迁移学习最关键的特点)构建深层神经网络。预训练模型加速了开发人员的深度学习训练过程,并且减少了大规模数据收集、标记和从零开始训练模型相关的成本。
「迁移学习」意味着可以从现有神经网络中提取已学习特征,并通过从现有神经网络转移权重来迁移这些已学习特征。NVIDIA 此次发布的迁移学习工具包是一个基于 Python 的工具包,它使开发人员能够利用 NVIDIA 预先训练好的模型,并为开发人员提供技术支持,通过重新训练让模型适应新的网络,来添加他们自己的数据以使神经网络更加智能。工具包具备的简单添加、修剪和重新训练网络的能力,提高了深度学习训练流程的效率和准确性。
主要功能
-
在特定任务上预训练完毕的、经过优化的深度神经网络模型已经打包在内
-
用于计算机视觉相关对象分类、检测场景的示例应用程序
-
在复杂的多 GPU 环境也可以轻松地模型适配和再训练
-
轻松修改配置文件,从添加新的类和特性到压缩模型大小都可以支持
-
为 IVA 应用程序在 NVIDIA DeepStream SDK 3.0 上部署的模型导出 API
-
用于部署在 NVIDIA Clara 平台上的医学成像应用的模型导出 API
让基于深度学习工作流的智能视频分析变得可能
对于设计和集成智能视频分析(IVA)端应用程序(如停车管理、安全基础设施、零售分析、物流管理和访问控制等)的开发人员,NVIDIA 的迁移学习工具包提供了端到端的深度学习工作流,可以加速深度学习训练,并在 TeslaGPU 上使用 DeepStream SDK 3.0 进行部署。这些模型针对 IVA 特定参考使用场景(如检测和分类)进行了全面地训练。
用于 IVA 的迁移学习工具包中已经包括了下面这些预训练的图像分类与目标检测模型:
医学影像的端到端深度学习流程
医学影像的迁移学习工具包提供医学影像特有的预训练模型,以及诸如与 AI 辅助注释 SDK 集成以加速医学图像的标注的额外功能,从而允许开发人员使用 AI 辅助标记功能。NVIDIA 研究人员开发的三维脑肿瘤分割模型赢得了 2018 年多模态脑肿瘤分割挑战赛的第一名。BraTS 专注于评估在多模态 MRI 扫描中用于分割脑肿瘤的最新方法。BraTS 2018 利用多机构术前 MRI 扫描,并着重于对内在异质性(外观、形状和组织学)脑肿瘤的分割。NVIDIA 医学成像迁移学习工具包附带了这个由 NVIDIA 内部研究人员开发的获奖的脑肿瘤分割模型,以及用于肝脏病变分割、脾脏分割等其他预训练模型。NVIDIA 的医学成像端到端深度学习工作流允许开发人员使用迁移学习工具包来加速深度学习训练并使用 Clara 平台进行部署。
雷锋网 (公众号:雷锋网) AI 科技评论编译。
雷锋网版权文章,未经授权禁止转载。详情见 转载须知 。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 微软开源可解释机器学习工具包lnterpretML
- 12种Python 机器学习 & 数据挖掘 工具包
- 将深度学习添加到时间序列工具包的3个理由
- 南京航空航天大学开源ALiPy:用于主动学习的Python工具包
- k8s 机器学习工具包 Kubeflow 发布 1.0 稳定版
- FaceBook 发布深度学习工具包 PyTorch Hub,让论文复现变得更容易
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。