深入理解 nvidia-docker2.0

栏目: 服务器 · 发布时间: 7年前

内容简介:NVIDIA于2016年开始设计NVIDIA-Docker已便于容器使用NVIDIA GPUs。 第一代nvidia-docker1.0实现了对基于上面描述的这些弊端,NVIDIA开始了对下一代容器运行时的设计:先简单介绍下

NVIDIA于2016年开始设计NVIDIA-Docker已便于容器使用NVIDIA GPUs。 第一代nvidia-docker1.0实现了对 docker client 的封装,并在容器启动时,将必要的 GPU devicelibraries 挂载到容器中。但是这种设计的方式高度的与 docker 运行时耦合,缺乏灵活性。存在的缺陷具体如下:

  • 设计高度与 docker 耦合,不支持其它的容器运行时。如: LXC, CRI-O及未来可能会增加的容器运行时。
  • 不能更好的利用docker生态的其它工具。如: docker compose。
  • 不能将GPU作为调度系统的一种资源来进行灵活的调度。
  • 完善容器运行时对GPU的支持。如: 自动的获取用户层面的 NVIDIA Driver libraries , NVIDIA kernel modules , device ordering 等。

基于上面描述的这些弊端,NVIDIA开始了对下一代容器运行时的设计: nvidia-docker2.0

nvidia-docker 2.0 的实现机制

先简单介绍下 nvidia-docker 2.0 , nvidia-container-runtime , libnvidia-container 以及 runc 直接的关系。

  • nvidia-docker2.0 是一个简单的包,它主要通过修改docker的配置文件 /etc/docker/daemon.json 来让docker使用 NVIDIA Container runtime
  • nvidia-container-runtime 才是真正的核心部分,它在原有的 docker 容器运行时 runc 的基础上增加一个 prestart hook ,用于调用 libnvidia-container 库。
  • libnvidia-container 提供一个库和一个简单的CLI程序,使用这个库可以使NVIDIA GPU使用 Linux 容器。
  • runc 一个命令行工具,会根据标准格式的 Open Containers Initiative(OCI) 创建容器。也是docker默认的容器运行时。

它们之间的关系可以通过下面这张图关联起来:

深入理解 nvidia-docker2.0

上面已经介绍个各个组件的作用以及它们之间的关系,接下来详细的描述下这张图:

1.正常创建一个容器的流程是这样的:

docker --> dockerd --> docker-containerd-shm -->runc --> container-process

docker客户端将创建容器的请求发送给dockerd, 当dockerd收到请求任务之后将请求发送给 docker-containerd-shm (其实就是containerd)。

前面没有介绍到 containerd 。这里简单的介绍下, containerd ,它主要负责的工作是:

  • 管理容器的生命周期(从容器的创建到销毁)
  • 拉取/推送容器镜像
  • 存储管理(管理镜像及容器数据的存储)
  • 调用runc 运行容器
  • 管理容器的网络接口及网络

containerd的定位是:

containerd 被设计成嵌入到一个大系统中,而不是给开发人员和终端的设备使用。

关于containerd的详细说明,请查看 containerd

当containerd接收到请求之后,做好相关的准备工作,会去调用 runc ,而runc基于OCI文件对容器进行创建。这是容器创建的整体流程。

2.创建一个使用GPU的容器。

创建GPU容器的流程如下:

docker--> dockerd --> docker-containerd-shim-->nvidia-container-runtime -- > container-process

基本流程和普通不使用GPU的容器差不多,只是把docker默认的运行时替换成了NVIDIA自家的 nvidia-container-runtime 。 这样当 nvidia-container-runtime 创建容器时,先执行 nvidia-container-runtime-hook 这个hook去检查容器是否需要使用GPU(通过环境变量NVIDIA_VISIBLE_DEVICES来判断)。如果需要则调用 libnvidia-container 来暴露GPU给容器使用。否则则走默认的runc逻辑。

说到这里 nvidia-docker2.0 的大体机制基本就通了。但是涉及到的 nvidia-container-runtime , libnvidia-container , containerd , runc 这些项目, 这本篇文章里面就不一一介绍了。如果感兴趣可以自行去探索学习。这些地址在文章中都已经做个相关的链接。

参考

https://developer.nvidia.com/nvidia-container-runtime https://devblogs.nvidia.com/gpu-containers-runtime/ https://github.com/opencontainers/runtime-spec/blob/master/config.md https://github.com/opencontainers/runtime-spec https://github.com/NVIDIA/nvidia-container-runtime https://github.com/opencontainers/runc https://github.com/NVIDIA/libnvidia-container https://github.com/NVIDIA/nvidia-docker/issues/815


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Bulletproof Web Design

Bulletproof Web Design

Dan Cederholm / New Riders Press / 28 July, 2005 / $39.99

No matter how visually appealing or packed with content a Web site is, it isn't succeeding if it's not reaching the widest possible audience. Designers who get this guide can be assured their Web site......一起来看看 《Bulletproof Web Design》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

在线进制转换器
在线进制转换器

各进制数互转换器

HEX CMYK 转换工具
HEX CMYK 转换工具

HEX CMYK 互转工具