Google 正式整合 Kubernetes 引擎与 GPU 服务

栏目: IT资讯 · 发布时间: 7年前

内容简介:最近,Google Cloud Services 加强了与深度学习和机器学习应用程序相关的许多功能。 它首先扩展了虚拟主机的硬件规格,并推出了具有大容量内存的 ultramem 规格虚拟机,允许用户执行高性能计算,同时还实现了公共...

最近,Google Cloud Services 加强了与深度学习和机器学习应用程序相关的许多功能。 它首先扩展了虚拟主机的硬件规格,并推出了具有大容量内存的 ultramem 规格虚拟机,允许用户执行高性能计算,同时还实现了公共云平台。 GPU 和 TPU 也将在不久的将来上线。 企业可以以比按需服务更便宜的价格消费 GPU 和 TPU 资源。 这一次,Google 宣布公共云 GPU 服务现已正式与 Kubernetes Engine(GKE)集成。

Google 正式整合 Kubernetes 引擎与 GPU 服务

目前,GCP 的 GPU 硬件共有三种选择,从入门级 K80 的价格到中级  P100和高端 V100,允许用户根据需要进行选择。 对于想要使用新功能的用户,Google 现在还提供 300 美元免费试用版。

在此版本发布之后,公司在 GKE 环境中运行的容器应用程序将能够使用 GPU 服务并执行 CUDA 工作负载。谷歌表示:“您可以利用 GPU 的强大处理能力,同时无需管理虚拟机的工作。”它可以与市场上正式推出的抢先式 GPU 服务一起使用。这将降低机器学习操作的成本。现在这个功能也已经与 Google CloudStack Monitoring Service Stackdriver 集成。用户可以观察 GPU 资源访问的当前频率,GPU 资源的可用性或 GPU 配置。

另外,在 Kubernetes 环境中使用 GPU 服务的公司也可以使用 Google Kubernetes 引擎的一些现有功能。像节点资源池功能一样,现有 Kubernetes 群集上的应用程序可以访问 GPU 资源。当企业应用程序的弹性发生变化时,您可以使用集群扩展功能。系统可以自动扩展内置 GPU 的节点。当基础设施中没有任何 Pod 需要访问 GPU 资源时,系统会自动关闭扩展节点。 GKE 还会确保节点上的 pod 是所有需要访问 GPU 资源的 pod,以避免将不具有 GPU 要求的 pod 部署到这些节点。系统管理员可以使用资源配额功能限制每个用户在多个团队共享大型群集时可以访问的 GPU 资源。

Google 正式整合 Kubernetes 引擎与 GPU 服务

现在这个功能也已经与 Google 的云端监控服务 Stackdriver 集成。 用户可以观察 GPU 资源访问的当前频率,GPU 资源的可用性或 GPU 配置。


【声明】文章转载自:开源中国社区 [http://www.oschina.net]


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

史玉柱自述

史玉柱自述

优米网 / 同心出版社 / 2013-6-1 / 42.00元

史玉柱迄今为止唯一公开著作。 亲口讲述24年创业历程与营销心得。 中国商业思想史里程碑之作! 24年跌宕起伏,功成身退,史玉柱向您娓娓道来,历经时间沉淀的商业智慧和人生感悟。 在书中,史玉柱毫无保留地回顾了创业以来的经历和各阶段的思考。全书没有深奥的理论,铅华洗尽、朴实无华,往往在轻描淡写之间,一语道破营销的本质。 关于产品开发、营销传播、广告投放、团队管理、创业投资......一起来看看 《史玉柱自述》 这本书的介绍吧!

SHA 加密
SHA 加密

SHA 加密工具

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

Markdown 在线编辑器
Markdown 在线编辑器

Markdown 在线编辑器