6月16- 20日 ,全球HPC领域的“年中盛宴”——国际超算大会(ISC2019)在德国法兰克福 举行 。 浪潮 超大规模 数据中心级 分布式存储平台AS13000 G5 首次 出海 。 在人工智能与超算加速融合趋势下,浪潮 存储 面 向3500多位 专业人士, 提供了分布式存储 在 智慧勘探、智慧医疗、智慧交通 等 领域 的场景化方案 ,给出了 新 存储平台“应有的样子” 。
浪潮 存储 在 ISC 20 19展示 超大规模数据中心级分布式存储平台 A S13000G5
AI与HPC融合 需要海量数据的“喂养”
本届大会主题为“HPC推动创新”(HPC is Fueling Innovation), 而 伴随着人工智能的普及与 行业新应用的数据汇集,越来越多的超算平台与人工智能进行了 深度 融合。
在 HPC传统的 “地盘”里 , HPC与AI 的融合 在能源、生物、气象等超算传统强势领 域深度推进 。 举个例子, 过去 在石油勘探领域, 通过地震波法采集并存储的PB级物探数据,通过4000个CPU的计算集群、GB级带宽的存储集群处理需要50多天时间,方能将勘探数据转换成直观的可视画面 ,现在,通过人工智能技术 与计算、存储平台的融合 ,可以缩短地震资料的处理周期,一两个星期甚至几天时间就可以 搞清勘测区域的石油岩气储量 ,勘探精确度、效率均大幅提升 。
不仅如此, 基于海量新数据,插上AI翅膀的超算平台 实现了从“阳春白雪”的科研向充满烟火气儿的衣食住行 等新领域 延展。 从路人皆可体验的 AI换 脸、美颜 、AI试衣间 , 到行业专业人士口中的AI风投、秒贷、量化交易 , 其IT基础设施平台里 都可 看到AI与超算融合的身影。
人工智能、超算的技术融合,给产业升级带来了巨大价值。 然而这一过程中,产生了 由大量视频、图片 、电子文档构成的海量非结构化大数据,以及来自数据挖掘、智能分析、交易、决策等应用过程中提取的海量小数据,给数据存储平台带来了挑战。
一套存储平台 承载 A I & HPC 新 数据
人工智能和超算的产业化应用中 , 存储平台需要具备EB级的容量,装得下海量且快速增长的数据;还需要具备极致的性能,满足 几十亿甚至上百亿 小数据的AI分析需求,每秒实现 几千万次 甚至亿级读写操作 。 对于 IT基础设施来说,需要不断改进产品特性或开发新的功能特性来匹配用户场景的变化,满足人们对数据使用及其价值释放的期待。
基于此, 浪潮存储提出了“云存智用 运筹新数据”的存储新理念, 并 认为,存储平台只有先实现了“灵活适配并满足云环境需求”、“支持并面向智能应用发展”以及获得“共享、管理及挖掘数据价值”的能力,才能支持并促进用户在新数据时代实现更多商业价值。
浪潮超大规模 数据中心级 分布式存储平台 AS13000G5
AS130000G5是浪潮存储推出的一款面向超大数据中心级打造的分布式存储平台, 以 “5+ X”架构 承载数据中心多样化应用,满足多种数据存储需求,最大化挖掘、共享和管理数据,实现数据价值最大化。
与 上一代存储产品AS13000 相比 ,AS13000G5在小文件读写性能、空间利用率、文件支持数量、智能运维预测等方面 实现 了全面的 指标提升。 同时浪潮 存储 AS 13000G5支持 2U12、2U25、4U36、4U72、整机柜等硬件平台,可满足数据在不同阶段对性能的需求,实现数据的全生命化管理。 此外,AS13000G5拥有低中高端多种机型,所有机型均适配Intel最新的Purley平台,兼容Cascade L ake新一代CPU ,可满足 人工智能与超算融合的新应用 在不同 场景的 数据 需求。
ISC 20 19 参会者在现场体验浪潮存储 展机
日前 , ID C 公布的 2019年第一季度全球企业存储系统市场追踪报告 显示, 在全球存储系统市场总 销售额 微弱下滑 0.6% 的情况下,浪潮存储在本季度销售额为2.5亿美元,同比增长5.9%,与IBM、华为等厂商并列全球第五。
未来,浪潮存储将持续加大研发投入,引领新存储 变革,以技术和商业之间的紧耦合,激发数据的最大价值, 决胜“新数据时代”。
【本文版权归存储在线所有,未经许可不得转载。文章仅代表作者看法,如有不同观点,欢迎添加存储在线微信公众号(微信号:doitmedia)进行交流。】
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 如何构建系统优化成本,携程出海云原生实践
- 中小游戏开发者出海:如何做好免费游戏变现?
- 被谷歌剪掉命根子的出海应用,没几个冤枉的
- 中国AI商用竞争日益激烈,技术出海会是一个新方向么?
- 北信源拉手鼎桥通信,移动终端安全技术出海或将加速
- React 出海应用 首屏加载时间从20S降到10S以下 血泪史
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。