来自2019 TensorFlow开发者峰会的热门公告

栏目: 数据库 · 发布时间: 5年前

内容简介:为期两天的在一篇

为期两天的 2019年TensorFlow开发者峰会 刚刚结束,对TensorFlow生态系统进行了重大更新。主要公告包括发布最令人垂涎​​的TensorFlow 2.0的第一个alpha版本。还宣布了TensorFlow Lite 1.0、TensorFlow Federated、TensorFlow Privacy等。 

来自2019 TensorFlow开发者峰会的热门公告

TensorFlow Federated

在一篇 medium博客 中,Alex Ingerman(产品经理)和Krzys Ostrowski(研究科学家)在第一天就介绍了TensorFlow Federated框架。这个开源框架对于在分散数据上进行机器学习和其他计算非常有用。

顾名思义,这个框架使用了 Federated Learning ,这是谷歌在2017年引入的一种学习方法。这种技术使ML模型能够协作地学习共享的预测模型,同时将所有训练数据保存在设备上。因此,机器学习不再需要将数据存储在云中。

作者指出,TFF是基于他们在谷歌开发联合学习技术的经验。TFF使用Federated Learning API来表示ML模型体系结构,然后跨多个开发人员提供的数据对其进行培训,同时保持每个开发人员的数据是独立的和本地的。它还使用Federated核心(FC) API,这是一组较低层的原语,支持在分散的数据集中表达广泛的计算范围。

作者总结道:“有了TFF,我们很高兴能将一个灵活、开放的框架放在所有TensorFlow用户手中,用于本地模拟分散计算。你可以在浏览器中试用TFF,只需点击几下,就可以浏览教程。”

TensorFlow 2.0.0 - alpha0

本次峰会还发布了TensorFlow 2.0框架的第一个alpha版本,该版本的API更少。去年8月 谷歌工程师Martin Wicke 首次推出TensorFlow 2.0这款应用,预计将推出以下功能:

  • 使用Keras和热切的执行轻松建模。
  • 在任何平台上进行生产中的强大模型部署。
  • 强大的研究实验。
  • 通过减少重复删除已弃用的端点来简化API。
  • 第一个预告片,TensorFlow 2.0.0-alpha0版本附带以下更改:
  • API清理包括删除tf.app,tf.flags和tf.logging以支持absl-py。
  • 没有更多的全局变量使用辅助方法,如tf.global_variables_initializer 和 tf.get_global_step。
  • 函数,而不是会话(tf.Session 和 session.run -> tf.function)。
  • 在TensorFlow 2.0中添加了对TensorFlow Lite的支持。
  • tf.contrib已被弃用,功能已迁移到核心TensorFlow API,tensorflow / addons或完全删除。
  • RNN和优化器的检查点断裂。

还对Keras和Python API以及tf.estimator进行了一些小错误修复。

阅读更改日志中的错误修复的 完整列表

TensorFlow Lite 1.0

TF-Lite框架基本上旨在帮助开发人员在移动和物联网设备上部署机器学习和人工智能模型。 Lite于2017年5月在I/O开发者大会上首次推出,并于当年晚些时候在开发人员预览中推出。在TensorFlow 开发者峰会上,该团队宣布了该框架的新版本TensorFlow Lite 1.0。根据VentureBeat的一篇文章,改进包括在训练期间和之后选择性注册和量化更快,更小的模型。 TF-Lite 1.0背后的团队表示,量化帮助他们实现了一些模型压缩的4倍。

TensorFlow Privacy

在TensorFlow开发峰会上发布的另一个有趣的库是 TensorFlow Privacy 。这个基于 Python 的开源库帮助开发人员培训他们的机器学习模型,提供强大的隐私保障。为实现这一目标,它从差异隐私原则中汲取灵感。这种技术提供了强大的数学保证,模型在训练用户数据时不会学习或记住任何特定用户的详细信息。

TensorFlow Privacy包括用于训练具有差异隐私的机器学习模型的TensorFlow优化器的实现。有关更多信息,您可以通过技术白皮书更详细地描述其隐私机制。

创作者还注意到“使用TensorFlow Privacy时,不需要隐私专业知识或其基础数学。那些使用标准TensorFlow机制的人不应该改变他们的模型架构,培训程序或流程。“

TensorFlow Replicator

TF Replicator 也在TensorFlow Dev Summit上发布,是一个软件库,可以帮助研究人员在GPU和云TPU上部署他们的TensorFlow模型。为此,创建者确保开发人员只需要很少的工作量,并且不需要具有分布式系统的先前经验。

对于多GPU计算,TF-Replicator依赖于“in-graph replication”模式,其中每个设备的计算在同一TensorFlow图内复制。

当TF-Replicator构建图内复制计算时,它首先独立地为每个设备构建计算,并留下占位符,其中用户指定了跨设备计算。一旦构建了所有设备的子图,TF-Replicator就会通过用实际的跨设备计算替换占位符来连接它们。

有关更全面的描述,您可以阅读 研究论文

这些是在TensorFlow Dev Summit 2019上做出的最重要的公告。您可以浏览此 YouTube播放列表 上的公告和教程的主题演讲和其他视频。

Linux公社的RSS地址https://www.linuxidc.com/rssFeed.aspx

本文永久更新链接地址: https://www.linuxidc.com/Linux/2019-03/157380.htm


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

硅谷创投课

硅谷创投课

[美]加里·维纳查克 / 林怡 / 北京联合出版社 / 2017-6 / 52

☆通用电气前CEO杰克·韦尔奇力荐,影响500强企业CMO的美国互联网意见领袖全新力作! ☆《纽约时报》榜单全新畅销书,把握来自硅谷的互联网风口浪潮! ☆70后创投鬼才,影响美国00后一代商业观的网络红人、科技公司天使投资人面对面解答你创投、管理、运营中的 一切困惑! ☆来自无数实战的真实商业意见!年轻人为什么买你的账?投资人凭什么会把钱交给你?企业家更应该做的事到底是什么?告诉......一起来看看 《硅谷创投课》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

随机密码生成器
随机密码生成器

多种字符组合密码

URL 编码/解码
URL 编码/解码

URL 编码/解码