内容简介:昨天,randolf-scholz 开了一个 issue 讨论这个 bug。issue 页面:https://github.com/tensorflow/tensorflow/issues/25175具体描述如下:
昨天,randolf-scholz 开了一个 issue 讨论这个 bug。
issue 页面:https://github.com/tensorflow/tensorflow/issues/25175
具体描述如下:
系统信息
-
并未写自定义代码;
-
OS 平台和分布:Ubuntu 18.10;
-
TensorFlow安装源:conda 默认渠道
-
TensorFlow版本:1.12(conda 版本 mkl_py36h69b6ba0_0)
-
Python 版本:3.6.8
当前行为
Dropout层的行为是测试模式。
期望行为
Dropout层在训练和测试模式之间转换。
复现该 issue 的教程代码:https://www.tensorflow.org/tutorials/
import tensorflow as tf mnist = tf.keras.datasets.mnist (x_train, y_train),(x_test, y_test) = mnist.load_data() x_train, x_test = x_train / 255.0, x_test / 255.0 model = tf.keras.models.Sequential([ tf.keras.layers.Flatten(), tf.keras.layers.Dense(512, activation=tf.nn.relu), tf.keras.layers.<mark data-type="technologies" data-id="1c91194a-1732-4fb3-90c9-e0135c69027e">Dropout</mark>(0.2), tf.keras.layers.Dense(10, activation=tf.nn.softmax) ]) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) model.fit(x_train, y_train, epochs=5) model.evaluate(x_test, y_test)
将 droprate 设置为 0.999 和设置为 0.2 的性能一样(准确率都超过 95%)。这不可能,这意味着Dropout层内的训练/测试转换受到损坏,Dropout层总是返回 inputs,即使是在训练阶段也是这样。
在TensorFlow1.10 中,教程脚本在 droprate 为 99.9% 时,给出了「正确的」结果——大约 11% 的准确率。
其他信息/日志
问题根源似乎是 tensorflow.keras.backend.learning_phase,或者 model.fit 没有正确设置训练 flag。
该用户还表示:问题似乎出现 tf.keras,而不是单独的 keras 包。这个 issue 似乎还影响了 keras.backend.in_train_phase 功能。ta 在以下文件中进行了测试:
-
https://pastebin.com/SvTwrSC8
-
https://pastebin.com/VtBwL5mz
在该 issue 页面上,其他用户也进行了测试。
有用户表示,在TensorFlow1.13.0 版本上进行测试时,没有出现问题。
而 Keras 作者 François Chollet 表示:
我对该 issue 和脚本进行了详细调查,确认这种错误行为仅出现在TensorFlow1.11 和 1.12 版本中。
这种行为与Dropout层或 in_train_phase 后端性能无关。Dropout层没有问题。
当用户在「deferred mode」中使用 Sequential 模型时,这个 bug 才会出现。deferred mode 是最近引入的使用 Sequential 模型的新方式,无需输入 input_shape参数作为第一层。在这个案例中,似乎学习阶段值设置有误。
我认为这不会影响到很多用户,因为 deferred mode 还很新,并未得到广泛使用,几乎没有什么 Keras 样例使用它(keras.io 上也没有使用过它)。但是很不幸,tensorflow.org 上的一些教程开始使用它。
我正在联系 devrel,确保更新代码示例,在 Sequential 模型中添加 input_shape参数(这种方法更好,它允许静态层兼容性检查)。
你可以在第一个 flatten 层中输入 input_shape=(28, 28) 来修复这个 bug。
不久前这个 bug 已在 TF 端修复。
TensorFlow是机器学习领域最广泛使用的框架,此 bug 一出现就引起了大量用户的关注和讨论。吐槽声甚重……
网友RedEyed__:想弃坑了
他们怎么能这样……这可是最常用的层。我也遇到了这个问题。这类问题的存在让我想转投 PyTorch。
网友 duckbill_principate:开发者根本不关心用户体验
把所有方法硬塞进 Keras 的想法真的很糟糕,尤其是 eager 模式。Keras 的设计对于标准模型来说还挺好用,但对以研究为导向的模型非常不友好(研究者不应该是 eager 模式的主要受益者吗?)eager 听起来不错,但你用得越多,发现的 bug 就越多:实现异常缓慢而且会出现 bug,或者干脆遗失非常重要的 ops。
我已经愉快地使用TensorFlow两年半了,但设计的改变、蹩脚的 eager 实现、bug 的增多都让我觉得非常不爽。我觉得开发者似乎没有多少紧迫感,也没有多关心用户体验,而是更多地追求自己的目标(这从来都不是一个好现象)。
我不想放弃 TF,因为它大部分还是好的,但我最终还是转向了 PyTorch(原因如上所述,而且我也失去了对 TF 开发者的信任)。对此,我从未后悔过。
PS:为什么两年之后 Tensorboard 的 UI 还是那么烂?调试、可视化和理解神经网络可以说是深度学习中最困难的部分,而在这方面能够提供帮助的主要 工具 在两年内几乎没有任何改进?!?!?!谷歌到底在干嘛?
PPS:数据 pipeline 为什么也还是那么烂?有时候读一些文档就像拔牙一样。
谷歌大脑回应:尝试给 1.11 和 1.12 加补丁
感谢您引起我们的注意并创建了这个 bug 讨论。我们保证会在 1.13 中修复这个 bug,同时看看能否给 1.11 和 1.12 加补丁。
尽管谷歌大脑官方已经作出了回应,但这一 bug 仍然破坏了用户对TensorFlow开发进程的信心。
网友 duckbill_principate :开发进程缓慢是可预见的
说真的,我不指望到今年年底能用上TensorFlow2.x。如果我要开始一个大型研究或工程项目,我会在 1.12 或 1.3、1.4 上进行标准化,直到尘埃落定。以他们的速度,在正式启用之前,肯定还要花好几个月的时间修复 bug 并提速。令人沮丧的是,近一年来他们就像一列失事的火车缓慢前进。
感觉 TF 的团队好像分成了三部分(三路人分别忙着开发 2.0、改变 eager 及重构keras),因此可以预见,整个开发进程都会慢很多。按照经验来看,在做其它事情之前,最好先挑一件事做好……我不明白他们为什么要同时做三件事,也许是怕 PyTorch 抢了自己饭碗吧。
参考链接:
https://github.com/tensorflow/tensorflow/issues/25175
https://www.reddit.com/r/MachineLearning/comments/ajqmq9/d_tfkeras_dropout_layer_is_broken/
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Intel汇编语言程序设计
Kip Irvine / 电子工业出版社 / 2007-9-1 / 61.00元
《国外计算机科学教材系列•Intel汇编语言程序设计(第5版)》全面细致地讲述了汇编语言程序设计的各个方面。从微处理器体系结构、工作机制到指令集;从最基本的编译器链器的使用到高级过程、结构和宏的使用;从用纯汇编编写程序到用C/C++等最新编译器与汇编的混合接口编程;从16位实模式下BIOS、DOS实模式文本及图形程序设计到32位保护模式的Windows程序设计;从磁盘基础知识到Intel指令编码、......一起来看看 《Intel汇编语言程序设计》 这本书的介绍吧!