内容简介:举个例子:
举个例子:
(test 0 (p))
,如果 test
的定义是
(define test (x y) (if (= x 0) 0 y) )
p
的定义是 (define p (p))
-
Applicative order执行到test的参数时,会立即对 0和p进行求值。0求值得到0,
p
求值得到p
,p
继续求值得到p
,所以会 陷入无线循环 - Normal order执行到test的参数时,不会立即对参数进行求值,而是把函数进行展开,上面的表达式会被展开成
(if (= 0 0) 0 (p))
然后开始执行, (= 0 0)
为true,直接取值为0。因此不会陷入循环。Normal order会将表达式进行展开,递归的将函数体替换
原表达式中的引用。当到达无法展开时才会开始求值。这种玩法也叫 lazy evaluation,Haskell就是这么玩的。所以如果你看Haskell
相关的书,他们一定会鼓吹说Haskell是惰性求值的,可以避免多余的计算。
以上所述就是小编给大家介绍的《求值策略:Applicative Order vs Normal Order》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 负载均衡策略之轮询策略
- 负载均衡策略之两次随机选择策略
- 深度策略梯度算法是真正的策略梯度算法吗?
- 产品策略模型方法论:谈谈我对产品策略模型的6点理解
- 重学 Java 设计模式:实战策略模式「模拟多种营销类型优惠券,折扣金额计算策略场景」
- redis 数据淘汰策略
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
深入浅出强化学习:原理入门
郭宪、方勇纯 / 电子工业出版社 / 2018-1 / 79
《深入浅出强化学习:原理入门》用通俗易懂的语言深入浅出地介绍了强化学习的基本原理,覆盖了传统的强化学习基本方法和当前炙手可热的深度强化学习方法。开篇从最基本的马尔科夫决策过程入手,将强化学习问题纳入到严谨的数学框架中,接着阐述了解决此类问题最基本的方法——动态规划方法,并从中总结出解决强化学习问题的基本思路:交互迭代策略评估和策略改善。基于这个思路,分别介绍了基于值函数的强化学习方法和基于直接策略......一起来看看 《深入浅出强化学习:原理入门》 这本书的介绍吧!