之前提到过Discount Return:
Action-value Function :
State-value Function:
(这里将action A积分掉)这里如果策略函数很好,就会很大;反之策略函数不好,就会很小。
对于离散类型:
用神经网络近似策略,
即 学习参数,使得越来越大。这里使用梯度上升的方法,对于一个可观测状态s,更新
这里称为策略梯度(Policy Gradient)
之前提到过Discount Return:
Action-value Function :
State-value Function:
(这里将action A积分掉)这里如果策略函数很好,就会很大;反之策略函数不好,就会很小。
对于离散类型:
用神经网络近似策略,
即 学习参数,使得越来越大。这里使用梯度上升的方法,对于一个可观测状态s,更新
这里称为策略梯度(Policy Gradient)
版权声明:
本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。
我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com