发表时间:2022(ICLR2022)
文章要点:这篇文章基于muzero来度量model-based agent的泛化能力。主要研究了三个因素:planning, self-supervised representation learning, and procedural data diversity。Planning就是指MCTS,self-supervised representation learning就是指learned model,procedural data diversity就是指我的训练集有多少个MDP,相当于我在多少个环境或者任务上训练的,多就说明procedural data diversity大,这样泛化就会相对容易。
然后主要考虑两种泛化性:procedural and task。Procedural generalization指的是reward function不变,但是观测发生改变,比如显示方式、地图地形、目标位置等等。Task generalization就是说环境是一样的,但是reward function(task)发生改变。得出了结论是,muzero在这两种泛化性问题上总体来说表现都很好。Planning对泛化性很重要,主要来源于动作选择和策略优化(while simply learning a value-equivalent model can bring representational benefits, the best results come from also using this model for action selection and/or policy optimization)。self-supervised representation learning对于performance和data efficiency很有帮助,对数据多样性的要求也变低了,这得益于学到了一个更准确的world model,对细节的学习更精确(the primary benefit brought by self-supervision is in learning a more accurate world model and capturing more fine-grained details such as the position of the characters and enemies.),学到的表征更稳健(self-supervision leads to more robust representations)。但是在ML-45这个任务上,发现效果不行,得出的结论是对于不同的泛化问题需要不同的方法。
总结:问题挺好的,但是单单从performance来说泛化性好坏,以及解释原因,总觉得有点站不住脚。就是这之间好像没有必然的因果关系,内部原理还是不清楚。
疑问:无。

原文地址:http://www.cnblogs.com/initial-h/p/16924749.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性