NLP学习之路:谈谈深度学习中记忆结构是如何设计和使用的?

访客1年前AI生活101
从NLP终生学习开始,谈谈深度学习中记忆结构的设计和使用

终生学习,简单说是让模型有能力持续地学习新的信息,但更重要的是让模型学习新信息的同时还不要完全忘记以往学习过的内容(避免「灾难性遗忘」),是深度学习的长期发展和大规模应用中必不可少的一项模型能力。

近期,「NLP 网红」Sebastian Ruder 小哥把终生学习能力融入了语言模型中,方法是加入一个片段式记忆存储模块。实际上类似的做法也并不是第一次得到应用了,小编一并介绍几篇相关论文。

Episodic Memory in Lifelong Language Learning

终生语言学习中片段式记忆的作用

论文地址:https://arxiv.org/abs/1906.01076

内容简介:首先我们把「终生语言学习」(lifelong language learning)任务定义为:模型需要从连续的文本样本流中学习,其中不会指明数据集的边界。作者们提出了一个用片段式记忆存储结构增强语言模型的方式,模型中的存储可以进行稀疏经验重放,也可以进行局部适应,以减缓这种任务中的灾难性遗忘现象。另外,作者们也表明,这个记忆存储结构的空间复杂度可以进行大幅简化(可以降低 50% 到 90%),只需要随机选择把哪些样本存储在记忆中,这种做法对性能的影响非常小。作者们认为片段式记忆存储部件是通用语言智能模型中不可或缺的重要组件。

通过记忆能力增强模型表现其实并不是新鲜事,「经验重放(experience replay)」的思路最早可以追溯到 1990 年代的强化学习机器人控制论文 《Programming Robots Using Reinforcement Learning and Teaching》(https://www.aaai.org/Papers/AAAI/1991/AAAI91-122.pdf )以及《Self-Improving Reactive Agents Based On Reinforcement Learning, Planning and Teaching》 (http://www.incompleteideas.net/lin-92.pdf ),论文中用教学的方式让机器人学会新的技能,那么记忆能力就与教学过程相配合,记录已经学会的技能。

下面我们再介绍几个新一些的成果

Human Level Control Through Deep Reinforcement Learning

通过深度强化学习实现人类级别的控制

论文地址:https://storage.googleapis.com/deepmind-media/dqn/DQNNaturePaper.pdf

论文亮点:DeepMind 发表在《Nature》的鼎鼎大名的 DQN 论文中也使用了经验重放。在强化学习的设定中,智能体通过与环境交互获得数据(相当于监督学习中的标注数据集),经验重放可以让智能体重放、排练曾经执行过的动作,更高效地使用已经采集到的数据。当然了,DQN 的另一大贡献是学习到原始输入的高维表征,不再需要人工的特征工程。

Memory-Augmented Monte Carlo Tree Search

记忆增强的蒙特卡洛树搜索

论文地址:https://webdocs.cs.ualberta.ca/~mmueller/ps/2018/Chenjun-Xiao-M-MCTS-aaai18-final.pdf

AAAI 2018 杰出论文

论文简介:这篇论文把一个记忆结构和蒙特卡洛树搜索结合起来,为在线实时搜索提出了一种新的利用泛化性的方式。记忆结构中的每个存储位置都可以包含某个特定状态的信息。通过综合类似的状态的估计结果,这些记忆可以生成逼近的估计值。作者们展示了,在随机情况下,基于记忆的逼近值有更高可能性比原始的蒙特卡洛树搜索表现更好。

经验重放还有一些高级改进

Prioritized Experience Replay

优先经验重放

论文地址:https://arxiv.org/abs/1511.05952

论文亮点:这篇论文的作者们提出,在之前的研究中,智能体学习到的经验是均匀地从重放记忆中采样的。而既然记忆的存储来自于智能体实际的探索活动,这就意味着智能体进行活动、获得记忆的分布和从记忆中采样、利用记忆的分布是一样的。作者们认为,智能体获得的记忆中肯定有一些是重要的、有一些是不那么重要的,我们应当更多地利用比较重要的记忆,这样可以用同样多的记忆提高智能体的表现。这篇论文中作者们就设计了一个为记忆的优先程度排序的框架,更多地重放重要的记忆,以便更快地学习。作者们在 DQN 上做了这个实验,改进后的 DQN 比原来的(均一记忆)的 DQN 在绝大多数游戏中都取得了更好的表现。

Hindsight Experience Replay

后见经验重放

论文地址:https://arxiv.org/abs/1707.01495

论文亮点:假想要让机械臂执行一个用末端在桌面上推方块到指定地点的任务。对于强化学习模型来说,初次尝试基本是注定失败的;如果不是特别的幸运,接下来的几次尝试也同样会失败。典型的强化学习算法是无法从这些失败经验中学习的,因为它们一直接收到固定的失败(-1)反馈,也就不含有任何可以指导学习的信号。

人类在执行任务的时候其实有一个直觉的感受是:即便我没有达成原来那个给定的目标,我起码还是完成了另外一个目标的。HER 的核心思想就是把这一人类直觉公式化。在这里,HER 会把实际达到的目标暂且看成要达到的目标;进行这个替换以后,算法认为自己毕竟达到了某个目标,从而可以得到一个学习信号进行学习,即便达到的目标并不是最开始任务要求的那个目标。如果持续进行这个过程,最终算法可以学会达成任意一个目标,其中也自然就包括了我们最开始要求的目标。

依靠这样的办法,即便最开始的时候机械臂根本就碰不到圆盘、以及反馈是稀疏的,最终它也学会了如何把圆盘拨到桌子上的指定位置。这个算法之所以称为 Hindsight Experience Replay 后见经验重放,就是因为它是在完成了一次动作之后再选定目标、重放经验进行学习。也所以,HER 可以和任何策略无关的强化学习算法结合起来使用,比如 DDPG+HER。

这 7 篇论文打包下载:https://www.yanxishe.com/resourceDetail/1005

本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:362580117!

相关文章

又一重大里程碑!文远知行获准在京开展Robotaxi纯无人示范应用

又一重大里程碑!文远知行获准在京开展Robotaxi纯无人示范应用

2023年6月30日,文远知行正式取得北京市高级别自动驾驶示范区(以下简称:示范区)“无人化车外远程阶段”示范应用许可,旗下自动驾驶出租车(R...

对话港科大郭毅可:一个会「提问」的机器,远比复刻 ChatGPT 更重要

对话港科大郭毅可:一个会「提问」的机器,远比复刻 ChatGPT 更重要

今年 4 月,位于香港清水湾、香港科技大学的一个小型会议室内,汇集了十几位顶尖的科学家,有以郭毅可为代表的香港本地高校教授,以及专门从北京飞...

什么重磅新品,值得宁德时代史上第一场线下发布会?

什么重磅新品,值得宁德时代史上第一场线下发布会?

 车圈将有大事发生,有图为证。 日前胡侃汽车收到宁德时代首个线下发布会邀请函,据悉数百家媒体、嘉宾将齐聚一堂。一向低调的宁德时代破天荒要做...

新国标发布在即,自行科技获3家主机厂CMS 定点

新国标发布在即,自行科技获3家主机厂CMS 定点

2023年7月1日,国家标准《机动车辆间接视野装置性能和安装要求》(GB15084-2022)将正式实施。新国标明确表示,电子外后视镜不但可以...

AIGC 席卷 AI 顶会:ICLR 2023 论文得分出炉,扩散模型研究暴增

AIGC 席卷 AI 顶会:ICLR 2023 论文得分出炉,扩散模型研究暴增

11 月 5 日,人工智能顶级会议 ICLR 2023 的评审结果正式发布。 除了讨论提交论文的分数、录用可能性、如何 rebuttal 之外...

敦煌研究院与腾讯成立技术实验室,首次建造全真数字藏经洞

敦煌研究院与腾讯成立技术实验室,首次建造全真数字藏经洞

6月15日,由敦煌研究院和腾讯联手打造的“腾讯互娱x数字敦煌文化遗产数字创意技术联合实验室”(以下简称“技术实验室”)正式宣布成立。发布会上,...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。