本篇文章2574字,读完约6分钟
很多人在上学的时候都有这样的经历,但是经过寒假的返校,我发现上学期学的文案被遗忘了。 人工智能pk在看到人类屡屡胜利后,有些人羡慕ai强大的学习能力,但实际上人工智能的“记忆力”并不像你想象的那么好。 如果像人工智能系统一样学习,很可能在学习新的知识,大脑会忘记以前的拷贝。 理由是人工智能遭遇了“灾难性的遗忘”。
最近,来自谷歌大脑的最新研究表明,通过拱廊学习环境的多个子任务组成的单任务场景也存在“灾难性遗忘”。 特别是在“蒙特兹马复仇”这样的探索型游戏中,场景变化很大,学习了当前的游戏场景后,有时会忘记前面的游戏场景的知识。
那么人工智能为什么会产生“毁灭性遗忘”呢? 现在处理“毁灭性遗忘”的方案有哪些? 难点在哪里? 对此,科技日报记者采访了相关专家。
深入学习会降低效率
阿尔法围棋( alphago )相继战胜多个围棋冠军以来,深度学习成为众多实现人工智能方法中最璀璨的“明星”,也是各大研发机构角逐的主战场。 谷歌大脑团队此次面临的“灾难性遗忘”是人工智能深度学习中面临的普遍而严重的问题。
“灾难性遗忘”是指类似于深度学习模式的人工智能系统,在学习新任务或适应新环境时,会忘记或失去以前学习的能力。 ”。 腾讯人工智能实验室副主任俞栋在接受科技日报记者采访时表示,“灾难性遗忘”将大幅降低人工智能系统在传统任务或环境中的性能。
美柏科新闻中心社长魏朝东表示,在深度神经网络上学习不同任务时,相关权重的快速变化会损害以前任务的表现。 一般来说,如果在学习中像猴子一样煮熟或者丢了一个,记住新的知识,就有可能忘记旧的知识。
因此,“毁灭性遗忘”的存在在一定程度上限制了人工智能在一点场景中的应用。
福州大学数学计算机科学学院、福建省自媒体领域技术开发基地副主任柯逍遥博士表示,如ai图像识别系统等,需要添加新类别的物体时,必须重新学习原所有物体。 例如,在文物鉴定系统中,当有一天在原始数据中发现文物王朝是错误的时,就不能单独编辑和学习这个错误的文物。 如果让ai系统学英语再学德语的话,可能会把原来的英语语法全部忘记。
谷歌大脑的最新研究表明,“毁灭性遗忘”又带来了那些影响? 其中有什么新发现吗?
“以前流传下来的新知识学习不仅涵盖旧知识,这次谷歌的大脑发现,在《超级玛丽》等探索型游戏中,‘毁灭性遗忘’会阻碍新知识的学习。 》厦门大学科技处副处长、人工智能系教授纪荣嵓说。
纪嵓进一步解释说,面向街机游戏学习的强化学习方法使用的是“经验再生”训练方法,即保留游戏探索时的模型,对模型进行“再生”训练。 “蒙特兹马复仇”之类的游戏,游戏场景变化很大,模型需要不断探索游戏场景。 因此,训练时必须不断播放初始场景的游戏经验。 否则,就会因为“毁灭性的遗忘”而忘记初期的游戏知识。
据说“这也可以将新的游戏经验引入到‘体验播放’库中,但由于学习方法的设定导致学习效率低下,不同阶段的学习相互干扰,ai无法一次性通过该游戏的所有等级。” 纪嵓说。
ai“脑容量”难以同时存在上限和新旧知识
ai为什么会发生“毁灭性遗忘”?
“如果深度学习的结构明确了,在训练中就不容易调整。 神经网络的结构直接决定了学习模型的容量。 ”柯逍说,ai的“脑容量”是有上限的,人工智能只能在有限的范围内解决特定的任务。 就像水桶一半的高度有个洞一样,不管再怎么增加水桶的高度,这个水桶也只能装一半高的水。
中科院自动化所大脑互联网集团研究中心研究员、模式识别国家要点实验室副主任余山指出,这也与神经互联网知识学习机制有关。 在单一任务的训练中,互联网中各神经元之间的连接权重进行了特别调整,以适应当前的任务。 另一方面,在新任务的训练中,与新任务相比,连通性将发生重要的调整,从而“消除”适应旧任务的传统结构,在旧任务中的性能将大幅降低。
人的记忆能力有限,为什么很少发生“毁灭性遗忘”? “第一,人类在学习过程中,大脑可以积极保存有用的知识和妙手,不影响新消息的获取”纪荣嵓说,但是,现在的人工智能模型大部分是基于随机梯度的下降来更新模型参数的,这个过程是现在的Tata
纪嵘也表示,像现在的siri和爱这样的人工智能助手产品,并不是真正意义上的通用人工智能。 另一方面,这些人工智能助手只能在预先设定的知识范围内与人类交流,完成命令。 另一方面,人类不能像养宠物和养孩子一样,通过互动向这些人工智能助手传授新的知识和命令。
虽然有多种处理方案,但都不是治本
据了解,解开“毁灭性遗忘”是实现通用人工智能的关键。 处理“灾难性遗忘”问题,意味着模型具备持续学习的能力,可以像人类一样获得新知识、新技能,使旧经验知识和妙技最大化。
那么,现在处理“毁灭性遗忘”的方案有哪些?
“最常用的方法是多任务学习,总结所有任务的训练数据,模型可以比较多个任务共同优化”纪荣嵓说,比如让模型学习“坦克大战”和“超级玛丽”两个任务,两个任务比较
但是,他指出,这种方式随着任务的增加,新任务样本的数量会被稀释,训练会延迟学习新知识的效率,同时在任何情况下都不是能够获得和复习以前任务的数据的。
另外,还有根据新的任务知识扩展模型结构,使旧的知识经验不受损的处理方案。 这次,谷歌大脑提出的“注意记忆片段”是针对不同的任务(场景)构建多个人工智能模型进行学习。 “模型扩展的方法本质上并不是‘灾难性遗忘’的问题,只是使用多个模型代替单个模型来学习多个任务,而不是涵盖旧参数。 ”纪荣嵓说。
目前,应对“灾难性遗忘”需要在学习新任务的过程中,给互联网提供足够的自由度来进行连接权重调整,但存在着不需要“抹去”原有记忆的矛盾。
“因此,科学家们开始设计新的学习算法来处理上述矛盾,使互联网在进行权重调整时,对现有知识的影响最小化。 ”。 余山说,小组最近提出的正交加权写入算法就是这样的,主要通过限制加权写入在旧任务的解空之间进行,该算法很好地克服了“毁灭性遗忘”,采用了同样的分类器
魏朝东认为,虽然科学家们已经探索了很多处理方案,但目前的ai学习只是从认识科学中获得了灵感,大脑模拟还没有达到人们想象的高度,大部分ai学习方案都是“先天不足”。 “灾难性遗忘”是一个综合问题,不仅需要理论支撑,将来还需要切实可行的技术手段。 (记者谢开飞通讯员欧阳桂莲许晓凤王忆希)
来源:人民视窗网
标题:“学了后面忘前面 治疗AI“健忘症”还难有良策”
地址:http://www.rm19.com/xbzx/41817.html