大家在沉重的气氛中僵持了半天,终于有人开口说话了,“我们弄个连续学习方面的本子吧。”
说话的人叫方麟,是一位平时很让李晓军头疼的学生。
倒不是说方麟是个很笨的学生,他才华横溢,聪明得紧,应该是李晓明带过的学生中最聪明的一个。
但就是太有个性,自己想研究什么就研究什么,不怎么听指挥。
李晓军不止一次想劝退这个学生,或转到别的老师名下。
不能给老师干活的博士生当然不是好博士生。
李晓军迟疑道:“这算是通用人工智能的范畴了,有点太超前了吧?”
方麟瘦瘦高高,顶着一脑袋的长头发,虽然还没长到尽显艺术家的风范,但也足以像鸡窝一样乱糟糟的。
方麟:“王栋不就是想要超前的东西么,越超前越好。”
余下的同学都点头赞同,表示深以为然。
李晓军也觉得有理:“大家现在都在做自监督预训练,有大模型大算力加持,出现了智能涌现。”
“这几年连续学习相关的研究工作的确进展缓慢,好像没有什么清晰的方向,不好做啊。”
“不过,好做的都被申请完了,做连续学习也不错,但咱们得弄出一个具有可行性的解决方案来。”
方麟:“连续学习面对的主要问题是灾难性遗忘。如果让深度神经网分多次学习,学了后面的知识,就把前面的知识忘掉了,或者说覆盖掉了。”
“所以,这是个如何在深度模型中保留记忆的问题。”
“已有方法大概采用了如下三种技术路线:”
“一是保留以前学过的部分代表性样本作为记忆,这些样本要参与到后面的模型训练,从而把记忆转化为模型参数;”
“二是在模型学习新知识时限制参数在一个限定的范围内变化,而这个范围是由旧知识决定的,所以就达到了不会遗忘它们的效果;”
“三是每次弄出不同的网络分支以对应不同的知识。”
“第三种方法性能最差,较少被关注到,但我反倒觉得最具合理性。”
“仿真人类的情况,我们的记忆难道不应该是神经网络形式的,不同的记忆难道不应该是不同的子网络么?。”
“以前遇到的困难是如何将这些分支融合以达到记忆选择的效果,然而不融合直接选择也是一种办法。”
“假设面对一种任务,其所要学习的知识有一万种子模式,每种模式我们都可以保留三个模型:一个用于生成已习得数据的模型,大模型形式的生成模型现在就很好用;另一个用于对新到达样本做数据增强,达到将一个样本变成上千个内容相同但表示不同的样本的目的;最后一个才是这个子模式对应的处理模型。”
“用这三个模型来代表对某种模式知识的记忆。”
“训练时,先将新到达样本在每个记忆模式里分别做数据增强,然后用对应的生成模型生产大量记忆样本。把记忆样本与增强样本一起去重新训练处理模型”
“如果该处理模型对各种生成样本仍旧有较高的准确率,该子模式就被选中,把处理模型更新为重训模型,当然,生成模型和增强模型也需要一起被重新训练。”
“推理时,过程也是一样的,将待处理样本在每个知识子模式中都进行增强,然后与生成样本一起重训处理模型,根据重训模型对各种生成样本的准确率,决定是否接受其识别结果。”
李晓军已经听得眉头紧皱:“有点道理,这是用模型训练来解决模型选择问题,或者说记忆选择问题。”