极客时间已完结课程限时免费阅读

22|强化学习:让推荐系统像智能机器人一样自主学习

22|强化学习:让推荐系统像智能机器人一样自主学习-极客时间

22|强化学习:让推荐系统像智能机器人一样自主学习

讲述:王喆

时长15:16大小13.95M

你好,我是王喆。这节课我们继续来讲深度推荐模型发展的前沿趋势,来学习强化学习(Reinforcement Learning)与深度推荐模型的结合。
强化学习也被称为增强学习,它在模型实时更新、用户行为快速反馈等方向上拥有巨大的优势。自从 2018 年开始,它就被大量应用在了推荐系统中,短短几年时间内,微软美团阿里等多家一线公司都已经有了强化学习的成功应用案例。
虽然,强化学习在推荐系统中的应用是一个很复杂的工程问题,我们自己很难在单机环境下模拟,但理解它在推荐系统中的应用方法,是我们进一步改进推荐系统的关键点之一,也是推荐系统发展的趋势之一。
所以这节课,我会带你重点学习这三点内容:一是强化学习的基本概念;二是,我会以微软的 DRN 模型为例,帮你厘清强化学习在推荐系统的应用细节;三是帮助你搞清楚深度学习和强化学习的结合点究竟在哪。

强化学习的基本概念

强化学习的基本原理,简单来说,就是一个智能体通过与环境进行交互,不断学习强化自己的智力,来指导自己的下一步行动,以取得最大化的预期利益
事实上,任何一个有智力的个体,它的学习过程都遵循强化学习所描述的原理。比如说,婴儿学走路就是通过与环境交互,不断从失败中学习,来改进自己的下一步的动作才最终成功的。再比如说,在机器人领域,一个智能机器人控制机械臂来完成一个指定的任务,或者协调全身的动作来学习跑步,本质上都符合强化学习的过程。
为了把强化学习技术落地,只清楚它的基本原理显然是不够的,我们需要清晰地定义出强化学习中的每个关键变量,形成一套通用的技术框架。对于一个通用的强化学习框架来说,有这么六个元素是必须要有的:
智能体(Agent):强化学习的主体也就是作出决定的“大脑”;
环境(Environment):智能体所在的环境,智能体交互的对象;
行动(Action):由智能体做出的行动;
奖励(Reward):智能体作出行动后,该行动带来的奖励;
状态(State):智能体自身当前所处的状态;
目标(Objective):指智能体希望达成的目标。
为了方便记忆,我们可以用一段话把强化学习的六大要素串起来:一个智能体身处在不断变化的环境之中,为了达成某个目标,它需要不断作出行动,行动会带来好或者不好的奖励,智能体收集起这些奖励反馈进行自我学习,改变自己所处的状态,再进行下一步的行动,然后智能体会持续这个“行动 - 奖励 - 更新状态”的循环,不断优化自身,直到达成设定的目标。
这就是强化学习通用过程的描述,那么,对于推荐系统而言,我们能不能创造这样一个会自我学习、自我调整的智能体,为用户进行推荐呢?事实上,微软的 DRN 模型已经实现这个想法了。下面,我就以 DRN 模型为例,来给你讲一讲在推荐系统中,强化学习的六大要素都是什么,强化学习具体又是怎样应用在推荐系统中的。

强化学习推荐系统框架

强化学习推荐模型 DRN(Deep Reinforcement Learning Network,深度强化学习网络)是微软在 2018 年提出的,它被应用在了新闻推荐的场景上,下图 1 是 DRN 的框架图。事实上,它不仅是微软 DRN 的框架图,也是一个经典的强化学习推荐系统技术框图。
图1 深度强化学习推荐系统框架
从这个技术框图中,我们可以清楚地看到强化学习的六大要素。接下来,我就以 DRN 模型的学习过程串联起所有要素,来和你详细说说这六大要素在推荐系统场景下分别指的是什么,以及每个要素的位置和作用。
在新闻的推荐系统场景下,DRN 模型的第一步是初始化推荐系统,主要初始化的是推荐模型,我们可以利用离线训练好的模型作为初始化模型,其他的还包括我们之前讲过的特征存储、推荐服务器等等。
接下来,推荐系统作为智能体会根据当前已收集的用户行为数据,也就是当前的状态,对新闻进行排序这样的行动,并在新闻网站或者 App 这些环境中推送给用户。
用户收到新闻推荐列表之后,可能会产生点击或者忽略推荐结果的反馈。这些反馈都会作为正向或者负向奖励再反馈给推荐系统。
推荐系统收到奖励之后,会根据它改变、更新当前的状态,并进行模型训练来更新模型。接着,就是推荐系统不断重复“排序 - 推送 - 反馈”的步骤,直到达成提高新闻的整体点击率或者用户留存等目的为止。
为了方便你进行对比,我也把这六大要素在推荐系统场景下的定义整理在了下面,你可以看一看。
到这里,你有没有发现强化学习推荐系统跟传统推荐系统相比,它的主要特点是什么?其实,就在于强化学习推荐系统始终在强调“持续学习”和“实时训练”。它不断利用新学到的知识更新自己,做出最及时的调整,这也正是将强化学习应用于推荐系统的收益所在。
我们现在已经熟悉了强化学习推荐系统的框架,但其中最关键的部分“智能体”到底长什么样呢?微软又是怎么实现“实时训练”的呢?接下来,就让我们深入 DRN 的细节中去看一看。

深度强化学习推荐模型 DRN

智能体是强化学习框架的核心,作为推荐系统这一智能体来说,推荐模型就是推荐系统的“大脑”。在 DRN 框架中,扮演“大脑”角色的是 Deep Q-Network (深度 Q 网络,DQN)。其中,Q 是 Quality 的简称,指通过对行动进行质量评估,得到行动的效用得分,来进行行动决策。
图2 DQN的模型架构图
DQN 的网络结构如图 2 所示,它就是一个典型的双塔结构。其中,用户塔的输入特征是用户特征和场景特征,物品塔的输入向量是所有的用户、环境、用户 - 新闻交叉特征和新闻特征。
在强化学习的框架下,用户塔特征向量因为代表了用户当前所处的状态,所以也可被视为状态向量。物品塔特征向量则代表了系统下一步要选择的新闻,我们刚才说了,这个选择新闻的过程就是智能体的“行动”,所以物品塔特征向量也被称为行动向量
双塔模型通过对状态向量和行动向量分别进行 MLP 处理,再用互操作层生成了最终的行动质量得分 Q(s,a),智能体正是通过这一得分的高低,来选择到底做出哪些行动,也就是推荐哪些新闻给用户的。
其实到这里为止,我们并没有看到强化学习的优势,貌似就是套用了强化学习的概念把深度推荐模型又解释了一遍。别着急,下面我要讲的 DRN 学习过程才是强化学习的精髓。

DRN 的学习过程

DRN 的学习过程是整个强化学习推荐系统框架的重点,正是因为可以在线更新,才使得强化学习模型相比其他“静态”深度学习模型有了更多实时性上的优势。下面,我们就按照下图中从左至右的时间轴,来描绘一下 DRN 学习过程中的重要步骤。
图3 DRN的学习过程
我们先来看离线部分。DRN 根据历史数据训练好 DQN 模型,作为智能体的初始化模型。
而在线部分根据模型更新的间隔分成 n 个时间段,这里以 t1 到 t5 时间段为例。首先在 t1 到 t2 阶段,DRN 利用初始化模型进行一段时间的推送服务,积累反馈数据。接着是在 t2 时间点,DRN 利用 t1 到 t2 阶段积累的用户点击数据,进行模型微更新(Minor update)。
最后在 t4 时间点,DRN 利用 t1 到 t4 阶段的用户点击数据及用户活跃度数据,进行模型的主更新(Major update)。时间线不断延长,我们就不断重复 t1 到 t4 这 3 个阶段的操作。
这其中,我要重点强调两个操作,一个是在 t4 的时间点出现的模型主更新操作,我们可以理解为利用历史数据的重新训练,用训练好的模型来替代现有模型。另一个是 t2、t3 时间点提到的模型微更新操作,想要搞清楚它到底是怎么回事,还真不容易,必须要牵扯到 DRN 使用的一种新的在线训练方法,Dueling Bandit Gradient Descent algorithm(竞争梯度下降算法)。

DRN 的在线学习方法:竞争梯度下降算法

我先把竞争梯度下降算法的流程图放在了下面。接下来,我就结合这个流程图,来给你详细讲讲它的过程和它会涉及的模型微更新操作。
图4 DRN的在线学习过程
DRN 的在线学习过程主要包括三步,我带你一起来看一下。
第一步,对于已经训练好的当前网络 Q,对其模型参数 W 添加一个较小的随机扰动,得到一个新的模型参数,这里我们称对应的网络为探索网络 Q~。
在这一步中,由当前网络 Q 生成探索网络 ,产生随机扰动的公式 1 如下:
其中, 是一个探索因子,决定探索力度的大小。rand(-1,1) 产生的是一个[-1,1]之间的随机数。
第二步,对于当前网络 Q 和探索网络 Q~,分别生成推荐列表 L 和 L~,再将两个推荐列表用间隔穿插(Interleaving)的方式融合,组合成一个推荐列表后推送给用户。
最后一步是实时收集用户反馈。如果探索网络 Q~生成内容的效果好于当前网络 Q,我们就用探索网络代替当前网络,进入下一轮迭代。反之,我们就保留当前网络。
总的来说,DRN 的在线学习过程利用了“探索”的思想,其调整模型的粒度可以精细到每次获得反馈之后,这一点很像随机梯度下降的思路:虽然一次样本的结果可能产生随机扰动,但只要总的下降趋势是正确的,我们就能够通过海量的尝试最终达到最优点。DRN 正是通过这种方式,让模型时刻与最“新鲜”的数据保持同步,实时地把最新的奖励信息融合进模型中。模型的每次“探索”和更新也就是我们之前提到的模型“微更新”。
到这里,我们就讲完了微软的深度强化学习模型 DRN。我们可以想这样一个问题:这个模型本质上到底改进了什么?从我的角度来说,它最大的改进就是把模型推断、模型更新、推荐系统工程整个一体化了,让整个模型学习的过程变得更高效,能根据用户的实时奖励学到新知识,做出最实时的反馈。但同时,也正是因为工程和模型紧紧地耦合在一起,让强化学习在推荐系统中的落地并不容易。
既然,说到了强化学习的落地,这里我还想再多说几句。因为涉及到了模型训练、线上服务、数据收集、实时模型更新等几乎推荐系统的所有工程环节,所以强化学习整个落地过程的工程量非常大。这不像我们之前学过的深度学习模型,只要重新训练一下它,我们就可以改进一个模型结构,强化学习模型需要工程和研究部门通力合作才能实现。
在这个过程中,能不能有一个架构师一样的角色来通盘协调,就成为了整个落地过程的关键点。有一个环节出错,比如说模型在做完实时训练后,模型参数更新得不及时,那整个强化学习的流程就被打乱了,整体的效果就会受到影响。
所以对我们个人来说,掌握强化学习模型的框架,也就多了一个发展的方向。那对于团队来说,如果强化学习能够成功落地,也一定证明了这个团队有着极强的合作能力,在工程和研究方向上都有着过硬的实践能力。

小结

强化学习是近来在学术界和业界都很火的话题,它起源于机器人领域。这节课,我们要重点掌握强化学习的通用过程,以及它在深度学习中的应用细节。
简单来说,强化学习的通用过程就是训练一个智能体,让它通过与环境进行交互,不断学习强化自己的智力,并指导自己的下一步行动,以取得最大化的预期利益。这也让强化学习在模型实时更新,用户行为快速反馈等方向上拥有巨大的优势。
但强化学习的落地并不容易,整个落地过程的工程量非常大。现阶段,我们只需要以微软的 DRN 模型作为参考,重点掌握强化学习在推荐系统领域的应用细节就可以了。
一个是 DRN 构建了双塔模型作为深度推荐模型,来得出“行动得分”。第二个是 DRN 的更新方式,它利用“微更新”实时地学习用户的奖励反馈,更新推荐模型,再利用阶段性的“主更新”学习全量样本,更新模型。第三个是微更新时的方法,竞争梯度下降算法,它通过比较原网络和探索网络的实时效果,来更新模型的参数。
为了方便你复习,我们把这节课的重点知识总结在了下面的表格中,你可以看看。

课后思考

DRN 的微更新用到了竞争梯度下降算法,你觉得这个算法有没有弊端?你还知道哪些可以进行模型增量更新或者实时更新的方法吗?
欢迎把你的思考和疑问写在留言区,如果你的朋友们也在关注强化学习在推荐系统上的发展,那不妨也把这节课转发给他们,我们下节课见!
分享给需要的人,Ta购买本课程,你将得20
生成海报并分享

赞 10

提建议

上一篇
21|注意力机制、兴趣演化:推荐系统如何抓住用户的心?
下一篇
特别加餐 | “银弹”不可靠,最优的模型结构该怎么找?
 写留言

精选留言(18)

  • LUO FAN
    2021-02-19
    一直没想明白DBGD工程上是如何实现的。 按照论文,首先对原网络进行随机扰动,那么需要保存随机扰动之后的模型W',然后用W和W'产生的结果进行交织,根据结果选取好的保留。因为这里最后推荐是一个列表。要评估整个列表的推荐结果,至少需要等到用户手动刷新推荐或者离开推荐页。这个过程,按照我的现有知识,整个过程从生成推荐列表到获取列表反馈,完成下来可能需要几分钟。请问一次更新真的一般都是这么长时间吗?是否业界有其他办法? 如果真的像我所想,那么DBGD的弊端就是在这几分钟内网络权重只能迭代一次,而且探索方向只有一个。 如果增加要增加网络更新频率,可以用反向传播计算梯度,在线更新模型,这就和一般的神经训练一样,只是根据实时样本流训练。 增加探索方向可以使用Evolution Strategy。从当前网络权重为中心按照高斯分布采样,根据每个子网络的用户反馈计算梯度,用梯度上升更新网络。
    展开

    作者回复: 好问题,一看就是资深工程师的“老成谋国”之言,哈哈。 我其实完全赞同你的观点,我觉得它不可能完成秒级别的更新,应该是以分钟为级别,而且应该是收集少量的mini batch数据之后进行一次梯度更新。 因为像你说的,列表展示、用户反应和交互最好需要几十秒到几分钟的时间,更别提整个数据流的延迟了。 我觉得这篇论文其实已经做了大量的工程妥协,我们也主要理解思路即可,不用太多纠结于具体的思路。

    16
  • 张弛 Conor
    2020-11-30
    思考题:我认为这个算法相比于随机梯度下降算法的弊端是:每个参数的更新方向是随机的,而不是像随机下降算法一样,是沿着梯度更新的。随机更新可能导致的结果就是:1.收敛是缓慢的。2.很难收敛到全局最优值。 课后问题: 1.请问老师,竞争梯度下降算法需要比较探索网络和当前网络的推荐效果,但是在模型结构图中,微更新的参考只有上阶段的推荐反馈,这里的推荐反馈只有一个,那么如何去更新竞争梯度下降算法呢?探索网络和当前网络的推荐效果是在图示的哪个阶段进行实现的呢? 2.请问老师,主更新的训练策略使用的也是竞争梯度下降算法吗?老师在文中提到,使用历史数据重新训练,这里指的是从零训练,还是说从离线阶段输出的模型进行fine-tune呢?
    展开

    作者回复: 思考很好,赞。 问题1. 在实际实现中肯定不是只用一个效果就更新网络,而是做一小段实践的数据收集,再根据这个batch的效果进行探索网络和当前网络的选择。这部分在实际的工程中一般是在flink等流计算平台上实现的。 问题2. 主更新不使用梯度下降算法。实际工程中可视为一次正常的模型更新,使用的是全量历史样本,当然这其中包括了最近收集到的样本。

    共 2 条评论
    13
  • 对方正在输入
    2021-02-03
    老师您好!我曾经修读过《强化学习》系列课程,但是在阅读本节内容后有所疑惑: 1.首先我想请问的是这里的drn与进行序列决策的强化学习联系在哪?进行序列决策的dqn一般使用最小化TD error的方式更新,进行序列决策的policy network一般使用policy gradient公式更新,而这里的drn貌似是借用了dqn的概念而采用了完全不同的更新方式,这么做的优势何在? 2.这里ΔW的更新公式看起来像是随机的,似乎是一种gradient free的更新方式,现有的强化学习方法中,gradient free的方法是采样效率最低的,用这种方式更新drn是否会导致收敛速度过慢的问题? 3.目前强化学习领域的sota算法包括ppo、ddpg、sac、a3c等,这些算法是否有在推荐系统领域的应用? 谢谢老师!
    展开

    作者回复: 这三个问题都非常非常好。但我觉得可以用一个简单的回答来尝试解决你的疑问。 我个人觉得DRN其实是为了工程上线做了大量的妥协。比如为什么用随机的方式尝试更新网络,因为不用online learning,减少了大量学习训练,模型上线的过程。 其他类似问题也可以从这个角度思考。总的来说,DRN是从传统模型更新方式转向强化学习的一个过渡工作。

    10
  • 旗开得胜
    2021-01-31
    微更新部分主要是学习用户的实时反馈,直接使用梯度下降也可以学习到,为什么要采用竞争梯度下降呢?

    作者回复: 说的非常好,基于SGD的online learning确实可以做实时学习。但它的整个工程难度比竞争梯度下降难非常多,你可以从整个框架的角度去思考这个问题,为什么落地难度大非常多。

    8
  • 浣熊当家
    2020-11-30
    请问老师,非强化学习的模型,在业界一般模型参数多久更新一次呢?

    作者回复: 一般的公司天更新的居多,算力强的公司也有一小时级别更新的。

    7
  • 那时刻
    2020-12-01
    “微更新”实时地学习用户的奖励反馈,更新推荐模型,再利用阶段性的“主更新”学习全量样本,更新模型。此时主更新更新的模型,会把微更新调优的模型完全覆盖么?如此的话,会不会把微更新调优的模型参数给抹掉了,从而导致模型参数变坏呢?

    作者回复: 理论上主更新会使用包含最近样本及历史样本的全量数据进行更新,主更新的作用其实恰好是对微更新的参数进行一定程度的纠偏。因为实践中往往有一些延迟反馈、数据噪声等问题。 微更新的主要作用是获取实时反馈,提高模型实时性,二者是互补的。

    6
  • 孙晓波
    2020-11-30
    老师你好 增加实时性上采用FTRL进行在线学习和强化学习在最终结果上有什么区别,如何判断选择

    作者回复: online learning其实可以看作强化学习的一个子集,或者说是子类。所以FTRL做在线学习本质上就是强化学习的一种。

    5
  • Abigail
    2021-05-05
    DRN 的微更新用到了竞争梯度下降算法,理解上可以近似我们的遗传算法/进化刷法。小的扰动可以理解为“网络offspring的变异”,然后根据反馈选择优秀的“子代”模型替代“上一代模型”。 另外一个思路就是,可以考虑集成学习的策略(Ensemble Learning)。建立合适的模型群,设计增加或者减少模型的策略,例如基于contribution scores 或者添加基于时间的权重等。 因为线上推荐系统的数据流是变化的,所以不存在一个“当前vs所有”或者历史意义上的最优模型, 只要用户对推荐效果的反馈不发生大幅度变差,就可以算是成功了!
    展开

    作者回复: 我觉得这个理解非常好,确实是类似于遗传算法的模式去寻找最优参数。

    4
  • Geek_0d974b
    2021-02-26
    请教一个新闻推荐的问题,相对于商品的推荐问题,新闻更加有时效性,就是说每次候选集都是“新”的商品。是不是意味着每条新闻都要面临embedding 冷启动?除了你在专栏里提过的冷启动方法,业界还有没有别的针对新闻推荐的技巧呢?

    作者回复: 是我在知乎专栏上详细介绍了一些embedding冷启动方法https://zhuanlan.zhihu.com/p/351390011 另外针对新闻推荐,我不是主要做这块的,但跟一些相关同行交流,有一个特点是新闻推荐其实在主模型之后掺杂着大量reranking的策略。比如会单独判断一些新的重大的news然后基于规则插入。这应该是新闻推荐的一个特点。

    4
  • 浣熊当家
    2020-12-02
    想继续请教老师,如果非强化学习模型参数的更新速度一般可以达到一天甚至一个小时一次,那么我可以理解为,强化学习的核心在于t1到t3这部分的微调整吗,我觉得强化学习本质采取了multi-bandit的探索&利用的模式,但是区别是,multi-bandit是划分人群,而强化学习是采用全部人群,随机排序不同模型的结果,并且把模型评估和模型训练融合在一个快速迭代的过程成,本质优势是降低了机会成本。

    作者回复: 其实宽泛的意义上,mutli-bandit,online learning都属于强化学习的范畴。 但确实像你说的,典型的强化学习的最大功夫就在于如何进行这里的微调,一般来说mutli-bandit中的exploration策略会粗放一些,偏global的调整,但RL一般会通过进行新样本的学习,调整智能体也就是这里的模型来实现不断的学习。

    4
  • Leo Zhao
    2020-12-01
    我觉得 在线更新不是区别强化学习DRN的核心。DRN 的核心在于 DQN 把 状态 和 行动建立起评分联系。Q是Q learning 的意思,即 在这个状态下 可能的行动的评分预计。这个DQN的学习 才应该是核心,是区别传统的监督学习 输入输出pair 的关键。毕竟评分标准 不是直接的label.

    作者回复: 其实理论上DQN也没有非常大的创新,因为所谓的状态就是用户所处的当前特征集合,所谓行动就是物品的特征。但是像你说的,这个思想是重要的,我们要建立强化学习中状态的和行动的概念和思想,看看能否应用到推荐系统之中。

    4
  • 抱小星
    2021-07-21
    DRN的微更新,弊端是随机更新收敛太慢,没有方向性。可以参考double DQN,用target net和action net结果之间的差值作为loss,然后隔一段时间将action net 赋值给target net,直至两者完全一致,收敛。而action net的更新采用了experience replay的技术,随机选取历史数据再训练,同时有小概率采用随机方向的探索,也许这样比DBGD更有方向性。

    作者回复: 非常好,完全赞同

    3
  • 骚动
    2021-01-17
    老师您好,我想问下: 1. 微更新选择的模型参数是怎么选的? 2. 我们能否采用局部强化学习的方式来应用强化学习?比如说将重要特征处理部分该为强化学习,智能体就是这个重要特征处理网络,把推荐系统的其它部分纳入环境部分,行动就是推荐结果。

    作者回复: 1. 微更新一般来说选择比较重要的参数,比如一些重要特征的权重参数等,而不是神经网络中大量的神经元相关参数。 2.可以的,非常好的应有思路。

    3
  • Alan
    2021-03-28
    答:更新计算效率缓慢,优化方向是否可以向Adam优化器一样,有个划分几个动态区间的范围,自适应调整,比对后得到最适合W。 问题1:DRN反复的推送接受过程,对于在线存储数据库设计有什么性能上的要求或注意地方吗? 问题2:在激励方面,是可以有长短有效回报激励机制,例如:可以在用户点击视频的t0-t2短期激励权重为0.3,t0-t5长期激励权重为0.7 问题3:DRN模型或强化学习是否可以应用的个性化推荐呢? 答:针对问题3的个人见解,目前觉得可以,针对相似用户群。通过对DRN模型精髓发现,对于硬件设备与资源计算消耗是巨大的,目前的感觉强化学习的推荐系统针对是应该是用户群更合适一些,所以我觉在先在用户数据特征工程上,选择相似度相近用户群数据会很符合强化学习的推荐系统的概念。至于,真正的工业化强化学习个性化专属推荐系统,是否落地,还有待观察吧!
    展开
    1
  • Geek_732522
    2022-11-10 来自北京
    在基础的DQN网络中,Q网络作为前向传播网络计算得到t时刻状态s下执行动作a后得到的Q值,Q~网络计算t+1时刻状态s'下执行所有动作中能够让Q值最大的动作a',然后让Q(s,a)+α[R+ΥmaxQ~(s',a')-Q(s,a)]的结果不断接近Q(s,a)。这里的微更新更像是利用了DQN网络的Fixed Q-target的思想,在一定时间段对Q~网络进行固定,目的就是防止Q~网络经常变化,让上面公式的结果更好的收敛。
  • happiless
    2021-05-18
    老师, 您的深度学习推荐系统的书上的内容有相关的代码实现吗, 还是这个DRN有实现的代码吗

    作者回复: 这个模型没有代码实现

  • 坐看云起
    2021-03-21
    请问老师,drn用历史数据进行线下训练是什么思路,我有两种想法,第一就是线下训练的是q网络,主要是输入状态和动作,输出是否推荐的01变量,这样线下训练的时候就是抛开了强化学习,就是一个分类问题,第二就是将用户的历史序列强行扩充为s,a,r,s' 的experience replay,然后在利用q(s,a) = r+q(s'.a)的方式训练,还是说这两种思路都不对,是别的办法

    作者回复: 从DRN的文章来看,第一种的可能性大,基本是做定期的fully update结合mini batch的update这样的更新思路。 第二种其实工程实现难度会大一些,但也是基本可行的。

  • 粪进
    2021-01-17
    请问老师,在t2时间点利用t1到t2阶段收集的点击数据对模型进行微更新,可是在DRN的三步学习过程中体现在哪一步呢?谢谢。

    作者回复: 就是应用在模型的微更新过程中,调整模型参数的过程。

    共 2 条评论