2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > 正反馈+负反馈还不够 还有【中性反馈】

正反馈+负反馈还不够 还有【中性反馈】

时间:2021-10-12 05:24:51

相关推荐

正反馈+负反馈还不够 还有【中性反馈】

关注我们,一起学习~

标题:Positive, Negative and Neutral: Modeling Implicit Feedback in Session-based News Recommendation

链接:/pdf/2205.06058.pdf

代码:/summmeer/session-based-news-recommendation

会议:SIGIR

学校:上交

1. 导读

本文主要针对新闻网站对匿名读者(没注册的游客)进行新闻推荐的场景,访客和文章之间的交互仅限于临时登录会话。以前的工作倾向于将基于会话的推荐制定为下一个商品预测任务,而忽略了用户行为的隐含反馈,即用户真正喜欢或不喜欢什么。因此,本文提出了一个综合框架,通过正反馈(即他们花更多时间阅读的文章)和负反馈(即他们选择跳过而不点击的文章)来模拟用户行为。并且该框架使用会话开始时间隐含地对用户进行建模,并使用其初始发布时间对文章进行建模,称之为“中性反馈”。

本文主要是考虑不同的反馈方式,构建一种新的反馈“中性反馈”来加强对用户兴趣的建模。

2. 方法

image.png

2.1 基础会话推荐

在会话推荐中,给定会话的前缀序列,目标是预测目标用户u最有可能阅读的第篇文章。使用的商品embedding矩阵,是embedding维数,文章的embedding向量表示为。然后可以使用 RNN、GNN或基于注意力机制等方法将会话信息从序列编码为向量 ,代表用户的历史偏好。N个商品的embedding可以表示为,对于u,会话表征和文章j之间的余弦相似度分数由会话向量和候选新闻文章向量的内积计算得出,公式如下,经过softmax标准化得到预测概率。

402 Payment Required

损失函数采用交叉熵损失函数,

402 Payment Required

2.2 本文基模型:内容感知模型CAR

为了推荐新出现的文章,本节的出发点是一个基本的内容感知推荐模型。需要对文章内容进行编码,从 Word2Vec 中得到维向量来表示文章的主题内容。得到文章的内容向量,将和 拼接得到文章的表征为。为了模拟用户对同一会话中文章的不同偏好,采用简单的注意力网络,使用输入向量序列的加权和来编码整个会话。令表示注意力权重,即第i篇文章在会话中的注意力权重定义,公式如下,

402 Payment Required

会话的上下文会话向量由注意力权重加权求和得到,公式如下,

为了获得输入序列的顺序信息,注意力机制通过位置编码利用位置信息提取,与 Transformer中的方式相同。

2.3 将时间建模为中性反馈

一个用户在一篇特定文章上停留的活动时间是持续时间。对于不同且连续的活动时间,设计一个持续时间编码器,通过公式将分桶为离散变量。将离散的映射到m个不同的类别中,其中每个类别共享相同的embedding向量。

与揭示用户积极隐含反馈的持续时间不同,某个事件发生的日期时间具有物理意义,也传达了时间信息背后的规则模式,因此为这种时间表示设计了一个时间编码器。对文章的发布时间和会话的开始时间进行编码。为了提取周期性时间变化,提供月份、月份中的某一天、星期几、小时、分钟 (

402 Payment Required

) 到时间embedding矩阵 ,将上述五部分拼接得到 作为整个时间向量。

2.3.1 开始时间

在相似时间开始阅读的用户更有可能具有相同的阅读行为,这意味着用户兴趣受开始时间的影响。例如,有些人倾向于在早上阅读财经新闻,而在晚上阅读娱乐节目。使用周和小时(w,h)表示会话的每次点击行为的点击时间。为了模拟中文章的不同信息量,以供用户在不同的开始阅读时间阅读,应用此信息来计算个性化注意力。进行非线性变换后,计算注意力权重

结合CAR中计算的注意力权重一起对序列表征进行信息提取,公式如下,

402 Payment Required

2.3.2 发布时间

用户的阅读习惯可以由中的发布时间顺序反映。可以由此推断用户是否倾向于浏览新文章或旧文章。文章的发布时间序列是一个相对独立的序列,因此单独对其进行建模。由于文章发表时间的密度高,使用构造发表时间embedding向量。同样通过注意力机制从序列中提取信息。添加每篇文章的内容向量来捕捉文章内容与其发布时间之间的注意力关系。公式如下,

最后,将和拼接作为整个会话的聚合表征。针对目标新闻 j ,将与拼接得到目标新闻j的表征,然后可以计算目标新闻表征和会话表征之间的余弦相似度,构建交叉熵损失函数。

2.4 正反馈

隐式正反馈采用用户点击每篇文章后在其上花费的活跃时间间隔。如果用户在一篇文章中停留的时间很短,很可能是因为用户被标题所迷惑,但实际上并不喜欢这篇文章。如果没有明确可用的活动时间,可以通过用户连续两次点击的时间间隔来估计。

每个活跃时间度共享相同的embedding向量,表示正反馈的程度。将此向量作为额外的点击级反馈输入注意力计算。则上述基模型CAR中的可以表示为下式,

402 Payment Required

2.5 负反馈

最直接且被广泛采用的负采样是从一组未点击的商品中随机采样。随机采样的主要问题是这些商品可能与用户完全无关,对模型学习构成的挑战太小。用户在阅读新闻时,上下滚动新闻流,暴露给用户的文章共同形成一个印象列表。将中未点击的文章比其他候选提供更多负信号,因此在计算损失时应该区别对待它们,更严格地惩罚和那些强负样本之间的相似性。

由于印象列表可能无法获得,因此假设如果一篇文章发布在被u点击的文章附近,它更有可能出现在中。根据候选文章的发表时间对候选文章进行排序,在每个文章周围构建300大小的窗口,在窗口中采样得到负样本集。目标是在时最小化和负样本j的向量之间的余弦分数,其中是会话的负样本集,最终损失函数为,

402 Payment Required

3. 结果

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。