返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

推荐系统-重排序-阿里SRGA

[复制链接]
链载Ai 显示全部楼层 发表于 4 小时前 |阅读模式 打印 上一主题 下一主题

目录

  • 一、模型整体结构

  • 二、1.1 Input Layer

  • 三、1.2 PI Layer

  • 四、1.3 Gated Attention Layer

  • 五、Output Layer

  • 六、损失函数


推荐阅读⭐️⭐️⭐️⭐️⭐️

《Scope-aware Re-ranking with Gated Attention in Feed》

这篇文章是蚂蚁公开的一种信息流商品重排序的方法。建模时考虑了用户在信息流商品推荐场景下的浏览行为,总结出两种行为特征:

  • 单向性:在移动设备上,用户几乎以自上而下的方式浏览feeds流中的商品,很少来回比较商品
  • 局部性:用户经常将他们当前观察到的商品与排在其邻接的商品进行比较

现有的重排序模型大都忽略了这两种行为特征,本文提出的建模思路:

  • 强调沿用户共同浏览方向的影响,设计了一个全局范围的注意力机制(GSA)来从上到下单向编码商品间的影响,以此来刻画单向性
  • 加强了用户可视窗口内关键相邻商品的影响,设计了一个局部范围的注意力机制(LSA)来增强推荐列表上相邻商品之间的交互,以此来刻画局部性
  • 设计了一种门控机制(Gate Module),以动态聚合来自局部和全局范围注意力对最后整体排序的影响

一、模型整体结构

二、1.1 Input Layer

模型的第一部分输入为用户侧特征,经过一个前馈神经网络层得到用户侧特征向量:。

模型的第二部分输入为长度为k的商品列表,每个商品经过前馈神经网络层并与对应的位置特征向量融合后得到商品向量:,其中为第i个商品对应的特征。

三、1.2 PI Layer

这里主要计算用户u对商品i的个性化偏好表示(用户向量和商品向量两两拼接后经过两个前馈神经网络层得到相应的向量表示):

四、1.3 Gated Attention Layer

这一部分是文章的重点,主要包含前文提到的以下三点:

  • GSA:全局范围的注意力机制,从上到下单向编码商品间的影响,刻画单向性
  • LSA:局部范围的注意力机制,来增强推荐列表上相邻商品之间的交互,刻画局部性
  • Gate Module:门控机制,动态聚合来自局部和全局范围注意力对最后整体排序的影响

其中GSA和LSA采用的是self-attention的结构,只是在计算注意力权重时分别做对应的特殊处理,self-attention结构常见的公式表示:

GSA计算逻辑:

LSA计算逻辑:

Attention(Q,K,V)的计算逻辑用图来表示:

GSA和LSA的基本逻辑可以认为是在计算softmax之前对注意力权重矩阵中的相应位置做对应的特殊处理。

Gate Module的主要作用就是融合GSA和LSA的输出:

五、Output Layer

最终的输出为用户u对商品i的偏好概率:

六、损失函数

模型训练时的损失函数为:



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ