AlainConnor / AI-RecommenderSystem

该仓库尝试整理推荐系统领域的一些经典算法模型

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

AI-RecommenderSystem

该仓库尝试整理推荐系统领域的一些经典算法模型,主要包括传统的推荐算法模型和深度学习模型, 并尝试用浅显易懂的语言把每个模型或者算法解释清楚!此次整理依然是通过CSDN博客+GitHub的形式进行输出, CSDN主要整理算法的原理或者是经典paper的解读, 而GitHub上主要是模型的复现和实践,模型的复现这块不限于Pytorch框架或者TensorFlow框架, 下面很多模型是使用了两种框架,Pytorch使用了经典的那种建模风格, 而TensorFlow使用了Deepctr的函数式API的那种建模风格。

实验所用的数据集如下:

这些数据集太大了,我这边单机测试不了,所以我目前用的数据集都是从里面采样了一小部分出来的, 基于已有的数据集先跑通各个模型, 等有以后有条件了,会把试验重新走一遍哈哈。关于模型的原理部分, 可以参考我的博客链接推荐系统学习笔记


这里还得特别说明下, 整理这些模型的目的是为了能够更清楚的了解每个模型的具体计算细节和原理, 代码+博客解读的方式我觉得能够更加帮大家认识到各个模型的精髓,以及模型的演化过程,我觉得看完每个模型的解读和代码之后,至少要明白三个问题:

  • 这个模型提出是为了解决什么问题?
  • 通过用什么样的方法解决问题?
  • 这个方法具体是怎么实现的(代码层次)?

最终的升华就是拔高一层,去把握思路,比如特征重要性选择会有哪些思路? 特征交叉上会有哪些思路? 处理序列数据上会有哪些思路等? 有哪些通用的比较好的模型结构等等。 我觉得这些问题要比单独的模型要重要多,这也是我坚持把模型串联到一块的原因。

另外,就是这些模型的代码都是采用了最简单的实现方式说明原理用的,采用的数据也没有刻意仿照原论文, 原因就是我觉得推荐领域是非常和场景强相关的, 所以用这样简单的数据去对比各个模型的好坏没有意义,所以大家也不要刻意去复现我的结果这样子,思想才是最关键的,具体使用的时候就会发现会有各种工具包,人大佬都帮我们实现好了,不用重复造轮子啦。 但这种想问题的方式可是需要我们用心一点点去积累的, 所以这个项目的初心就是希望能通过这样的方式把比模型更重要的东西沉淀下来,既是对自己的一个考验,又是自己的兴趣,也希望能帮助到更多的伙伴啦

目前梳理的整体模型解读框架及进展:

  • 传统的推荐算法模型(已完成)
  • 深度学习时代的算法模型(王喆老师书上的已经完成,目前是在做拓展), 这块后面的话就是继续追工业上经典且实用的模型做解读
  • 上面的模型大部分都是CTR的精排部分的模型, 所以后面会加入召回模块的经典模型, 多任务的经典模型,多目标的经典模型,序列推荐的经典模型等等

推荐模型解读这块会坚持下去,后面的模型整理会围绕着实用,经典,重要进行展开, 解读的方式依然是博客白话解读+GitHub简易复现,代码风格会包括Pytorch版+TF版,风格上也会兼顾传统的模型建模风格+函数API式风格, 这是一个很长的故事, 我们还得继续走着.......


1. 传统的推荐算法模型

传统推荐模型演化关系图

1.1 协同过滤算法

协同过滤算法, 虽然这个离我们比较久远, 但它是对业界影响力最大, 应用最广泛的一种经典模型, 从1992年一直延续至今, 尽管现在协同过滤差不多都已经融入到了深度学习,但模型的基本原理依然还是基于经典协同过滤的思路, 或者是在协同过滤的基础上进行演化, 所以这个算法模型依然有种“宝刀未老”的感觉, 掌握和学习非常有必要。

所谓协同过滤(Collaborative Filtering)算法, 基本思想是根据用户之前的喜好以及其他兴趣相近的用户的选择来给用户推荐物品(基于对用户历史行为数据的挖掘发现用户的喜好偏向, 并预测用户可能喜好的产品进行推荐), 一般是仅仅基于用户的行为数据(评价、购买、下载等), 而不依赖于项的任何附加信息(物品自身特征)或者用户的任何附加信息(年龄, 性别等)。目前应用比较广泛的协同过滤算法是基于邻域的方法, 而这种方法主要有下面两种算法:

  • 基于用户的协同过滤算法(UserCF): 给用户推荐和他兴趣相似的其他用户喜欢的产品
  • 基于物品的协同过滤算法(ItemCF): 给用户推荐和他之前喜欢的物品相似的物品

所以这一块知识的主要内容是UserCF和ItemCF的工作原理和代码实践, 工作原理部分详情见我写的博客, 代码实践是把项亮推荐系统实践里面的协同过滤算法(UserCF和ItemCF)实现了一遍, 并进行详细的解释和说明

  • 优点: 可解释性强, 直观, 简单
  • 缺点: 泛化能力差, 没有用到用户, 物品和上下文特征

筋斗云:AI上推荐之协同过滤

1.2 隐语义模型与矩阵分解

协同过滤的特点就是完全没有利用到物品本身或者是用户自身的属性, 仅仅利用了用户与物品的交互信息就可以实现推荐,是一个可解释性很强, 非常直观的模型, 但是也存在一些问题, 第一个就是处理稀疏矩阵的能力比较弱, 所以为了使得协同过滤更好处理稀疏矩阵问题, 增强泛化能力, 从协同过滤中衍生出矩阵分解模型(Matrix Factorization,MF), 并发展出了矩阵分解的分支模型。在协同过滤共现矩阵的基础上, 使用更稠密的隐向量表示用户和物品, 挖掘用户和物品的隐含兴趣和隐含特征, 在一定程度上弥补协同过滤模型处理稀疏矩阵能力不足的问题。

这一块的知识主要是隐语义模型的含义, 矩阵分解算法的原理和矩阵分解算法的计算方法, 具体内容我已经写到了博客上面。

  • 优点: 泛化能力强, 空间复杂度低, 更好的扩展性和灵活性
  • 缺点:依然没有用到用户, 物品和上下文特征

筋斗云:AI上推荐之隐语义模型(LFM)和矩阵分解(MF)

1.3 GBDT+LR模型

这是2014年Facebook提出的一个模型,协同过滤和矩阵分解同属于协同过滤家族, 之前分析过这协同过滤模型存在的劣势就是仅利用了用户与物品相互行为信息进行推荐, 忽视了用户自身特征, 物品自身特征以及上下文信息等,导致生成的结果往往会比较片面。 而今天的这两个模型是逻辑回归家族系列, 逻辑回归能够综合利用用户、物品和上下文等多种不同的特征, 生成较为全面的推荐结果。GBDT+LR模型利用GBDT的”自动化“特征组合, 使得模型具备了更高阶特征组合的能力,被称作特征工程模型化的开端。

模型原理: GBDT是一种常用的非线性模型,基于集成学习中boosting的思想,由于GBDT本身可以发现多种有区分性的特征以及特征组合,决策树的路径可以直接作为LR输入特征使用,省去了人工寻找特征、特征组合的步骤。所以可以将GBDT的叶子结点输出,作为LR的输入,如图所示:

这一块的重要知识点是LR模型的原理, GBDT模型的原理和细节, 具体内容我已经整理到了博客

  • 优点: GBDT与LR模型互补, 实现了特征工程的自动化模式, 且增加了特征交叉组合的能力, 能够利用更加高阶的特征
  • 缺点: 容易过拟合, 对于调参带来了难度

筋斗云:AI上推荐 之 逻辑回归模型与GBDT+LR(特征工程模型化的开端)

1.4 FM+FFM模型

FM模型是2010年提出, FFM模型是2015年提出, 这两个属于因子分解机模型族, 在传统逻辑回归的基础上, 加入了二阶部分, 使得模型具备了特征组合的能力,逻辑回归是一个简单、直观、应用的模型, 但是局限性就是表达能力不强, 无法进行特征交叉和特征筛选等, 因此为了解决这个问题, 推荐模型朝着复杂化发展, GBDT+LR的组合模型就是复杂化之一, 通过GBDT的自动筛选特征加上LR天然的处理稀疏特征的能力, 两者一结合初步实现了推荐系统特征工程化的开端。 其实, 对于改造逻辑回归模型, 使其具备交叉能力的探索还有一条线路, 就是POLY2->FM->FFM, 这条线路在探索特征之间的两两交叉, 从开始的二阶多项式, 到FM, 再到FFM, 不断演化和提升。

这一块的重要知识点是了解POLY2->FM-FFM的演化历程, FM的原理和FFM的原理细节。 具体内容我已经整理到了博客。

  • 优点: 在逻辑回归的基础上有了自动的二阶交叉能力, 使得模型的表达能力进一步增强
  • 局限: 由于组合爆炸问题的限制, 模型不能很好的进行高阶特征交叉

筋斗云:AI上推荐 之 FM和FFM(九九归一)

2. 深度学习的浪潮之巅

2.1 DeepCrossing模型

该模型是2016年微软提出的一个模型, 是一次深度学习框架在推荐系统中的完整应用, 该模型完整的解决了从特征工程、稀疏向量稠密化, 多层神经网络进行优化目标拟合等一系列深度学习在推荐系统中的应用问题, 为后面研究打下了良好的基础。 该模型的结构如下:

这就是DeepCrossing的结构了, 比较清晰和简单, 没有引入特殊的模型结构, 只是常规的Embedding+多层神经网络。但这个网络模型的出现, 有革命意义。 DeepCrossing模型中没有任何人工特征工程的参与, 只需要清洗一下, 原始特征经Embedding后输入神经网络层, 自主交叉和学习。 相比于FM, FFM只具备二阶特征交叉能力的模型, DeepCrossing可以通过调整神经网络的深度进行特征之间的“深度交叉”, 这也是Deep Crossing名称的由来。

筋斗云:AI上推荐 之 AutoRec与Deep Crossing模型(改变神经网络的复杂程度)

2.2 NeuralCF Model

Neural CF是2017年新加坡国立大学的研究人员提出的一个模型, 提出的动机就是看着MF的内积操作比较简单, 表达能力不强, 而此时正是深度学习的浪潮啊, 所以作者就用一个“多层的神经网络+输出层”替换了矩阵分解里面的内积操作, 这样做一是让用户向量和物品向量做更充分的交叉, 得到更多有价值的特征组合信息。 二是引入更多的非线性特征, 让模型的表达能力更强。 模型如下:

该模型的优缺点:

  • 优点: 表达能力加强版的矩阵分解
  • 局限: 只用了用户和物品的id特征, 没有加入更多其他特征

筋斗云: AI上推荐 NCF模型

2.3 Product-based Neural Networks

该模型是2016年上海交大团队提出的一个模型, PNN模型在输入、Embedding层, 多层神经网络及最后的输出层与DeepCrossing没有区别, 唯一的就是Stacking层换成了这里的Product层, 结构如下:

该模型的提出是为了研究特征之间的交叉方式, DeepCrossing模型是加深了网络的层数, 但是不同特征的embedding向量它统一放入了一个全连接层里面去学习, 这可能会丢失掉一些信息, 比如可能有特征之间一点关系也没有, 有特征之间关系非常相似, 这种在DeepCrossing之中是没法学习到的。 所以PNN 模型用了Product层替换了原来的stacking层, 在这里面主要就是两两特征的外积和内积交叉。这一块的内容我已经更新到博客:

  • 优点: 提高特征交叉能力, 使得模型学习特征有了针对性
  • 局限: “外积”操作一定程度上会影响表达能力

筋斗云: AI上推荐 PNN模型(改变特征交叉方式)

2.4 Wide&Deep Networks

这是谷歌在2016年提出的一个经典模型, 该模型在深度学习的模型中处在了非常重要的地位,它将线性模型与DNN很好的结合起来,在提高模型泛化能力的同时,兼顾模型的记忆性。Wide&Deep这种线性模型与DNN的并行连接模式,后来成为推荐领域的经典模式, 奠定了后面深度学习模型的基础。具体的结构如下: 该模型取得成功的关键在于它的两个特色:

  • 抓住业务问题的本质特点, 能够融合传统模型的记忆能力和深度模型的泛化能力
  • 结构简单, 容易在工程上实现,训练和部署

筋斗云:AI上推荐 之 Wide&Deep与Deep&Cross模型(记忆与泛化并存的华丽转身)

2.5 Deep&Cross NetWork(DCN)

这是2017年, 斯坦福大学和谷歌的研究人员在ADKDD会议上提出的模型, 该模型针对W&D的wide部分进行了改进, 因为Wide部分有一个不足就是需要人工进行特征的组合筛选, 过程繁琐且需要经验, 2阶的FM模型在线性的时间复杂度中自动进行特征交互,但是这些特征交互的表现能力并不够,并且随着阶数的上升,模型复杂度会大幅度提高。于是乎,作者用一个Cross Network替换掉了Wide部分,来自动进行特征之间的交叉,并且网络的时间和空间复杂度都是线性的。 通过与Deep部分相结合,构成了深度交叉网络(Deep & Cross Network),简称DCN。模型结构如下:

Deep&Cross的设计思路相比于W&D并没有本质上的改变,但是Cross交叉网络的引进使得模型的记忆部分的能力更加强大了。具体的可以参考博客:

筋斗云:AI上推荐 之 Wide&Deep与Deep&Cross模型(记忆与泛化并存的华丽转身)

2.6 DeepFM Networks

这是2017年哈工大和华为公司联合提出的一个模型,CTR预测任务中, 高阶和低阶特征的学习都非常的重要, 线性模型虽然简单,但是没法学习交叉特征且特征工程是个经验活,而FM考虑了低阶交叉, 深度学习模型有着天然的学习特征之间高阶交叉的能力,但是有些深度学习模型却忽略了只顾着学习泛化而忽略了记忆能力,也就是他们一般学习了特征之间的高阶交叉信息而忽略了低阶交叉的重要性。 比如PNN, FNN, 等。 D&W模型架构同时考虑了记忆和泛化,但是wide的部分需要进行特征工程, 所以为了去掉特征工程的繁琐细节,实现一个端到端的CTR预测模型,也为了同时兼顾低阶和高阶交叉特征信息的学习, 该paper,作者提出了DeepFM模型, 这个模型基于了W&D模型,组合了FM和DNN, 把FM的低阶交叉和DNN的高阶交叉学习做到了各司其职且物尽其用,最后做了很多的对比实验证明了该模型要比之前的LR, FM, PNN, FNN, W&D等模型都要好。模型结构如下:

DeepFM的思路还是很简单的, 但是起的作用也是非常大的, 所以感觉也是一个非常经典的深度组合模型了, 关于该模型的具体细节,具体可以参考我的博客:

筋斗云:AI上推荐 之 FNN、DeepFM与NFM(FM在深度学习中的身影重现)

2.7 NFM Networks

这是2017年由新加坡国立大学的何向南教授等人在SIGIR会议上提出的一个模型, 主要是针对FM的一些不足进行改进,主要包括线性模型的局限以及无法进行高阶特征交叉,所以作者认为FM无法胜任生活中各种具有复杂结构和规律性的真实数据,尽管当前有了各种FM的变体改进,但仍然局限于线性表达和二阶交互。所以作者在这里提出了一种将FM融合进DNN的策略,通过一个核心结构特征交叉池化层,使得FM与DNN进行了完美衔接,这样就组合了FM的建模低阶特征交互能力和DNN学习高阶特征交互和非线性的能力,得到了NFM模型。由于FM可以在底层学习更多的特征交互信息,这样在DNN学习高阶交互的时候,用比较简单的结构就可以学习到,所以NFM模型不仅兼顾了低阶和高阶特征学习, 线性和非线性学习,并且训练效率和速度上也也比之前的W&D或者Deep Crossing等模型好。该模型还有一个较大的优势就是适合高维稀疏的数据场景。模型结构如下:

NFM的思路也是FM+DNN的组合, 只不过这里提出了一种新的连接结构特征交叉池化, 文章传输了一个挺有趣的想法,就是如果底层的模块能够捕捉到更多的交互信息,那么只需要用很浅层的DNN就能达到很好的效果。 关于模型的具体细节,可以参考我的博客。

筋斗云:AI上推荐 之 FNN、DeepFM与NFM(FM在深度学习中的身影重现)

2.8 AFM Networks

这个是2017年浙江大学和新加坡国立大学研究员提出的一个模型, 依然来自何向南教授的团队, 这篇文章又使用了一个新的结构Attention对传统的FM进行改进, FM非常擅长学习特征之间的二阶交互, 但是存在的一个问题就是FM把所有交互的特征同等的对待, 即认为这些交互特征对于预测目标来说的重要程度一样, 这个在作者看来是FM的一个缺点所在, 所以使用了Attention结构来改进FM, 通过一个注意力网络对于每个特征交互根据对预测结果的重要程度进行了加权, 进一步增强了模型的表达,并且也增加了模型的可解释性。这个模型可以看做是NFM的延伸, 和NFM是从两个不同的方向改进了FM, 但是又可以结合起来, 因为这个模型就是在NFM的基础上, 在特征交叉层与池化层之间加入了一个注意力网络对特征交叉层的交互特征进行了加权,然后进入了池化层。 不过这次AFM这里没有在池化层后面加入DNN了。本篇文章最大的创新就是注意力网络, 使得特征交互有了一个重要性区分, 更加符合真实的业务场景。

AFM这里的核心创新点,就是在原来NFM的基础上进入了新的模块注意力机制, 关于该模型的具体细节,可以参考下面的博客。

筋斗云:AI上推荐 之 AFM与DIN模型(当推荐系统遇上了注意力机制)

2.9 Deep Interest Networks

这是2018年阿里在KDD上的一个模型, DIN模型是基于真实的业务场景搞的, 解决的痛点是深度学习模型无法表达用户多样化的兴趣。 它可以通过考虑【给定的候选广告】和【用户的历史行为】的相关性,来计算用户兴趣的表示向量。具体来说就是通过引入局部激活单元,通过软搜索历史行为的相关部分来关注相关的用户兴趣,并采用加权和来获得有关候选广告的用户兴趣的表示。与候选广告相关性较高的行为会获得较高的激活权重,并支配着用户兴趣。该表示向量在不同广告上有所不同,大大提高了模型的表达能力。 这个模型我一直在强调应用场景, 是因为并不是任何时候都适合这个模型的,很大一个前提是丰富的用户历史行为数据。

关于DIN的具体细节, 可以参考我下面的博客。


筋斗云:AI上推荐 之 AFM与DIN模型(当推荐系统遇上了注意力机制)

2.10 Deep Interest Evolution Network

DeepInterestEvolutionNetwork(深度进化网络)是阿里2019年提出的模型, 是上一个DIN的演化版本。 该模型的创新点就是“兴趣进化网络”, 在这里面用序列模型模拟了用户兴趣的进化过程,能模拟用户的演化过程在很多推荐场景中是非常重要的。于是乎,为了更好的利用序列信息, 该网络进行了序列模型与推荐系统的尝试,最后形成了这样一个能动态模拟用户兴趣变化的一个网络机制。 这个网络机制主要分为兴趣提取层和兴趣演化层, 兴趣提取层干的事情就是从连续的用户行为中提取一系列的兴趣动态, 使用了GRU网络并提出了新的一种训练网络的方法。 兴趣进化层通过与注意力机制结合, 使得模型能够更有针对性的模拟与目标广告相关的兴趣进化路径。在兴趣进化层部分, 提出了一种新的结构单元AUGRU,就是在原来GRU的基础上,改变了更新门的计算方式。 这就是整个网络的核心内容了。

关于网络的具体细节,依然是参考下面的博客。

筋斗云:AI上推荐 之 DIEN模型(序列模型与推荐系统的花火碰撞)

2.11 Deep Session Interest Network

DSIN阿里2019年提出的新模型,全称是Deep Session Interest Network(深度会话兴趣网络), 重点在这个Session上,这个是在DIEN的基础上又进行的一次演化,这个模型的改进出发点依然是如何通过用户的历史点击行为,从里面更好的提取用户的兴趣以及兴趣的演化过程,DSIN从行为序列的组成结构会话的角度去进行用户兴趣的提取和演化过程的学习,在这个过程中用到了一些新的结构,比如Transformer中的多头注意力,比如双向LSTM结构, 再比如前面的局部Attention结构。 主要分为会话兴趣分割层,会话兴趣提取层,会话兴趣交互层以及局部激活。结构如下:

关于网络的具体细节,依然是参考下面的博客。

筋斗云:AI上推荐 之 DSIN模型(阿里DIEN之上的再探索,Transformer来了)

2.12 eXtreme DeepFM

xDeepFM是2018年中科大联合微软在KDD上提出的一个模型,这个模型的改进出发点依然是如何更好的学习特征之间的高阶交互作用,从而挖掘更多的交互信息。而基于这样的动机,作者提出了又一个更powerful的网络来完成特征间的高阶显性交互,这个网络叫做 这个网络叫做CIN(Compressed Interaction Network),这个网络也是xDeepFM的亮点或者核心创新点了。xDeepFM的模型架构依然是w&D结构,更好的理解方式就是用这个CIN网络代替了DCN里面的Cross Network, 这样使得该网络同时能够显性和隐性的学习特征的高阶交互(显性由CIN完成,隐性由DNN完成)。模型结构如下:

关于网络的具体细节,依然是参考下面的博客。

筋斗云:AI上推荐 之 xDeepFM模型(显隐性高阶特征交互的组合策略)_Miracle8070-CSDN博客

2.13 FiBiNet

FiBiNET(Feature Importance and Bilinear feature Interaction)是2019年发表在RecSys(ACM组织的在推荐系统领域的专会)的模型,来自新浪微博张俊林老师的团队。 这个模型如果从模型演化的角度来看, 主要是在特征重要性以及特征之间交互上做出了探索, 主要是通过SENET layer对不同的特征,根据对预测目标的重要性进行加权, 另外一个就是在特征embedding交互上面提出了一种双线性特征交互的方式, 文章简单明了,通俗易懂。模型结构如下:

关于网络的细节, 依然是参考下面的博客。

筋斗云:AI上推荐 之 FiBiNET模型(特征重要性选择与双线性特征交叉)

3. 附加

3.1 基于内容的推荐算法

这是一种比较简单的推荐方法,基于内容的推荐方法是非常直接的,它以物品的内容描述信息为依据来做出的推荐,本质上是基于对物品和用户自身的特征或属性的直接分析和计算。例如,假设已知电影A是一部喜剧,而恰巧我们得知某个用户喜欢看喜剧电影,那么我们基于这样的已知信息,就可以将电影A推荐给该用户。具体实现步骤:

  • 构建物品画像(主要包括物品的分类信息,标题, 各种属性等等)
  • 构建用户画像(主要包括用户的喜好, 行为的偏好, 基本的人口学属性,活跃程度,风控维度)
  • 根据用户的兴趣, 去找相应的物品, 实施推荐。

筋斗云: AI上推荐 之 基于内容的推荐(ContentBasedRecommend)

3.2 基于回归模型的推荐算法(待更)

3.3 基于关联规则的推荐算法(待更)

参考:

ezoic increase your site revenue

About

该仓库尝试整理推荐系统领域的一些经典算法模型


Languages

Language:Jupyter Notebook 99.0%Language:Python 1.0%Language:Perl 0.0%Language:Shell 0.0%