你好,我是王喆,今天,我们来学习协同过滤的深度学习进化版本,NeuralCF。
在第15讲里,我们学习了最经典的推荐算法,协同过滤。在前深度学习的时代,协同过滤曾经大放异彩,但随着技术的发展,协同过滤相比深度学习模型的弊端就日益显现出来了,因为它是通过直接利用非常稀疏的共现矩阵进行预测的,所以模型的泛化能力非常弱,遇到历史行为非常少的用户,就没法产生准确的推荐结果了。
虽然,我们可以通过矩阵分解算法增强它的泛化能力,但因为矩阵分解是利用非常简单的内积方式来处理用户向量和物品向量的交叉问题的,所以,它的拟合能力也比较弱。这该怎么办呢?不是说深度学习模型的拟合能力都很强吗?我们能不能利用深度学习来改进协同过滤算法呢?
当然是可以的。2017年,新加坡国立的研究者就使用深度学习网络来改进了传统的协同过滤算法,取名NeuralCF(神经网络协同过滤)。NeuralCF大大提高了协同过滤算法的泛化能力和拟合能力,让这个经典的推荐算法又重新在深度学习时代焕发生机。这节课,我们就一起来学习并实现NeuralCF!
在学习NeuralCF之前,我们先来简单回顾一下协同过滤和矩阵分解的原理。协同过滤是利用用户和物品之间的交互行为历史,构建出一个像图1左一样的共现矩阵。在共现矩阵的基础上,利用每一行的用户向量相似性,找到相似用户,再利用相似用户喜欢的物品进行推荐。
矩阵分解则进一步加强了协同过滤的泛化能力,它把协同过滤中的共现矩阵分解成了用户矩阵和物品矩阵,从用户矩阵中提取出用户隐向量,从物品矩阵中提取出物品隐向量,再利用它们之间的内积相似性进行推荐排序。如果用神经网络的思路来理解矩阵分解,它的结构图就是图2这样的。
图2 中的输入层是由用户ID和物品ID生成的One-hot向量,Embedding层是把One-hot向量转化成稠密的Embedding向量表达,这部分就是矩阵分解中的用户隐向量和物品隐向量。输出层使用了用户隐向量和物品隐向量的内积作为最终预测得分,之后通过跟目标得分对比,进行反向梯度传播,更新整个网络。
把矩阵分解神经网络化之后,把它跟Embedding+MLP以及Wide&Deep模型做对比,我们可以一眼看出网络中的薄弱环节:矩阵分解在Embedding层之上的操作好像过于简单了,就是直接利用内积得出最终结果。这会导致特征之间还没有充分交叉就直接输出结果,模型会有欠拟合的风险。针对这一弱点,NeuralCF对矩阵分解进行了改进,它的结构图是图3这样的。
我想你一定可以一眼看出它们的区别,那就是NeuralCF用一个多层的神经网络替代掉了原来简单的点积操作。这样就可以让用户和物品隐向量之间进行充分的交叉,提高模型整体的拟合能力。
有了之前实现矩阵分解和深度学习模型的经验,我想你理解起来NeuralCF肯定不会有困难。事实上,NeuralCF的模型结构之中,蕴含了一个非常有价值的思想,就是我们可以把模型分成用户侧模型和物品侧模型两部分,然后用互操作层把这两部分联合起来,产生最后的预测得分。
这里的用户侧模型结构和物品侧模型结构,可以是简单的Embedding层,也可以是复杂的神经网络结构,最后的互操作层可以是简单的点积操作,也可以是比较复杂的MLP结构。但只要是这种物品侧模型+用户侧模型+互操作层的模型结构,我们把它统称为“双塔模型”结构。
图4就是一个典型“双塔模型”的抽象结构。它的名字形象地解释了它的结构组成,两侧的模型结构就像两个高塔一样,而最上面的互操作层则像两个塔尖搭建起的空中走廊,负责两侧信息的沟通。
对于NerualCF来说,它只利用了用户ID作为“用户塔”的输入特征,用物品ID作为“物品塔”的输入特征。事实上,我们完全可以把其他用户和物品相关的特征也分别放入用户塔和物品塔,让模型能够学到的信息更全面。比如说,YouTube在构建用于召回层的双塔模型时,就分别在用户侧和物品侧输入了多种不同的特征,如图5所示。
我们看到,YouTube召回双塔模型的用户侧特征包括了用户正在观看的视频ID、频道ID(图中的seed features)、该视频的观看数、被喜欢的次数,以及用户历史观看过的视频ID等等。物品侧的特征包括了候选视频的ID、频道ID、被观看次数、被喜欢次数等等。在经过了多层ReLU神经网络的学习之后,双塔模型最终通过softmax输出层连接两部分,输出最终预测分数。
看到这里,你可能会有疑问,这个双塔模型相比我们之前学过的Embedding MLP和Wide&Deep有什么优势呢?其实在实际工作中,双塔模型最重要的优势就在于它易上线、易服务。为什么这么说呢?
你注意看一下物品塔和用户塔最顶端的那层神经元,那层神经元的输出其实就是一个全新的物品Embedding和用户Embedding。拿图4来说,物品塔的输入特征向量是x,经过物品塔的一系列变换,生成了向量u(x),那么这个u(x)就是这个物品的Embedding向量。同理,v(y)是用户y的Embedding向量,这时,我们就可以把u(x)和v(y)存入特征数据库,这样一来,线上服务的时候,我们只要把u(x)和v(y)取出来,再对它们做简单的互操作层运算就可以得出最后的模型预估结果了!
所以使用双塔模型,我们不用把整个模型都部署上线,只需要预存物品塔和用户塔的输出,以及在线上实现互操作层就可以了。如果这个互操作层是点积操作,那么这个实现可以说没有任何难度,这是实际应用中非常容易落地的,也是工程师们喜闻乐见的,这也正是双塔模型在业界巨大的优势所在。
正是因为这样的优势,双塔模型被广泛地应用在YouTube、Facebook、百度等各大公司的推荐场景中,持续发挥着它的能量。
熟悉了NerualCF和双塔模型的结构之后,我们就可以使用TensorFlow来实现它们了。通过之前Embedding+MLP模型以及Wide&Deep模型的实现,我想你对TensorFlow中读取数据,定义特征,训练模型的过程肯定已经驾轻就熟了。我们只要更改之前代码中模型定义的部分,就可以实现NeuralCF。具体的代码你可以参考SparrowRecsys项目中的NeuralCF.py,我只贴出了NeuralCF模型部分的实现。下面,我们重点讲解一下它们的实现思路。
# neural cf model arch two. only embedding in each tower, then MLP as the interaction layers
def neural_cf_model_1(feature_inputs, item_feature_columns, user_feature_columns, hidden_units):
# 物品侧特征层
item_tower = tf.keras.layers.DenseFeatures(item_feature_columns)(feature_inputs)
# 用户侧特征层
user_tower = tf.keras.layers.DenseFeatures(user_feature_columns)(feature_inputs)
# 连接层及后续多层神经网络
interact_layer = tf.keras.layers.concatenate([item_tower, user_tower])
for num_nodes in hidden_units:
interact_layer = tf.keras.layers.Dense(num_nodes, activation='relu')(interact_layer)
# sigmoid单神经元输出层
output_layer = tf.keras.layers.Dense(1, activation='sigmoid')(interact_layer)
# 定义keras模型
neural_cf_model = tf.keras.Model(feature_inputs, output_layer)
return neural_cf_model
你可以看到代码中定义的生成NeuralCF模型的函数,它接收了四个输入变量。其中 feature_inputs
代表着所有的模型输入, item_feature_columns
和 user_feature_columns
分别包含了物品侧和用户侧的特征。在训练时,如果我们只在 item_feature_columns
中放入 movie_id
,在 user_feature_columns
放入 user_id,
就是NeuralCF的经典实现了。
通过DenseFeatures层创建好用户侧和物品侧输入层之后,我们会再利用concatenate层将二者连接起来,然后输入多层神经网络进行训练。如果想要定义多层神经网络的层数和神经元数量,我们可以通过设置 hidden_units
数组来实现。
除了经典的NeuralCF实现,我还基于双塔模型的原理实现了一个NeuralCF的双塔版本。你可以参考下面的模型定义。与上面的经典NerualCF实现不同,我把多层神经网络操作放到了物品塔和用户塔内部,让塔内的特征进行充分交叉,最后使用内积层作为物品塔和用户塔的交互层。具体的步骤你可以参考下面代码中的注释,实现过程很好理解,我就不再赘述了。
# neural cf model arch one. embedding+MLP in each tower, then dot product layer as the output
def neural_cf_model_2(feature_inputs, item_feature_columns, user_feature_columns, hidden_units):
# 物品侧输入特征层
item_tower = tf.keras.layers.DenseFeatures(item_feature_columns)(feature_inputs)
# 物品塔结构
for num_nodes in hidden_units:
item_tower = tf.keras.layers.Dense(num_nodes, activation='relu')(item_tower)
# 用户侧输入特征层
user_tower = tf.keras.layers.DenseFeatures(user_feature_columns)(feature_inputs)
# 用户塔结构
for num_nodes in hidden_units:
user_tower = tf.keras.layers.Dense(num_nodes, activation='relu')(user_tower)
# 使用内积操作交互物品塔和用户塔,产生最后输出
output = tf.keras.layers.Dot(axes=1)([item_tower, user_tower])
# 定义keras模型
neural_cf_model = tf.keras.Model(feature_inputs, output)
return neural_cf_model
在实现了Embedding MLP、Wide&Deep和NeuralCF之后,相信你可以感觉到,实现甚至创造一个深度学习模型并不难,基于TensorFlow提供的Keras接口,我们可以根据我们的设计思路,像搭积木一样实现模型的不同结构,以此来验证我们的想法,这也正是深度推荐模型的魅力和优势。相信随着课程的进展,你不仅对这一点能够有更深刻的感受,同时,你设计和实现模型的能力也会进一步加强。
这节课,我们首先学习了经典推荐算法协同过滤的深度学习进化版本NerualCF。相比于矩阵分解算法,NeuralCF用一个多层的神经网络,替代了矩阵分解算法中简单的点积操作,让用户和物品隐向量之间进行充分的交叉。这种通过改进物品隐向量和用户隐向量互操作层的方法,大大增加了模型的拟合能力。
利用NerualCF的思想,我们进一步学习了双塔模型。它通过丰富物品侧和用户侧的特征,让模型能够融入除了用户ID和物品ID外更丰富的信息。除此之外,双塔模型最大的优势在于模型服务的便捷性,由于最终的互操作层是简单的内积操作或浅层神经网络。因此,我们可以把物品塔的输出当作物品Embedding,用户塔的输出当作用户Embedding存入特征数据库,在线上只要实现简单的互操作过程就可以了。
最后,我们继续使用TensorFlow实现了NerualCF和双塔模型,相信你能进一步感受到利用TensorFlow构建深度学习模型的便捷性,以及它和传统推荐模型相比,在模型结构灵活性上的巨大优势。
为了帮助你复习,我把刚才说的这些重点内容总结在了一张图里,你可以看看。
对于我们这节课学习的双塔模型来说,把物品侧的Embedding和用户侧的Embedding存起来,就可以进行线上服务了。但如果我们把一些场景特征,比如当前时间、当前地点加到用户侧或者物品侧,那我们还能用这种方式进行模型服务吗?为什么?
欢迎把你的思考和疑惑写在留言区,也欢迎你把这节课转发出去,我们下节课见!