经典推荐模型:Deep&Cross
本文介绍Deep&Cross模型,它沿用了Wide&Deep模型的设计思路,并且将Wide&Deep的Wide部分使用Cross Network进行了替换,解决了Wide&Deep需要人工选取交叉特征的麻烦。 Deep&Cross模型结构如下: 从下往上看。 将稀疏特征进行Embedding,将得到的结果与稠密特征(一般指的是数值型特征)进行拼接,这就是网络的输入$x_0$. $x_0$再往上兵分两路,左路是Cross Network部分,右路是Deep部分。 先看左路。它是由多个Cross Layer构成的,Cross Layer执行的前向运算如下: 该运算可视化如下: 可以看到 ,$x_0$在每一层中都有参与。 事实上,随着Cross Layer的层数增加,原始输入$x_0$各个位置元素交叉的阶数也在增加,具体参见如下推导: 正因如此,Cross Network相比于Wide&Deep中的Wide部分拥有更强的特征交叉能力,而且,每一个Cross...
经典推荐模型:Wide&Deep
本文介绍谷歌于2016年提出的Wide&Deep模型,它兼具记忆能力与泛化能力,在谷歌商店的app推荐中效果显著。 Wide&Deep由记忆能力较强的Wide部分和泛化能力较强的Deep部分组成,接下来我们分别介绍这两部分,然后将它们组合起来,得到Wide&Deep. WideWide部分是一个(广义)线性模型,比如逻辑回归,具有较强的记忆能力。 输入这种模型的特征可以通过交互产生新的有用特征,然后将这些新的特征与原始特征共同输入模型进行预测。 举个栗子,假设输入逻辑回归模型的特征中含有”已安装应用,在应用商店看到的应用”这俩特征,那么我们可以根据这俩特征得到一个新的交互特征:”已安装应用=xxx 并且 在应用商店看到的应用=yyy”. 使用上述方法构造特征,训练模型。当待预测的样本特征中也含有类似上述交互特征时,由于在训练集中存在相同特征,那么模型就能很快定位到训练集中出现相同模式时的标签。 假设训练集中出现”已安装应用=Youtube 并且...
经典推荐模型:PNN
之前介绍的NeuralCF使用神经网络代替了协同过滤中的点积操作,并取得了一定的进步。但是,它只使用了用户-物品的共现矩阵进行建模,而忽略了其它特征,比如用户的性别、年龄等。 本文将要介绍PNN在模型中加入了更多的特征,并设计了更为精细的特征交叉方式。 PNN简介PNN,全称是Product-based Neural Networks,这里的Product特指PNN中的Product层。如果将Product层所做操作替换成简单的拼接(concat),那么就变成了我们之前介绍的Deep Crossing。因此,PNN最大的创新就在于Product层。 PNN总体结构PNN的结构如下图所示: 从下往上看。 Input...
经典推荐模型:DeepCrossing
众所周知,好的特征对于模型是至关重要的。在深度学习大行其道之前,往往采用手工设计特征的方法,在原始特征的基础上,衍生出一些有效特征,来帮助模型更好的学习。 当深度学习时代来临后,以上过程可以交由神经网络实现了自动化,这一优势最先在语音、图形识别等领域大放异彩。 在推荐领域,Deep Crossing于2016年由于微软提出,它实现了特征组合的自动化。 Deep...
经典推荐模型:AutoRec
在之前,我们介绍了协同过滤模型,该模型根据用户的行为历史生成用户-物品共现矩阵,利用用户相似性和物品相似性进行推荐。 本文要介绍的AutoRec也使用了用户-物品共现矩阵,但不同于协同过滤模型之处在于,AutoRec借鉴了自编码器(AutoEncoder)的思想,对用户向量或物品向量进行了自编码,利用自编码结果得到用户对于物品的评分,据此进行推荐排序。 假设共m个用户,n个物品,则共现矩阵的维度为mxn。 以物品的AutoRec(Item based...
深度推荐模型的前夜:MLR
直观理解MLRLS-PLM(Large Scale Piecewise Linear Model),又称MLR(Mixed Logistic Regression),从名字就可以看出,它是多个逻辑回归模型的组合。 对于某一数据集,假设用户特征为性别(男, 女),物品特征为物品类别(键盘,女装),即: 1234性别为男 性别为女 物品类别为键盘 物品类别为女装 是否点击(待预测标签)1 0 1 0 是0 1 0 1 是... 在该数据集上使用MLR时,首先会将该数据集的全部特征划分为若干区域,比如划分为如下4个区域: 1234567性别为男 物品类别为键盘性别为男 物品类别为女装性别为女 物品类别为键盘性别为女 ...
RL基本概念
一、强化学习中的基本概念##state and action policy根据观测到的状态做出决策,以控制Agent运动。 强化学习就是学pocily函数。 pocily函数一般是个概率密度函数,具有随机性。 比如,在玩剪刀石头布时,如果你的出拳策略不随机,那么就有规律可循,当对方观察到这一规律时,你就gg了。 reward强化学习的目标是使得reward更高。 state transition agent environment interaction Randomness in Reinforcement Learning Play the game with AI rewards and returns当前时刻的return定义为当前时刻以及之后时刻reward的总和。 但是时间越久,奖励越不明显,因此对应的权重可以设置小一些: return中的随机性: Action-value functions State-Value Function Value Functions Summary Play the game with...
何为空洞卷积?
卷积再回顾你可能经常看到,两个3x3的卷积核或者单独一个5x5的卷积核的感受野大小是相同的。 那么问题来了: 为何两者的感受野大小会相同呢? 既然相同,那为何大多数时候都选择两个3x3的卷积核呢? 对于第一个问题,可以用特征图尺寸计算公式来验证: 假设输入特征图尺寸为10x10,...