You are on page 1of 4

如果你正在寻找一个高质量的小说评论文本,那么HelpWriting.

net是一个值得推荐的网
站。它提供了各种各样的小说评论文本,让你可以轻松地找到你感兴趣的小说。
在HelpWriting.net,你可以找到各种类型的小说评论文本,从浪漫小说到悬疑小说,从
青春文学到历史小说,应有尽有。它们都是由经验丰富的作者撰写的,保证质量和可
靠性。
此外,HelpWriting.net的订购流程也非常简单和方便。你只需要在网站上选择你感兴趣
的小说评论文本,填写必要的信息,然后付款即可。你可以选择电子版或者纸质版,
取决于你的喜好和需求。
另外,HelpWriting.net也提供了快速的交付服务。你可以在几天内收到你订购的小说评
论文本,让你可以及时开始阅读和使用。
总的来说,如果你需要高质量的小说评论文本,HelpWriting.net是一个值得信赖的
选择。它提供了丰富的选择,简单的订购流程和快速的交付服务。赶快访问
HelpWriting.net,开始订购你感兴趣的小说评论文本吧!
简单介绍下方法,框架图其实基本一目了然 (前面ConvMF介绍很详细了): 其实这里的
动机解释的话,大概是这样。 有些用户总喜欢写一些无用的评论,有些用户则倾向于
写信息量高的评论,所以融入user的ID embedding 能够包含用户本身usefulness的信息,
具体的计算公式,以item为例: 这其中\mathbf{X}就是商品的评论文档,而\mathbf{W}则
是卷积的参数,包括卷积核和偏置。至于CNN的用法,这里就不再赘述了,毕竟现在
看来还是比较简单,利用word embedding将词映射为向量,之后卷积,最大池化得
到feature vector。完整的框架图如下: 本文主要总结下近几年结合评论文本的推荐系
统 (review-based recommendation),主要侧重基于深度学习的模型,并且开源了一个代
码库: Neu-Review-Rec 主要完成了数据处理,模型构建,baseline复现等完整的Pipeline。[
长文预警] PARL: Let Strangers Speak Out What You Like这篇文章,出发点很简单, 即rating
是sparse的, review也存在sparse的问题,尤其是很多用户、商品的评论很少的时候。本
文提出了一种很有意思的的想法,就是利用其他人的review来辅助对自己的建模,就2
步: 这大概是较早的探索卷积神经网络在review-based rec上的工作,将CNN与概率矩阵
分解(PMF)结合起来进行评分预测,值得注意的是,本文仅仅利用了商品的评论
数据,用户的话,还是只有评分数据。这与后面的大部分用户-商品的平行结构是不
同的。 文中先假设有K个aspect, 为每个aspect定义了一个词映射矩阵W_a,用来更新同
一个词在不同的aspect下的embedding: 很多推荐系统工作开始考虑利用评论信息为用户
和商品进行建模,在介绍具体的工作前,先简单介绍下常用的数据集,评价指标等。 (4)
再经过一番点积,串联等操作,得到用户和商品的基于评论的特征:z_{review} = [(t_u
\odot t_i) \oplus t_u \oplus t_i],同时再结合上用户和商品的ID embedding 或者叫 interaction
feature 得到rating feature: z_{int}=[(p_u \odot p_i) \oplus p_u \oplus p_i]。其中p_u和p_i是ID
embedding。 基于评论文本的推荐系统其实一定程度上跟NLP技术的结合更多,不过场
景和动机都是出自推荐领域,本身在实际应用中远少于一些CTR系列的推荐工作,属
于一个小领域。上面的几篇文章算是这个领域的有代表的,当然有很多其他优秀的
文章由于时间,精力等原因并没有介绍进来,可能后续会继续补充。 这篇文章在
DeepCoNN的基础上引入了词级别的attention,不同的词对于建模用户和商品的重要性
是不同的, 下面介绍的几篇文章都是将用户或者商品的所有评论进行合并成一个长
文档然后进行建模的。
有了CNN,相当于在PMF的基础上多了一个W参数,这样在最后的损失函数上,就会
变成下面的: 模型的第二部分就是根据两个矩阵P_{u} 和Q_{i} 来考虑用户和商品的交
互了。基本的出发点就是用户在面对不同商品的时候,不同apsect的重要性是不一样
的。 这个也很直观,比如用户在对衣服时,可能注重价格,在购买数码产品时,可能
注重售后等。反之亦然,即:同一个商品在面对不同的用户时候,它的不同aspect的重要
性也是不同的。在介绍ConvMF前,先简单介绍下基于评分矩阵的PMF。一般情况下,
评分预测任务首先需要学习用户和商品的feature, 即两个latent feature matrix: U \in R^{N
\times k}, V \in R^{M \times k}, 其中U,V分别为N个用户和M个商品的特征矩阵。一般情
况下,利用已有的观测矩阵向量,可以给出条件概率: p_{u,a} = \sum_{i=1}^nattn_{u,a}[i]
M_{u,a}[i] \\ 电商网站都允许用户为商品填写评论,这些文本评论能够体现出用户的偏
好以及商品特征信息,是一种语义信息丰富的隐式特征。 相比于单纯的利用显式评
分特征,文本信息一方面可以弥补评分稀疏性的问题,另一方面在推荐系统的可解
释方面也能够做的更好。 a^{'} = G(\max_{col}{(s)})a, b^{'} = G(\max_{row}{(s)}) b \\ (4)
Rating Prediction: 本文考虑到传统的rating feature (即ID Embedding) 用到最后的评分预
测中,即: r_{u,i} = \sum_{a=1}^K \beta_{u,a} \cdot \beta_{i,a} \cdot p_{u,a}q_{i,a} + b_u +b_i
+b_0 \\ 这篇文章应该算是第一篇完全基于深度学习的review-based rec模型,并且设计的
用户和商品平行结构 (类似文本语义匹配的双塔结构)也是后面很多工作的基石。
其实这种方法也是深度学习与概率图模型的结合的一种很直接的方式,用深度模型
学到的特征替换某一分布的参数,可以理解为先验。 最后是预测层使用的是改进的
LFM,将\beta_u和\beta_i融合: 上面介绍的只是一个pointer得到一条review,文中为了获
取更丰富的表示,使用了multi pointer, 最终可以为每个用户和商品得到K个reviews,这
里又类似multi-head了。 最终本文将这2K个特征(user+item) 进行拼接,得到最终
的feature,rating prediction使用的是FM进行评分预测。 H_u=\phi(P_uW_x+S^T(Q_iWy)),
\beta_u = softmax(H_uv_x) \\ 其中商品对应的高斯分布的均值将PMF与CNN的桥梁。 在最
终优化的时候,很显然CNN的参数W不能得到解析解,因此这两部分参数还是需要分
开优化。在固定U,V的前提下,使用BP更新W 。固定W 的条件下, 使用坐标梯度下降即
可更新U后者V,直到收敛。 (2) 考虑到要挑出最重要的review,因此一种直观的表示,
需要根据相关性矩阵s 得到一个one-hot的vector,其中的那个1就是最重要的review,为了
达到这个目的,本文使用Gumbel-Max,具体的原理这里不再赘述: (4) Rating Prediction: 本
文考虑到传统的rating feature (即ID Embedding) 用到最后的评分预测中,即: (2) 使用PMF
分解评分矩阵, 得到用户和商品的latent feature 分别表示为\hat{U}, \hat{V}。 下面将会
按照上述的分类对已有工作进行介绍,此外最后附上几篇角度比较新奇的工作。 首
先编码层ANR没有使用CNN或者RNN等抽取文本评论的特征,而是使用一种结合了
aspect信息的类似local attention的方法,出发点就是同一个词或者同一个句子在不同
的aspect下含义可能是不一样的,具体如下:简单介绍下方法,框架图其实基本一目了
然 (前面ConvMF介绍很详细了): 其中U,V也都利用均值为\mathbf{0} (向量) 的高斯分
布来刻画: 基于评论文本的推荐系统其实一定程度上跟NLP技术的结合更多,不过场
景和动机都是出自推荐领域,本身在实际应用中远少于一些CTR系列的推荐工作,属
于一个小领域。上面的几篇文章算是这个领域的有代表的,当然有很多其他优秀的
文章由于时间,精力等原因并没有介绍进来,可能后续会继续补充。 具体到评论信息
的话,同一个词在不同的上下文下或许会有不同的语义信息,因此在建模评论文档
的时候,需要把这个考虑进去。

You might also like