«上一篇
文章快速检索     高级检索
下一篇»
  智能系统学报  2019, Vol. 14 Issue (3): 430-437  DOI: 10.11992/tis.201810032
0

引用本文  

贾中浩, 古天龙, 宾辰忠, 等. 旅游知识图谱特征学习的景点推荐[J]. 智能系统学报, 2019, 14(3): 430-437. DOI: 10.11992/tis.201810032.
JIA Zhonghao, GU Tianlong, BIN Chenzhong, et al. Tourism knowledge-graph feature learning for attraction recommendations[J]. CAAI Transactions on Intelligent Systems, 2019, 14(3): 430-437. DOI: 10.11992/tis.201810032.

基金项目

国家自然科学基金项目(U1711263,U1501252,61572146);广西省自然科学基金项目(2016GXNSFDA380006,AC16380122);广西创新驱动重大专项项目(AA17202024);广西高校中青年教师基础能力提升项目(2018KYD203);广西研究生教育创新计划项目(2019YCXS042,2019YCXS041).

通信作者

宾辰忠. E-mail:binchenzhong@guet.edu.cn

作者简介

贾中浩,男,1995年生,硕士研究生,主要研究方向为机器学习、推荐系统;
古天龙,男,1964年生,教授,博士生导师,博士,主要研究方向为形式化方法、知识工程与符号推理、协议工程与移动计算、可信泛在网络、嵌入式系统。主持国家863计划项目、国家自然科学基金项目、国防预研重点项目、国防预研基金项目等30余项。发表学术论文130余篇,被SCI、EI检索60余篇,出版学术著作3部;
宾辰忠,男,1979年生,讲师,博士研究生, 主要研究方向为数据挖掘、智能推荐

文章历史

收稿日期:2018-10-26
网络出版日期:2019-04-22
旅游知识图谱特征学习的景点推荐
贾中浩 , 古天龙 , 宾辰忠 , 常亮 , 张伟涛 , 朱桂明     
桂林电子科技大学 广西可信软件重点实验室,广西 桂林 541004
摘要:基于知识图谱的推荐算法在多个领域取得了较好的效果,但仍然存在一些问题,如不能有效提取知识图谱中实体关系标签中的特征,推荐准确率会降低。因而提出将网络嵌入方法(network embedding)用于旅游知识图谱的特征提取,使得特征的提取更加充分。通过对旅游知识图谱中不同标签的属性子图独立建模,利用深度学习模型挖掘游客及景点等图节点语义特征,进而获得融合各个标签语义的游客和景点特征向量,最终通过计算游客和景点相关性生成景点推荐列表。通过在真实旅游知识图谱上的实验,验证了利用网络嵌入方法对知识图谱中数据建模后,可以有效提取节点的深层特征。
关键词知识图谱    属性子图    特征学习    神经网络    景点推荐    网络嵌入    推荐算法    深度学习    
Tourism knowledge-graph feature learning for attraction recommendations
JIA Zhonghao , GU Tianlong , BIN Chenzhong , CHANG Liang , ZHANG Weitao , ZHU Guiming     
Guangxi Key Laboratory of Trusted Software, Guilin University of Electronic Technology, Guilin 541004, China
Abstract: The recommendation algorithm based on knowledge graphs has achieved good results in several fields; however, it contains some problems as well. For example, this algorithm cannot effectively extract features from entity relationship tags in the knowledge graph, which reduces its recommendation accuracy. We propose a network embedding method that more fully extracts features from the tourism knowledge graph than the aforementioned method. By independently modeling different label-attribute subgraphs in the tourism knowledge graph and by using a deep learning model to mine node semantic features, such as tourists and scenic spots, we can obtain a feature vector of tourists and attractions that fuses the semantics of various tags. Finally, this method generates a recommended list of scenic spots by calculating the correlation between tourists and scenic spots. Experimental results on a real tourism knowledge graph verify that this network embedding method effectively extracts the deep features of knowledge graph nodes to model the data in the knowledge graph.
Key words: knowledge graph    attribution subgraph    feature learning    neural network    attractions recommendation    network embedding    recommendation algorithm    deep learning    

科技的进步在给人们的生活带来便利的同时,也给人们带来了选择的困扰——如何在庞大而繁琐的知识中获取有价值的信息。推荐系统的出现为解决信息过载问题提供了一条有效途径[1]。但随着大数据时代的到来,传统推荐系统在挖掘数据价值上存在的问题正在限制其性能发挥[2]。传统的推荐方法已经得到广泛的应用,但依旧存在许多问题,如项目冷启动和数据稀疏问题[3-4]。知识图谱[5]的提出为解决大数据下推荐系统的复杂问题带来了技术革新。

利用知识图谱解决推荐问题的技术核心在于如何从丰富的异构数据中有效地建立用户项目之间的相关性。因此,如何更精准地从网络图中对节点间复杂关系建模是基于知识图谱做推荐的一个技术难点。Node2Vec[6]作为一种有效的网络嵌入方法,将灵活的随机游走策略与神经网络模型相结合。但这种方法并不适用于知识图谱,它处理的是一种无标签的网络图。知识图谱是一种特殊的带标签(属性)的图,不同的标签对节点的影响力不同。扩展Node2Vec使其适用于知识图谱的特征学习,通过将知识图谱分割为独立的属性子图,同一标签将在同一个子图中,进而对特定属性的子图独立训练,从而达到区分知识图谱中标签的目的。基于此得到融合各个属性语义的用户和项目的特征向量,最后通过计算用户项目相关性得到推荐列表。

本文提出了一种利用多源公开数据进行旅游知识图谱的构建方法,提出了一种利用景点具有多个属性来构建其属性子图的知识图谱,利用一种随机游走策略对知识图谱(属性子图)进行节点序列的生成,利用一种深度学习模型进行图节点语义的挖掘学习,提出了一种基于游客景点相关性的评分预测算法及其评价方法。

1 相关工作

随着信息科学的发展,互联网平台上的数据呈现爆发式增长,以知识图谱为代表的数据组织模式开始受到工业界和学术界的广泛关注。据估计,Google的知识图谱可以理解超过5亿个实体以及35亿个属性和关系。国内百度、搜狗、阿里等都在自己庞大的数据基础之上构建各自的知识图谱,如百度知心、搜狗知立方以及阿里基于商品及卖家信息构建的商品知识图谱等。由此可见,知识图谱正在引发一场新的技术革命。

1.1 知识图谱

知识图谱的概念由谷歌公司于2012年提出[5]。知识图谱旨在描述真实世界中存在的各种实体或概念,以及它们之间的关联关系[7]。其中,每个实体或概念用一个全局唯一的ID来标识,每个属性-键值对刻画了实体的内在属性,而关系用来连接两个实体,刻画它们之间的关联。依据其覆盖范围,知识图谱可以分为通用知识图谱和专业知识图谱。通用知识图谱注重广度,强调融合更多的实体信息,相较于专业知识图谱,其准确度不够高,典型的如YAGO、DBpedia、Google知识图谱等。通用知识图谱主要应用于智能搜索领域。专业知识图谱描述的目标是特定行业,通常需要依赖特定行业的数据来构建,具有特定的行业意义,与通用知识图谱相比较其描述范围有限,典型的如电影知识库(internet movie database, IMDB)[8]、音乐知识库MusicBrainz[9]等。

在本文工作中,知识图谱用一种由三元组以及三元组之间相互的链接形成的一个网状知识库来表示。这种三元组富含实体以及实体的属性信息。其中节点表示实体,边表示实体之间的关系。以旅游领域为示例,景点实体中主要包含景点等级、价格、适宜游玩时间等主要特征,这些特征总体上可以描述一个景点,利用景点的特征可以得到类似图1所示的一个旅游知识图谱三元组。

Download:
图 1 知识图谱三元组 Fig. 1 Knowledge graph triple
1.2 基于知识图谱的推荐算法

在知识图谱提出后,有相关学者将知识图谱应用于推荐领域并取得了较好的效果。Passant等[10]较早地提出将知识图谱引入到推荐系统中。Oramas 等[11]也引入了开放链接数据库DBpedia,通过DBpedia丰富历史数据集的语义信息,从而提升推荐效果。OstuniV等[12]更进一步融合开放链接数据库中隐含的语义反馈信息,提出基于隐式语义反馈的路径算法(SPrank),基于路径的特征对数据集进行挖掘,以捕获项目之间的复杂关系。Piao等[13]在文献[11]的基础上提出改进的链接数据语义相似距离,同时兼顾了节点之间的距离和路径,更加充分地反映数据的语义信息。

1.3 网络图特征学习

知识图谱解决推荐问题的核心在于如何精准地对知识图谱进行特征学习。最近,网络嵌入方法[14]被用于图的特征学习,并被证明是一种有效的图特征学习方法。Perozzi[15]最早提出DeepWalk,并利用它来对网络图进行特征学习。DeepWalk是以随机的方式在网络图中游走,生成网络图中节点的序列,用生成的序列集合作为训练集来学习网络图中节点的特征。Tu等[16]对DeepWalk的随机游走过程进行了改进,在随机游走的过程中跳过无关的节点,从而更精准地对网络图中的节点进行表示。Grover等[6]针对网络图节点序列的生成提出一种带偏执的随机游走算法,通过设置两个参数pq来控制游走过程,当pq都等于1的时候相当于DeepWalk,q不等于1的时候在深度优先和广度优先之间取得均衡,实验表明,带偏执的随机游走相比于传统的DeepWalk有更好的性能,更加适用于网络图的特征学习。

2 旅游知识图谱的构建 2.1 数据采集

本研究从旅游垂直网站携程网以及百科类网站(百度百科、互动百科、wikidata)上以桂林市为例抓取桂林周边旅游景点信息及游客评分信息。共采集到395个景点、12 398名游客、28 477条景点评分记录以及百科网站中对景点的描述信息。表1为采集信息的样本示例,如第一行表示漓江景区相关信息包括:景点地址、地理位置、景点等级、平均评分、景点类型、适宜游玩时间以及门票价格等。

表 1 数据采集示例 Tab.1 Example of data collection
2.2 构建知识图谱

对采集到的信息进行预处理:删除重复的游客评分记录;选择游客对景点最近的评分作为该游客对该景点的评分;选择景点等级、地理位置、平均评分、景点类型、适宜游玩时间,门票价格等6个属性作为景点的特征;标记评分大于3分的游客与景点之间为喜爱关系;通过数据库工具对采集到的数据进行实体对齐(如桂林市和桂林表示同一个实体)。

通过预处理后的信息构建旅游知识图谱的模式图,包含景点、游客的相关属性以及游客和景点之间的喜爱关系,如图2所示。

Download:
图 2 模式图示例 Fig. 2 Example of a pattern diagram

利用预处理后的数据及设计好的模式图构建旅游知识图谱。旅游知识图谱最终包含383个景点、3 940名游客、19 724条评分记录以及各个景点的6个属性共计22 994个三元组。图3为旅游知识图谱存储于Neo4j中的部分景点、游客及其属性所构成的网络结构。

Download:
图 3 旅游知识图谱示例 Fig. 3 Example of travel knowledge graph
3 基于知识图谱特征学习的景点推荐

基于知识图谱特征学习的景点推荐基本思想是:针对景点具有多个属性,构建属性子图[17]的知识图谱。这样做的好处是不同属性的子图具有不同的语义值。就景点而言,不同的景点可能有相同的等级,但类型或者适宜去游玩的季节可能不一样,如果处理整个知识图谱则完全忽略了景点不同属性的语义。将景点适宜去游玩的季节也考虑进来作为属性子图,因为它提供了丰富的分类。例如漓江可以夏季游玩,但冬季去游玩漓江显然不符合常理。

Node2Vec可以把结构相似和属性值相同的节点聚集在一起的性质,通过带偏执的随机游走策略对旅游知识图谱中每种属性子图进行节点序列生成,将生成的节点序列输入到一个神经网络模型Word2Vec[18]中,对节点序列建模并将其映射到低维空间,得到每个景点在特定属性空间下的特征向量表示,具有相似结构和相同属性的节点的语义值更加相似。

通过知识图谱子图游走训练得到同一节点在不同属性子图中的特征向量表示后,对其6个子图属性特征向量相加并平均,得到融合各个属性语义的所有景点和游客节点的特征向量,该融合向量所表示的语义信息更加全面。利用余弦相似度计算游客与景点相关性分数,将相关性分数归一化处理后得到景点预测评分及推荐列表。图4为推荐流程图。

Download:
图 4 基于知识图谱特征学习的景点推荐流程 Fig. 4 Flowchart of attraction recommendation flowchart based on knowledge graph feature learning
3.1 图节点的序列生成

构建好的旅游知识图谱通过SPARQL语句分割存储为7个独立的子图。针对每个子图通过带偏执的随机游走策略生成相应节点序列S = $ \left\{ {\left. {{u_1},{u_2},\cdots,{u_n}} \right\}} \right.$ 。对于一个给定的源节点 $u$ ,模拟一个固定长度 $L$ 的随机游走, ${u_j}$ 表示游走过程中第j个节点,初始节点 ${u_0}=u$ 。节点 ${u_j}$ 由概率分布生成,即

$P\left( {{u_j} = x|{u_{j - 1}} = v} \right) = \left\{ {\begin{array}{*{20}{l}} {\dfrac{{{\textit{π} _{v,x}}}}{Z}, \quad \left( {v,x} \right) \in D}\\ {0}, \quad {\text{其他}} \end{array}} \right.$ (1)

式中:D表示知识图谱中边的集合, ${\textit{π} _{vx}}$ 是节点vx之间的转移概率,Z是一个正则化参数,本文的实验中 $Z = 1$ 。如图5所示:随机游走遍历了边 $(v,x)$ ,并停留在节点v。通过计算边 $(v,x)$ 上的转移概率πvx来判断序列中的下一个节点。计算公式为

${\textit{π} _{vx}} = \alpha_{pq}(t,x){w_{vx}}$ (2)

式中: ${w_{vx}}$ 是边上的权重(没有权重时默认为1); ${\alpha _{pq}}(t,x)$ 表示节点之间的边上的偏执,计算公式为

$\alpha (t,x) = \left\{ {\begin{array}{*{20}{c}} {\dfrac{1}{p},}&{\;{d_t}_x = 0} \\ {1,}&{\;{d_t}_x = 1} \\ {\dfrac{1}{q},}&{\;{d_t}_x = 2} \end{array}} \right.$ (3)

式中: ${d_{tx}}$ ∈(0,1,2),表示节点tx之间的最小跳数。如图5所示, ${d_{tx}} = 0$ 表示x就是t本身; ${d_{tx}} = 1$ 表示xx1或者x3 ${d_{tx}} = 2$ 表示xx2pq是两个监督随机游走的参数。

Download:
图 5 随机游走示例 Fig. 5 Example of random walk

参数p可以控制重新访问当前节点的可能性。将p设置为较大的值( $p > \max (q,1)$ )可以确保在后续采样过程中不会对已经访问的节点进行采样(除非下一个节点没有其他的邻居节点)。如果将p设置为较小的值( $p < \max (q,1)$ ),算法将会回退一步,这将使得采样的节点靠近初始结点t

参数q允许在当前节点周围或者远离当前节点采样。如果q>1,随机游走采样的序列将靠近节点t,这样随机游走采集到的节点序列和广度优先类似。相反,如果q<1,随机游走采样的节点将逐渐远离节点t,这样采集到的节点序列和深度优先类似。通过设置合适的参数q可以使得采样在深度优先和广度优先之间达到平衡。当 $p = q = 1$ 时,相当于传统的DeepWalk。

3.2 节点序列特征学习 3.2.1 特征学习模型

4.1节已经生成7个独立子图的节点序列。以一个子图的节点序列为例, $S = \left\{ {\left. {{u_1},{u_2},\cdots,{u_n}} \right\}} \right.$ ,将Word2Vec模型扩展为基于图节点序列数据,由3层神经网络构建的节点序列表示模型,其网络结构如图6所示。基于神经网络语言模型的目标函数通常取为对数似然函数,见式(4):

$\sum\limits_{j = 1}^N {\log {\rm Pr}({u_j}\left| {{x^{{u_j}}}} \right.)} $ (4)

式中:N表示当前序列中节点的个数; ${x^{{u_j}}}$ 表示一个特征向量,由目标节点 ${u_j}$ 的上下文节点组成。 ${x^{{u_j}}}$ 的每一维都表示特定的上下文节点。简单的来说,假设 ${x^{{u_j}}}$ 是一个非负的向量,其中每一项都表示相应上下文中一个节点的出现次数。在形式上,用d维向量 ${{ v}_f} \in {{\bf R}^{d}}$ 为序列中每一个节点建模。定义第f个上下文节点特征为一个d维向量 ${{ v}_f} \in {{\bf R}^{d}}$

Download:
图 6 序列模型网络结构 Fig. 6 Sequence model network structure diagram

选取序列集合中节点的前后2c个位置节点作为训练样本举例:

输入层:包含序列中2c个位置的随机初始化向量序列。

投影层:将输入层的2c个向量进行求和平均,得到投影层向量。

输出层:其结果为一颗完全二叉树,是由序列集合中出现过的节点作为叶子节点,以各个节点在序列集合中出现的次数作为权值所构造的Huffman树。树中每条分支均可作为一次二分类,建树即为多个二分类拟合多分类的过程。此处将非叶子节点的左子节点划分为负例,即编码为 $b_n^{{u_j}} = 0$ ;右子节点为正例,编码为 $b_n^{{u_j}} = 1$ 。该树的叶子节点共有N个,每个叶子结点即为节点的特征向量;非叶子节点共有N-1个,同为归一化形式,但是其本身不具有任何语义含义。

3.2.2 参数估计与求解优化

通过实例化式(1)中的上下文节点特征向量,在生成的各个特定属性节点序列集合中定义目标函数,即

$\sum\limits_{u \in E} {\sum\limits_{t \in {T^u}} {\sum\limits_{j = 1}^{N_t} {\log {\rm Pr}({u_j}\left| {{x^{{u_j}}}} \right.)} } } $ (5)

式中:E表示知识图谱中的节点集合; ${T^u}$ 表示从节点 $u$ 开始生成的节点序列集合; ${N_t}$ 是每一个序列 $t$ 的长度。

得到目标函数需要对其进行参数学习和优化。在序列模型中,参数的学习是为了更好地利用上下文节点特征向量 ${v_f}$ 来学习目标节点的向量 ${v_u}$ 。一般情况下通过最大化式(5)中的对数概率来学习参数。本文采用hierarchical softmax代替softmax对目标函数进行优化,这样可以简化由softmax进行优化时所带来的计算量大的问题。

更确切地说,给定一个实体 ${u_j}$ 的投影向量 $\bar { v}_{^{{u_j}}}^{\rm T}$ ,用 $L({u_j})$ 表示根节点到 ${u_j}$ 节点的路径长度,当 ${u_j}$ 的路径在左边的分支的第n层时 $b_n^{u_j}=0$ ,否则 $b_n^{{u_j}} = 1$ 。从而可以利用hierarchical softmax定义 $\log {\rm Pr}({u_j}\left| {{x^{{u_j}}}} \right.)$ 形式,即

${\rm Pr}({u_j}\left| {{x^{{u_j}}}} \right.) = \prod\limits_{n = 2}^{L({u_j})} {([\sigma {{({\bar { v}}_{^{{u_j}}}^{\rm T}\theta _{n - 1}^u]}^{1 - b_n^{{u_j}}}}[1 - \sigma {{(\bar { v}_{^{{u_j}}}^{\rm T}\theta _{n - 1}^u]}^{b_n^{{u_j}}}})} $ (6)

其中:

$\sigma ({\textit{z}}) = \frac{1}{{1 + \exp ( - {\textit{z}})}}$ (7)

$\theta _{n-1}^u$ 表示路径 $L({u_j})$ 中第n个非叶子节点的向量表示,所有参数的训练学习都是采用梯度上升方法。在训练的过程中,遍历所有的序列,在这个过程中目标节点 ${u_j}$ 和其上下文节点特征向量都随之更新。计算出hierarchical softmax之后,通过反向传播获得误差梯度,本文使用梯度来更新模型中的参数。为了方便更新每一步中的 $\theta $ ,通过公式

$ \frac{{\partial k({u_j},n)}}{{\partial {\theta}_{n - 1}^{{u_j}}}} = [1 - b_j^{{u_j}} - \sigma (\bar { v}_{^{{u_j}}}^{\rm{T}}{ \theta}_{n - 1}^u)]{\bar { v}_{{u_j}}} $ (8)

来计算 ${ \theta}_{n - 1}^{{u_j}}$ 的梯度。因此, ${ \theta}_{n - 1}^{{u_j}}$ 可以通过式(9)进行更新:

${ \theta}_{n - 1}^{{u_j}}\xleftarrow{{}}{\theta}_{n - 1}^{{u_j}}+\mu [1 - b_j^{{u_j}} - \sigma (\bar { v}_{^{{u_j}}}^{\rm T}{ \theta}_{n - 1}^u)]{\bar{ v}_{{u_j}}}$ (9)

式中 $\mu $ 表示学习率,为了方便计算上下文节点特征向量的更新, $\bar v_{^{{u_j}}}^{}$ 的梯度表示为

$\frac{{\partial k({u_j},n)}}{{\partial{\theta}_{n - 1}^{{u_j}}}} = [1 - b_j^{{u_j}} - \sigma (\bar{ v}_{^{{u_j}}}^{\rm T}{ \theta}_{n - 1}^u)]{ \theta}_{n - 1}^u$ (10)

通过上述计算,节点 ${u_j}$ 的上下文节点特征向量可以通过式(11)更新:

$v_{f} \longleftarrow v_{f}+\mu \sum_{n=2}^{L\left(u_{j}\right)} \frac{\partial k\left(u_{j}, n\right)}{\partial \overline{v}_{u_{j}}}$ (11)
3.2.3 用户景点相关性计算

已经将知识图谱中每个属性的游客以及景点的特征映射到了同一个向量空间,因此可以对其进行加和平均,从而得到融合各个语义属性的景点向量和游客向量:

${ v}({\rm attract}) = \frac{{\displaystyle\sum\limits_{i = 1}^m {{{ v}_f}_{_i}} }}{m}$ (12)
${ v}({\rm user}) = {{ v}_f}$ (13)

式中: ${ v}({\rm attract})$ 表示包含各个属性语义的景点特征向量; $m = 6$ 表示知识图谱中的景点属性的个数; ${ v}({\rm user})$ 表示游客的特征向量。得到同一向量空间中景点和游客的特征向量,定义游客与景点的相关性得分为

${\rm Rel}({\rm attract,\,user}) ={\rm sim}({ v}({\rm attract}),\,{ v}({\rm user})) $ (14)

其中sim为余弦相似度。

利用上述已经得到相关性的得分,通过式(15)得到用户对景点的预测评分:

$ \begin{split} & \quad\quad\quad\quad\quad{\rm Pre}({\rm attract,\,user}) = \\ & \left\lceil {5\frac{{{\rm Rel}({\rm attract,\,user}) -{\rm Min}({\rm attract,\,user})}}{{\rm Max}({\rm attract,\,user}) - {\rm Min}({\rm attract,\,user})}} \right\rceil \end{split} $ (15)
4 实验结果 4.1 实验数据环境

实验环境:操作系统Ubuntu16.04,64 B,处理器Intel Core i7-6700,内存大小8 GB,编程平台Pycharm,Python2.7版本。在本次实验中,选择不同的采样次数、随机游走参数。采用交叉验证方法(cross validation)对算法进行测试,并且与传统的协同过滤算法进行了对比。其中模型训练数据包含从真实旅游知识图谱中生成的6 238条序列,序列的平均长度为2 000。

4.2 评测指标

通过采用常见的推荐系统评测指标来衡量算法的高效性:平均绝对误差、F-measure。

1)平均绝对误差(mean-absolute error,MAE)。

平均绝对误差是绝对误差的平均值,能够反映预测值误差的实际情况。

$ {\rm MAE}=\frac{1}{E}\sum\limits_{({u_j},{s_j}) \in E} {\left| {{r_i}_j - {{\overline r }_{ij}}} \right|} $ (16)

2) F-measure。

F-measure是准确率和召回率的加权平均,均匀地反应了推荐效果,数值越大越准确。

${\rm F{\text{-}}measeure}= \frac{{2\times {\rm precision}\times{\rm recall}}}{{{\rm precision}+ {\rm recall}}}$ (17)

其中:

${\rm precision}= \frac{{\bf TP}}{{{\bf TP} +{\bf FP}}}$ (18)
${\rm recall}= \frac{{\bf TP}}{{{\bf TP} +{\bf FN}}}$ (19)

式中TPFPFNTN组成的混淆矩阵如表2所示。

表 2 混淆矩阵 Tab.2 Confusion matrix
4.3 实验结果与分析 4.3.1 采样次数比较

在特征向量的学习过程中,属性节点序列集合的生成对特征向量的学习会有不同的影响。实验分别选取采样次数为100、200、300、400、500进行实验分析。

图7图8中可以看出,采样次数的不同,各项指标都会有所变化。在采样次数为400次的时候在各项指标上取得的效果最佳。分析结果可知:采样次数过少,对数据特征的学习不充足;采样次数过多会产生过多的冗余信息,导致实验结果不准确。采样次数为400次时效果最好,因为在实验中景点节点有383个。

Download:
图 7 不同采样次数的MAE Fig. 7 Different MAE sampling times
Download:
图 8 不同采样次数的F-measure Fig. 8 F-measure for different sampling times
4.3.2 随机游走参数

改变参数pq,可以在特定属性图中采样形成不同的节点序列。节点序列的生成结果会对推荐效果产生不同的影响。选取pq属于{0.25,0.5,1,2}进行实验分析。

图910中可以看出,不同的随机游走参数的组合对训练结果影响不同,随机游走参数pq取{0.25,0.25}时在各项指标上效果最佳。也就是说,此时带偏执的随机游走可以在广度优先和深度优先之间取得平衡,能更加全面地对知识图谱中节点的特征进行学习。

Download:
图 9 不同pq的MAE Fig. 9 Different pq MAE values
Download:
图 10 不同pq的F-measure Fig. 10 Different pq F-measures
4.3.3 算法比较

协同过滤算法的最近邻K为10、20、30、40,设置序列模型节点采样次数为100、200、300、400、500。序列模型游走偏执pq属于{0.25,0.5,1,2}。

表3中可以看出,基于知识图谱特征学习的景点推荐,相较于传统的推荐算法在各项指标上均有所提升,可以在语义上弥补传统协同过滤算法的不足。分析实验结果:对于Norm-CF,在最近邻选取10~40,实验效果出现起伏,在最近邻选取为20时效果最好。对于序列模型,在选取组合参数为(400, 0.25, 0.25)时实验效果最好。也就是说,当pq取{0.25, 0.25}时在深度优先和广度优先之间取得平衡,可以更好地学习节点的特征。

表 3 算法对比 Tab.3 Algorithm comparison
5 结束语

本文基于知识图谱子图特征学习的景点推荐,用以高效地挖掘知识图谱中实体特征,从而更好地建模游客与景点的相关性。本文所提出的基于标准系统对其他推荐系统也具有适用性;从携程网以及百科类网站上采集桂林周边旅游景点信息及游客评分信息,构建旅游知识图谱;利用网络嵌入方法对旅游知识图谱进行特征学习,利用余弦相似度计算游客与景点的相关性生成推荐列表;设计对比实验方案,并利用推荐系统评测指标在真实旅游知识图谱上验证效果。实验结果表明,相比于传统基于评分的协同过滤推荐算法,该方法对旅游知识图谱中游客与景点节点的特征建模更加准确,从而更加精准地作出推荐。未来将考虑利用更多的旅游信息(照片、游记以及评论信息)挖掘游客细粒度的偏好以及对景点进行更加精准的建模,以进一步提高推荐准确度。

参考文献
[1] 常亮, 曹玉婷, 孙文平, 等. 旅游推荐系统研究综述[J]. 计算机科学, 2017, 44(10): 1-6.
CHANG Liang, CAO Yuting, SUN Wenping, et al. Review on tourism recommendation system[J]. Computer science, 2017, 44(10): 1-6. DOI:10.11896/j.issn.1002-137X.2017.10.001 (0)
[2] 孟祥武, 纪威宇, 张玉洁. 大数据环境下的推荐系统[J]. 北京邮电大学学报, 2015, 38(2): 1-15.
MENG Xiangwu, JI Weiyu, ZHANG Yujie. A survey of recommendation systems in big data[J]. Journal of Beijing University of Posts and Telecommunications, 2015, 38(2): 1-15. (0)
[3] CATHERINE R, COHEN W. Personalized recommendations using knowledge graphs: a probabilistic logic programming approach[C]//Proceedings of the 10th ACM Conference on Recommender Systems. Boston, Massachusetts, USA, 2016: 325-332 (0)
[4] DI NOIA T, OSTUNI V C, TOMEO P, et al. SPrank: semantic path-based ranking for top-N recommendations using linked open data[J]. ACM transactions on intelligent systems and technology, 2016, 8(1): 9. (0)
[5] 刘峤, 李杨, 段宏, 等. 知识图谱构建技术综述[J]. 计算机研究与发展, 2016, 53(3): 582-600.
LIU Qiao, LI Yang, DUAN Hong, et al. Knowledge graph construction techniques[J]. Journal of computer research and development, 2016, 53(3): 582-600. (0)
[6] GROVER A, LESKOVEC J. node2vec: scalable feature learning for networks[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco, USA, 2016: 855-864. (0)
[7] BOBADILLA J, ORTEGA F, HERNANDO A, et al. Recommender systems survey[J]. Knowledge-based systems, 2013, 46: 109-132. DOI:10.1016/j.knosys.2013.03.012 (0)
[8] IMDb Offical. IMDB[EB/OL].(2016-02-27)[2019-04-10]. http://www.imdb.com. (0)
[9] MetaBrainz Foundation. Musicbrainz[EB/OL].(2016-06-06)[2019-04-10]. http://musicbrainz.org. (0)
[10] PASSANT A. dbrec—music recommendations using DBpedia[C]//Proceedings of the 9th International Semantic Web Conference on the Semantic Web. Shanghai, China, 2010: 209-224. (0)
[11] ORAMAS S, OSTUNI V C, DI NOIA T, et al. Sound and music recommendation with knowledge graphs[J]. ACM transactions on intelligent systems and technology, 2017, 8(2): 21. (0)
[12] OSTUNI V C, DI NOIA T, DI SCIASCIO E, et al. Top-N recommendations from implicit feedback leveraging linked open data[C]//Proceedings of the 7th ACM Conference on Recommender Systems. Hong Kong, China, 2013: 85-92. (0)
[13] PIAO Guangyuan, BRESLIN J G. Measuring semantic distance for linked open data-enabled recommender systems[C]//Proceedings of the 31st Annual ACM Symposium on Applied Computing. Pisa, Italy, 2016: 315-320. (0)
[14] 涂存超, 杨成, 刘知远, 等. 网络表示学习综述[J]. 中国科学: 信息科学, 2017, 47(8): 980-996.
TU Cunchao, YANG Cheng, LIU Zhiyuan, et al. Network representation learning: an overview[J]. Scientia sinica informationis, 2017, 47(8): 980-996. (0)
[15] PEROZZI B, AL-RFOU R, SKIENA S. DeepWalk: online learning of social representations[C]//Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA, 2014: 701-710. (0)
[16] TU Cunchao, ZHANG Weicheng, LIU Zhiyuan, et al. Max-margin deepwalk: discriminative learning of network representation[C]//Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence. New York, USA, 2016: 3889-3895. (0)
[17] PALUMBO E, RIZZO G, TRONCY R. entity2rec: learning user-item relatedness from knowledge graphs for top-N item recommendation[C]//Proceedings of the Eleventh ACM Conference on Recommender Systems. Como, Italy, 2017: 32-36. (0)
[18] MIKOLOV T, SUTSKEVER I, CHEN Kai, et al. Distributed representations of words and phrases and their compositionality[C]//Proceedings of the 26th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, 2013: 3111-3119. (0)