用于移动应用程序开发的知识图增强型第三方库推荐


用于移动应用程序开发的知识图增强型第三方库推荐

Knowledge Graph Enhanced Third-Party Library Recommendation for Mobile Application Development

摘要

问题:

移动应用市场变得越来越繁荣。第三方库在移动应用程序开发中发挥了至关重要的作用。这些库可以缩短开发时间,提高开发效率并提高开发质量。当前,已经发布了大量第三方库,这给开发人员选择适当的库带来了沉重的负担。

方法:

针对这一问题,在本文中,我们通过集成主题建模和知识图技术提出了一种新颖的第三方库推荐方法。

  • 在主题建模组件中,我们从文本应用程序描述中提取主题,并根据与新应用程序共享相似主题的应用程序使用的库提出建议。

  • 在知识图组件中,我们利用知识图来整合第三方库和应用程序的结构化信息,以及推荐应用程序和库的交互信息。

结果:

在真实数据集上进行的实验表明,在推荐效果方面,我们提出的方法优于几种最先进的方法。

关键词

第三方库推荐,移动应用,知识图,主题建模,MKR。

1.简介

背景问题:

移动应用开发,第三方库在移动应用程序开发中可以发挥至关重要的作用,这是因为通过重复使用它们可以显着提高开发质量和生产率。如何从大量复杂的第三方库中选择满足需求的库,成为移动应用程序开发中的一个难题。

现有研究:

近年来,研究人员为第三方图书馆推荐提出了一些方法[1] – [5]。这些方法主要集中在**关联规则挖掘[6],标签信息和主题模型方法[7]**的使用上。

仍存缺点:

但是,现有方法仅利用一些粗粒度的辅助信息,例如分类和主题,无法捕获应用程序和第三方库的结构化潜在知识级连接。结果,开发人员无法发现新的库和未直接关联的库。这不仅限制了开发人员使用的库的狭窄范围,而且还阻碍了第三方库的开发和发展。

提出方法:

在这项工作中,我们提出了一种混合知识图增强库推荐方法TM-MKR,

它由两个主要部分组成:==主题建模组件==和==知识图组件==。

  • 在主题建模(TM)组件中,我们使用LDA [8]模型,该模型将应用程序和库的文本描述作为输入来计算它们的相似性。
  • 在知识图组件中,根据第三方库推荐的特定情况,通过引入应用程序和第三方库的知识图,我们可以自定义MKR [9]以获取基于用户的MKR(U-MKR)和基于项目的MKR(I-MKR)。

主要工作

我们的主要贡献如下:

  • 我们==构造了一个大规模的领域知识图==,以获得应用程序和库之间的语义级别关联。
  • 我们提出了一种==混合推荐方法==,该方法基于应用程序和库的交互信息,描述和结构化语义信息,将主题建模和知识图相结合。
  • 我们对真实数据集进行实验,并将我们提出的方法与几种最新方法进行比较。实验结果证明了我们的TM-MKR方法的有效性。

论文结构

本文的其余部分安排如下。

  1. 第二部分回顾了图书馆推荐系统和基于KG的推荐中的一些相关工作。
  2. 第三节介绍了初步情况。
  3. 第四节介绍了建议的知识图增强图书馆推荐系统。
  4. 在第五节中讨论了实验和结果。
  5. 最后,在本文的末尾给出了未来工作的结论和方向。

2.相关工作

A.第三方库推荐

到目前为止,已经提出了许多与第三方库推荐有关的作品。

  1. 较早的API建议大多使用模式挖掘和匹配。

    • 例如,PROSPECTOR是一种基于API方法签名和从样本客户端程序的语料库中挖掘出来的杂类的工具[10],
    • 而MAPO是一种工具,可以自动挖掘API使用模式,并根据程序员的要求进一步推荐已开采的API使用模式及其相关的代码段[11]。

    这些方法用于在特定情况下推荐。

  2. 之后,Thung等提出了一种将关联规则挖掘与推荐方法相结合的混合方法。他们利用基于一组库使用模式的关联规则挖掘组件,以及基于其他类似项目使用的库进行协作筛选来提出建议。

  3. 近年来,许多研究建议通过将协作式过滤与基于内容的方法相结合来推荐该库。

    • AppLibRec [4],[5]结合了LDA和协作过滤,以推荐用于软件开发的第三方库列表,其中LDA是一种生成概率模型,用于从文本语料库中提取关键字。
    • Chen等提出了一种基于从Stack Overflow问题中提取的标签信息推荐库的新方法。他们利用词嵌入技术以及特定于领域的关系和类别知识来实现类比库推荐[1],[2]。

从这些推荐方法的开发中,我们可以看到库级别的开发正受到开发人员的更多关注。

我们的方法从库级别的粒度为移动应用程序的开发人员提供了建议。它不仅利用了==应用程序及其相应的第三方库的交互作用,而且还依赖于应用程序的文本描述==。更重要的是,我们利用==知识图结合了移动应用程序和第三方库的结构化语义信息==。

B.知识图

近年来,知识图在推荐器系统中的使用引起了越来越多的关注。研究人员已经提出了知识图,包括诸如DBpedia,YAGO,NELL,DeepDive,BabelNet,ConceptNet等学术项目,以及一些商业项目,例如Microsoft的Satori和Google的知识图。

将==知识图引入推荐系统的两种主要方法==是

  • 基于路径的方法[12],[15]-[17]

  • 基于嵌入的方法[13],[14],[18],[19]。

它已被应用在许多场景中,例如

  • 新闻推荐[13],
  • 音乐推荐[20],
  • 论文推荐[21],
  • 问题解答[22],
  • 文本分类[23],
  • 社区检测[24],
  • 机器阅读[25] 。

在本文中,我们将其应用于第三方库推荐。利用基于嵌入的方法,将知识图与推荐任务相结合,以充分利用应用程序和库的丰富语义信息。

3.基础知识

在本节中,我们介绍一些与工作有关的初步知识

A. LDA

潜在狄利克雷分配(LDA)[8]是一种生成统计模型,在自然语言处理中包含单词,主题和文档的三层结构。

LDA是一种无监督的机器学习技术,可用于识别隐藏在大规模文档集合或语料库中的主题信息。

在LDA中,每个文档都可以视为各种主题的混合,其中每个文档都被视为具有通过LDA分配给它的一组主题。

对于由长度为$N_i$的M个文档组成的主体D,LDA假定以下生成过程:

  1. 选择$θ_i∼ Dir(α)$,其中 $i∈{1,……,M}$,和Dir(α)是典型具有稀疏(α<1)的对称参数α的狄利克雷分布
  2. 选择$ϕk∼ Dir(β)$,其中$k∈{1,…… ,K}$,而β是稀疏的
  3. 对于每个单词位置$i,j$,其中 $i∈{1,……,M}$ 和 $j∈{1,……,N_i}$:
    a)选择一个主题$z_{i,j}〜多项式(θ_i)$。
    b)选择单词$w_{i,j}〜多项式(ϕ_{z_i},j)$。

可以根据以下公式获得文档的单词分布的最大似然估计:

公式1-最大似然估计公式

最后,可以通过诸如吉布斯采样之类的方法来估计模型中的参数。

B.知识图谱嵌入

知识图嵌入(KGE)的目标是学习每个实体和关系的低维表示向量,该向量保留原始知识图的结构信息。

近年来提出的KGE方法可以大致分为两类:

  • 语义匹配模型[27],[28]
    • HolE [27]
    • ANALOGY [28]
  • 翻译距离模型[29]-[32]
    • TransE [29]
    • TransH [30]
    • TransD [31]
    • TransR [32]

由于性能优越,最近广泛使用了诸如TransE [29],TransH [30],TransD [31],TransR [32],HolE [27]和ANALOGY [28]等KGE方法。

在我们的工作中,我们使用的KGE方法是MKR [9]中提出的深度语义匹配体系结构。具体过程如图1所示。

图1-MKR中的KGE处理

对于给定的三元组$(h,r,t)$,头部的$h$的原始特征向量由$L$个交叉压缩单元$C^L$处理。
该过程描述如下。对于每一个 $v$ 和一个与其相关联的实体 $e$ ,我们从第 $l$ 层构造其潜在特征$v_l$和 $e_l$ 的成对交互:
公式2

其中$C_l$是$l$层的交叉特征矩阵。通过将交叉特征矩阵投影到它们的潜在表示空间中,可以获得下一层的项目和实体的特征向量:

公式3

其中 $w_l$ 和 $b_l$ 是可训练的权重trainable weight和偏差向量bias vectors。

关于关系r,其原始特征向量由L层多层感知(MLP)处理:

公式4

其中M(x)=σ(Wx + b)是具有权重W,偏差b和非线性激活函数σ(.)的全连接的神经网络层。然后将它们的潜在特征连接在一起,然后是用于预测尾部t的K层MLP:

公式5

其中S(h)是实体h的关联项的集合, $\hat{t}$ 是尾部t的预测向量。最后,得分函数定义为:

公式6

其中σ(.)是归一化内积

4.提出方法

在本节中,我们将详细介绍我们提出的TM-MKR方法。我们首先介绍整个框架,然后讨论主题建模和知识图组件。最后,这两个部分由一个聚合器单元合并。

A. 问题定义

我们在本文中定义我们的推荐问题如下。
例如,在典型情况下,开发人员想要开发3D赛车游戏,他在GitHub上创建了一个项目,并在README文件中详细介绍了功能说明。现在,根据他的==历史习惯==,我们可以推荐他在其他项目中常用的一些库,例如“ React Native”,“ okHttp”和“ Realm”。根据==README文件的文字描述==,我们可以找到一些==类似的游戏应用程序项目==,并且这些项目中使用的库可以用作建议,例如排行榜的“ Google游戏”,多人支持和云存储,以及用于游戏的“ Unity 3D”。创建交互式3D内容。在项目开发和迭代的过程中,我们还可以根据==已调用的库==推荐相关的库。库推荐的示意图如图2所示。

图2-库推荐示意图

更正式地说,我们有一组M个应用程序A = {a1,a2,…。 。 。 ,aM}和一组有一组M个应用程序A = {a1,a2,…。 。 。 ,aM}和一组N个库L = {l1,l2,…。 。 。 ,lN}。

根据应用程序对库的调用信息,定义的应用程序与库的交互矩阵 $Y∈R^{M×N}$ ,其中 $y_{al} = 1$ 表示应用程序调用了库l;否则 $y_{al}=0$。

对于每个应用程序和库,还使用它们的描述性信息。所有这些描述构成了主体D。

此外,我们介绍了由实体和关系三元组组成的应用程序和库的知识图G。每个三元组(h,r,t)表示一个事实,即从头实体h到尾实体t之间存在关系r。

例如,三元组(Twitter工具包,TAGGED_WITH,在线服务)指出,“ Twitter工具包”库被标记为“在线服务”。

在我们的图书馆推荐方案中,交互矩阵中的每个应用程序和图书馆都与知识图中的一个实体相关联。

给定一个交互矩阵Y,一个语料库D和一个知识图G,我们的目标是找到可能与要开发的应用程序相关的前N个库。

B. 框架

对于应用程序和库,我们不仅具有其非结构化的文本描述,还具有结构化的语义信息。

在这些==文字描述==中,直接描述了应用程序和库的功能。我们可以使用主题建模技术对其进行处理,以找到推荐的相似库和应用程序。

对于==结构化语义信息==,它在应用程序和库之间包含一些潜在的关联。我们可以利用知识图进行处理,并找到一些必要但不直接相关的建议库。但是主题建模技术和基于知识图的方法都无法同时充分利用所有信息,因此我们考虑使用混合方法来集成这两种技术。

在我们的工作中,我们选择LDA处理文本描述,选择MKR处理结构化语义信息。

我们提出的TM-MKR方法的框架如图3所示。

==它由三个主要组件组成:一个LDA模块,一个MKR模块和一个聚合器单元。==

左侧的LDA模块将应用程序 $a$ 的描述性信息 $d_a$ 和库 $l$ 作为输入,并获得评分得分 $S_{LDA}$。

右侧的MKR模块将应用程序 $a$ 和库 $l$ 作为输入,并获得评分分数 $S_{MKR}$。

最终,聚合器单元通过组合 $S_{LDA}$ 和 $S_{MKR}$ 来计算 $l$ 的最终评分S。

图3-提出的库推荐方法的框架。

C. LDA模型

LDA模块的详细信息显示在图3的左侧。

此模块的过程描述如下。我们首先对==应用程序和库的描述性信息==进行预处理,例如tokenization(即删除停用词,标点和低频词)和stemming。然后我们设置一些参数以开始训练。通常,主题数的适当值为200到500。

训练后,获得LDA模型,可以为每个描述d生成主题分布向量 $θ_d$。

我们将 $θ_d$ 表示为:

公式7-θ_d的表示

其中 $t_i(i∈{1,2,…,T})$是文档d中第i个主题的比例,T是训练语料库D的所有主题的数量。

对于给定的新应用程序a,我们使用LDA模型将其文本描述 $d_a$ 转换为主题向量$θ_{d_a}$,然后==计算该主题向量(新给定的应用程序a转换后的向量)与训练应用程序的主题向量之间的距离==。我们考虑余弦相似度来确定两个向量的相似度:

公式8-余弦相似度

其中·表示点积,||θ|| 表示主题向量的大小。

最后,我们计算由LDA模块获得的得分 $S_{LDA}$。我们选择余弦相似度得分最高的前k个应用,其描述文件 $d_a$ 作为邻近 N(a)= {a1,a2,。 。 。 ,ak}用于新应用程序。 $ l$ 的分数定义为:

公式9-SLDA分数的计算

SLDA(1)的范围是0到1。

(这里应该是 $y_{a_il}$, l也是下标:y_{a_il} )

==也就是说左面的LDA模型,求得是新给出的应用程序a的文本描述,与原来库中所训练的老应用程序θ的文本描述的相似度。得出前k个相似的程序。然后最终得出的分数相当于,库l在这k个程序中使用程度,也就是库l可能在a中的使用概率。==

公式9中的,

  • k: 余弦相似度得分最高的前k个应用;

  • $y_{a_il}$ :根据应用程序对库的调用信息,定义的应用程序与库的交互矩阵 $Y∈R^{M×N}$ ,其中 $y_{al} = 1$ 表示应用程序调用了库l;否则 $y_{al}=0$。就是第i个$y_{al}$

  • 最后得分,是针对某个库 $l$ 的,也就是说输入的那个库 $l$ 得分为 $S_{LDA}(l)$

D.MKR模型

该模块基于深层的端到端框架MKR [16],其结构如图3的右侧所示。

在将应用程序 $a$ 和库 $l$ 转换为==原始特征向量==后,将其作为输入。 我们使用L层MLP(多层感知器)提取应用的潜在浓缩特征 $a_L$ :

公式10-提取特征aL

L个交叉压缩单元与KGE模块一起处理库,以提取其特征 $l_L $,如第三部分所示:

公式11-提取特征l_L

其中S(l)是库l的关联实体的集合。

在获得应用程序的潜在特征 $a_L$ 和库的潜在特征 $l_L$ 后,我们通过函数 $f_{RS}$(例如一个内积或MLP多层感知器)将它们组合在一起。库和应用的最终分数为:

公式12-最终分数SMKR

其中σ(。)是非线性激活函数。

在这项工作中,我们分别利用应用程序和库的知识图嵌入定制MKR以获得==U-MKR和I-MKR==。

==以上是I-MKR的结构==。

对于==U-MKR==,我们交换处理应用程序和库的过程:

公式13-UMKR的公式

其中S(a)是应用程序a的关联实体的集合。最终分数的公式与I-MKR相同。

E.聚合器单元

聚合器单元通过结合SLDA和SMKR来获得推荐分数。对于每个库,推荐分数S定义为:

公式14-聚合器单元最终得分

其中0≤α≤1。最后,我们选择得分最高的前N个库作为对开发人员的建议。

5.实验及结果

在本节中,我们将对从AppBrain10爬取的真实数据集进行一系列实验,以将我们提出的方法与几种最新方法进行比较。所有实验程序都是用Python开发的,是在运行Windows 10操作系统,配备Intel Core 4 CPU i7-4710HQ,@ 2.5 GHz和8GB RAM的PC上进行的。

A.数据集

AppBrain是领先的移动广告网络,可提供针对Android市场的独特的按安装付费的应用程序推广服务。 AppBrain的目的是为开发人员提供一种快速简便的方法来扩展其应用程序的范围以及发展和发展其业务。它包含有关应用程序和相应的第三方库的大量信息。为了评估所提出的TM-MKR方法的性能,我们从AppBrain抓取了一个数据集。因为我们只对调用至少一个库的应用程序感兴趣,所以为了方便工作而弃用了某些应用程序。

==过滤后的数据集由5,274个应用程序和471个库组成,其中每个应用程序都具有名称,包装,价格,大小,版本,描述等属性,每个库都通过其名称,描述,类型,标签等来表征==。

表1显示了数据集中的一个应用程序和一个库,其中“伦敦实时公交时间-TfL Buses”是一个交通应用程序,它调用了“ Admob”和“ Twitter Kit”之类的库。

表1.数据集中的应用程序和库的示例。

经典推荐任务中最重要的部分是用户和项目之间的交互信息。同样,在我们的工作中,我们还需要==应用程序和库之间的交互信息,即数据集中包含的应用程序和库之间的调用关系==。表2总结了数据集的统计信息。

表2.数据集的统计信息

为了评估推荐效果,我们基于抓取的数据集为每个实验构建了训练集和测试集。我们将数据集随机分为训练集和测试集,以便==训练集包含70%的数据,而测试集包含30%==。

B.知识图谱

对于知识图的构建,我们利用应用程序和库的爬取的结构化信息。

首先,我们区分数据集中的知识实体。基于这些实体,我们提取所有由主题,谓词及其宾语组成的三元组。主语和宾语是谓词定义的关系中涉及的实体。提取三元组之后,这些数据将存储在图形数据库Neo4j11中,以备后用。

最后,我们有一个9,820个实体和85,306个关系的知识图。表3汇总了知识图的详细统计信息。

表3.知识图的统计量

Neo4j中存储的库“ Twitter Kit”的三元组结构(我们仅选择了所有三元组中的十个)如图4所示。

前面提到的三元组(Twitter Kit,TAGGED_WITH,在线服务)现在表示为两个节点。通过定向边缘连接。绿色节点“ Twitter套件”是实体“库”,蓝色节点“在线服务”是实体“标签”,边缘是关系“ TAGGED_WITH”。

图4.存储在Neo4j中的知识图的示例结构

C.评估指标

在我们的实验中,我们采用了广泛使用的前N个推荐测量值,包括Precision,Recall,F1值,MAP和NDCG,以评估我们的方法以及基线。

  • Precision @ N:这是与用户相关的建议项目中的一部分。我们计算所有用户的平均值作为最终精度。
  • Recall @ N:成功推荐与用户相关的项目的比例。我们计算所有用户的平均值作为最终召回率。
  • F1 @ N:它是N级精度和N级召回率的谐波均值
  • MAP @ N:通过考虑前N个项目列表所有位置的精度性能来计算平均平均精度(MAP)
  • NDCG @ N:归一化折现累积收益(NDCG)是排名质量的标准度量,考虑到排名列表中前N个正项和负项之间的分级相关性。

前三种方法旨在评估推荐质量而不考虑排名位置,而后两种方法不仅评估准确性,还评估最终列表中正确项目的排名位置。

D.BaseLine

我们将我们提出的方法与几种最新的推荐算法进行了比较。考虑到我们的方法结合了主题建模,协作过滤和知识图,我们选择的算法涵盖了基于内容的方法,基于CF的方法和基于KG的方法。

另外,对于第三方库推荐的情况,我们选择了AppLibRec [4],[5],它是最新的并且与我们的研究相对较近。

  • LDA [8]:LDA是一种流行的主题建模技术,它以概率分布的形式给出文档集中每个文档的主题。在本文中,对应用程序和库的描述被视为LDA模型的输入。
  • CF:我们使用基于用户的协作过滤方法,该方法基于从交互矩阵计算出的相似度向应用程序推荐库。
  • NCF [33]:通过将矩阵分解和MLP相结合来开发神经协作过滤(NCF)模型,以了解用户和项目对前N个推荐的偏好。
  • U-MKR:MKR [9]是一个深层的端到端框架,它利用知识图嵌入任务来辅助推荐任务。在本文中,U-MKR是基于用户的版本,它利用了应用程序的知识图嵌入
  • I-MKR:类似于U-MKR,I-MKR是MKR的基于项目的版本,我们使用库的知识图嵌入。
  • RippleNet [12]:RippleNet是一种类似于内存网络的方法,可以在知识图上传播用户的偏好
  • AppLibRec [4],[5]:据我们所知,AppLibRec是针对移动应用程序的最新第三方库推荐方法。根据原始论文,参数α和β分别设置为0.3和0.7。

E.实验与评估

我们有兴趣回答以下研究问题,作为对我们研究的评估和讨论:

1)RQ1:建议的TM-MKR是否优于最新的推荐方法?

图5展示了在五个评估指标上不同方法的性能。如我们所见,我们提出的TM-MKR方法在所有排名位置的所有竞争方法中表现最佳。

具体而言,与基于CF的方法(CF和NCF)相比,在Precision @ 5,Recall @ 5,F1 @ 5,MAP上,TM-MKR最多可增加26.9%,23.9%,25.4%,15.0%和17.6%。

与基于KGP的方法RippleNet相比,TM-MKR在Precision @ 5,Recall @ 5,F1 @ 5,MAP上分别超出了16.4%,11.7%,14.1%,16.1%和13.6%。 @ 5和NDCG @ 5。

与最新的第三方库推荐方法AppLibRec相比,TMCKR在Precision @ 5,Recall @ 5,F1 @ 5,MAP @ 5和NDCG @ 5上分别增长了25.2%,22.3%,23.7%,16.0%和16.4%,分别验证了我们结合知识图的假设。

对于选择不同的N值,所有方法的结果趋势基本相同,并且TM-MKR表现最佳。这些比较的结果证明了我们提出的TM-MKR方法的巨大有效性。

图5.数据集上前N个推荐的比较

AppLibRec的性能比LDA和CF更好,这意味着同时使用主题和交互式信息比仅使用单个信息更有效。在四种非混合推荐方法(LDA,CF,NCF和RippleNet)中,RippleNet在几乎所有评估指标上表现最好,其次是NCF,最后是LDA和CF。

结果表明使用第三方库推荐任务中的知识图是非常有效的。此外,对于混合方法AppLibRec,即使它同时利用了文本描述和交互式信息,RippleNet仍然可以实现更好的性能,这进一步验证了我们结合知识图的假设。

2)RQ2:对于提出的TM-MKR是否必须需要两个组件?

如前所述,建议的TM-MKR由两个组件组成:LDA模块和MKR模块。

为了证明这==两个组件的必要性==,我们分别在两个模块上进行了实验。

结果如图5所示。TM-MKR的性能优于LDA模块(即LDA)和MKR模块(即U-MKR和I-MKR)。

具体来说,在Precision @ 5,Recall @ 5,F1 @ 5,MAP @ 5和NDCG @ 5上,
TM-MKR的性能分别比LDA模块高26.9%,23.9%,25.4%,17.1%和17.7%。
与U-MKR和I-MKR相比,Precision @ 5,Recall @ 5,F1 @ 5,MAP @ 5和NDCG @ 5的方法分别提高了6.8%,7.1%,6.8%,7.2%和6.7%。

结果表明,MKR模块对推荐结果具有更好的提升效果,并且将LDA模块和MKR模块组合在一起是有效的,因为它在所有指标上都有改进。

我们拥有应用程序和库的文本信息,它们都可以用作训练LDA模型的语料库。

为了研究不同语料库对LDA模型的影响,我们选择了每个模型来训练LDA模型并观察其对LDA模块性能的影响。

根据表4所示的比较结果,我们发现==使用应用程序的描述作为语料,LDA模块比使用库的描述要好得多==。

表4. LDA的不同语料库的比较

这个结果可以解释。在正常推荐情况下,我们通常可以推荐与其历史交互项相似的项。
库建议中不太可能发生这种情况。因为我们不太可能在我们的应用程序中已经使用过的库中使用类似的库。
更常见的情况是对于功能相似的应用程序,所使用的库也相对较近。
因此,对于新应用程序,推荐其邻居应用程序使用的库比推荐与其已使用的库相似的库更为合理。
这就是为什么我们选择应用程序的描述作为语料库来训练LDA模型来查找应用程序的邻居而不是库的邻居。

为了研究使用库和应用程序的知识图嵌入对TM-MKR性能的影响,我们进一步试验了==LDA与U-MKR和I-MKR的融合结果==,我们将它们分别表示为TM-UMKR和TM-IMKR。
从表5可以看出,融合结果基本接近,U-MKR略胜一筹,因此也用于TM-MKR。

表5. LDA与U-MKR和I-MKR的融合结果

3)RQ3:我们的模型对参数的敏感性如何?

为了回答这个问题,我们主要进行了==LDA模型的主题数==和==聚合器单元的融合率α==的实验。

图6显示了TM-MKR在不同主题编号上的性能。
结果表明,主题数量对TM-MKR的性能影响很小,因此我们的方法对于合理的范围内的不同主题数量是稳定的。
我们还可以发现,随着N的增加,精度和F1值逐渐降低,而查全率,MAP和NDCG则逐渐增加。这是因为在前N个推荐的情况下,用户的相关历史交互项的数量是有限的。
因此,最好为==建议选择较小的N值==。

图6. TM-MKR在不同主题编号上的性能

为了选择主题数T,我们使用称为==主题一致性[34]的定量评估指标==进行评估。
我们使用的相干性度量是CV,它是根据滑动窗口,单词的一组分割以及使用归一化点向互信息(NPMI)和余弦相似度的间接确认度量计算得出的。
从图7可以看出,最佳主题当主题数设置为200时,可以获得连贯性。

图7.具有不同主题编号的LDA模型的主题一致性

为了找到最佳融合比率,我们进行以下设置,将α的值从0更改为1,步长为0.1。

图8示出了实验结果。根据结果,聚合器单元中的α设置为0.5,这使得融合效果最佳。

图8.所提出方法的不同α的Top-5结果

F.讨论与局限性分析

综上所述,在实验中,我们采用了五个评估指标来评估我们提出的TM-MKR方法的推荐性能。

在第一组实验中,我们表明TM-MKR在所有排名位置上均优于六种最新推荐算法。我们进一步分析了LDA模块和MKR模块的性能,发现MKR模块可以更好地提升结果。

我们还研究了语料库和主题编号对LDA模块中结果的影响,发现使用应用程序的文本描述效果更好,并且我们的方法对于不同主题编号也很稳定。

最后,我们找到了聚合器单元的最佳融合系数α。

尽管我们的方法效果不错,但有一个局限性,就是它没有考虑库的版本信息。

在某些情况下,库版本之间的差异很大。开发人员仅知道第三方库的名称是不够的。

为此,我们仍然需要进一步研究,希望能够在向开发人员提出建议时提供有关第三方库的详细信息,包括版本信息。

6.总结展望

在本文中,我们构建了一个包含移动应用程序的基本信息及其第三方库调用信息的真实数据集。

在此基础上,我们构建了一个包含应用程序和库的结构化语义信息的大规模领域知识图,并结合主题建模技术和基于知识图的方法提出了一种混合方法TM-MKR,为开发人员推荐库。

通过利用知识图嵌入技术,我们可以捕获项目本身的丰富辅助信息。

结合主题建模技术,我们还充分利用了非结构化的文本描述。

进行了广泛的实验以证明我们方法的有效性。

1
2
3
graph  LR;
爬取数据集-->文本描述-->LDA主题模型-->余弦相似度匹配-->计算得分S_LDA-->聚合单元
爬取数据集-->结构化描述-->构建知识图谱-->MKR-->计算得分S_MKR-->聚合单元-->最终得分Sl

将来,我们计划研究其他技术,例如深度学习以提取文本描述的语义信息。我们还将尝试一些新的基于KG的方法和融合方法,以获得更好的推荐结果。

改进想法

(协同过滤混合?)

左侧:文本描述中是否语义稀疏?解决文本描述中的语义稀疏问题

LDA改进,可以添加时序信息(库版本);或者可以使用Tag标签来进行进一步的优化(是否和右面的KG重复?)LLDA

右侧:MLP特征提取改进;

加模块,第三个分数;

聚合器模块?协同过滤?


  目录