您的当前位置:首页>新品 > 正文

每日观察!Trans系列是啥?基于翻译模型(Trans系列)的知识表示学习

来源:CSDN 时间:2022-12-08 10:15:54

翻译模型(Trans)

解决问题:知识表示与推理 将实体向量表示(Embedding)在低维稠密向量空间中,然后进行计算和推理。


(资料图片仅供参考)

主要应用:triplet classification, link prediction

目前基于翻译模型(Trans系列)的知识表示学习的研究情况

TransE, NIPS2013, Translating embeddings for modeling multi-relational dataTransH, AAAI2014, Knowledge graph embedding by translating on hyperplanesTransR, AAAI2015, Learning Entity and Relation Embeddings for Knowledge Graph CompletionTransD, ACL2015, Knowledge graph embedding via dynamic mapping matrixTransA, arXiv2015, An adaptive approach for knowledge graph embeddingTranSparse, AAAI2016, Knowledge graph completion with adaptive sparse transfer matrixTransG, arXiv2015, A Generative Mixture Model for Knowledge Graph EmbeddingKG2E, CIKM2015, Learning to represent knowledge graphs with gaussian embedding

TransE: 多元关系数据嵌入(Translation embeddings for modeling multi-relation data)

这篇文章提出了一种将实体与关系嵌入到低维向量空间中的简单模型,弥补了传统方法训练复杂、不易拓展的缺点,对实体和关系的建模十分简单明了,可解释性也很强。尽管现在还不清楚是否所有的关系种类都可以被这种方法建模,但目前这种方法相对于其他方法表现不错。在后续的研究中,TransE更是作为知识库vector化的基础,衍生出来了很多变体。

受word2vec启发,利用了词向量的平移不变现象。将每个三元组实例 (head,relation,tail) 中的关系 relation 看做从实体 head 到实体 tail 的翻译,通过不断调整h、r和t (head、relation 和 tail 的向量),使 (h + r) 尽可能与 t 相等,即 h + r ≈ t。数学上表示就是通过约束 d(h+l,t)=||(h+r)−t||22≈0 d ( h + l , t ) = | | ( h + r ) − t | | 2 2 ≈ 0 来对实体和关系建模,将它们映射到相同的向量空间中。 其损失函数表示如下:

L=∑(h,l,t)∈S∑(h′,l′,t′)∈S′(h,l,t)[γ+d(h+l,t)−d(h′+l′,t′)]+ L = ∑ ( h , l , t ) ∈ S ∑ ( h ′ , l ′ , t ′ ) ∈ S ( h , l , t ) ′ [ γ + d ( h + l , t ) − d ( h ′ + l ′ , t ′ ) ] +

其中, [x]+ [ x ] + 表示 x x 的正数部分,γ" role="presentation" style="position: relative;">γγ表示margin, S′h,l,t={(h′,l,t|h′∈E)}∪{(h,l,t′|t′∈E)} S h , l , t ′ = { ( h ′ , l , t | h ′ ∈ E ) } ∪ { ( h , l , t ′ | t ′ ∈ E ) }

TransH: 将知识嵌入到超平面(Knowledge graph embedding by translating on hyperplanes)

在数学表示上面就可以很简单的看出TransH与TransE的区别:TransE中三元组 (h,r,t) ( h , r , t ) 需要满足 d(h+r,t)=||(h+r)−t||22≈0 d ( h + r , t ) = | | ( h + r ) − t | | 2 2 ≈ 0 ,而TransH中三元组 (h,r,t) ( h , r , t ) 则需要满足 d(h+r,t)=||(h−wTrhwr)+dr−(t−wTrtwr)||22≈0 d ( h + r , t ) = | | ( h − w r T h w r ) + d r − ( t − w r T t w r ) | | 2 2 ≈ 0 ,其中 wr,dr∈Rk w r , d r ∈ R k 表示关系。

TransR: 实体和关系分开嵌入(Learning Entity and Relation Embeddings for Knowledge Graph Completion)

TransR在TranE的基础上的改进,在数学上的描述看起来会更加直观:对于每一类关系,不光有一个向量 r r 来描述它自身,还有一个映射矩阵Mr" role="presentation" style="position: relative;">MrMr来描述这个关系所处的关系空间,即对于一个三元组 (h,r,t) ( h , r , t ) ,需要满足 d(h,r,t)=||hr+r−tr||22=||hMr+r−tMr||22≈0 d ( h , r , t ) = | | h r + r − t r | | 2 2 = | | h M r + r − t M r | | 2 2 ≈ 0 。

TransD: 通过动态映射矩阵嵌入(Knowledge graph embedding via dynamic mapping matrix)

TransD在TransR的基础上,将关系的映射矩阵简化为两个向量的积,图中 Mrh=rphp+Im∗n M r h = r p h p + I m ∗ n 与 Mrt=rptp+Im∗n M r t = r p t p + I m ∗ n 表示实体 h h 与实体r" role="presentation" style="position: relative;">rr映射到关系空间的矩阵,那么对于三元组 (h,r,t) ( h , r , t ) ,需要满足 d(h,r,t)=||Mrhh+r−Mrtt||22≈0 d ( h , r , t ) = | | M r h h + r − M r t t | | 2 2 ≈ 0 。

TransA: 自适应的度量函数(An adaptive approach for knowledge graph embedding)

光看这张图可能会意义不明,其实模型在TransE的基础上的改进也非常小,简单地说就是给实体/关系的每一个维度都加上了一个权重,增加模型的表示能力。 TransE模型的一般形式为: d(h+l,t)=||(h+r)−t||22 =(h+r−t)T(h+r−t) d ( h + l , t ) = | | ( h + r ) − t | | 2 2   = ( h + r − t ) T ( h + r − t ) TransA对于每一类关系,给实体/向量空间加上了一个权重矩阵 Wr W r ,然后可以对权重向量做矩阵分解 Wr=LTrDrLr W r = L r T D r L r ,最后TransA的数学形式为: d(h+l,t)=(h+r−t)TWr(h+r−t)=(Lr|h+r−t|)TDr(Lr|h+r−t|)) d ( h + l , t ) = ( h + r − t ) T W r ( h + r − t ) = ( L r | h + r − t | ) T D r ( L r | h + r − t | ) ) 。

TranSpare: 自适应稀疏转换矩阵(Knowledge graph completion with adaptive sparse transfer matrix)

针对异质性(heterogeneous)

在TransR的基础上,使用可变的稀疏矩阵代替TransR的稠密矩阵:关系连接的实体数量越多,关系越复杂,矩阵约稠密;关系链接的实体数量越少,关系越简单,矩阵约稀疏。 使用参数 θr θ r 描述关系 r r 的复杂程度,使用一个稀疏矩阵Mr(θr)" role="presentation" style="position: relative;">Mr(θr)Mr(θr)和一个关系向量 r r 表示一类关系,其中θr=1−(1−θmin)Nr/Nr∗" role="presentation" style="position: relative;">θr=1−(1−θmin)Nr/Nr∗θr=1−(1−θmin)Nr/Nr∗, r∗ r ∗ 表示连接实体数量最多的关系, Nr∗ N r ∗ 为其连接的实体的数量, θmin θ m i n 为设置的超参,表示关系 r∗ r ∗ 的稀疏程度。 以此为基础,对于一个关系三元组 (h,r,t) ( h , r , t ) ,需要满足的约束为 d(h,r,t)=||hp+r−tp||22=||Mr(θr)h+r−Mr(θr)t||22≈0 d ( h , r , t ) = | | h p + r − t p | | 2 2 = | | M r ( θ r ) h + r − M r ( θ r ) t | | 2 2 ≈ 0 。

针对不平衡性(unbalanced)

与上述方法类似,不同点在于对于每个关系三元组 (h,r,t) ( h , r , t ) ,头尾实体的映射矩阵为两个不同的稀疏矩阵,其稀疏程度与该关系的头尾实体的数目有关,即头/尾涉及到的实体越多,矩阵约稠密;反之涉及到的实体越少,矩阵越稀疏。 使用参数 θhr θ r h 与 θtr θ r t 分别描述头尾实体映射矩阵的稠密程度,则 θlr=1−(1−θmin)Nlr/Nl∗r∗ θ r l = 1 − ( 1 − θ m i n ) N r l / N r ∗ l ∗ ,其中 Nlr N r l 表示关系 r r 在位置l" role="presentation" style="position: relative;">ll(即头或者尾)上关联的实体数量, Nl∗r∗ N r ∗ l ∗ 则表示关系 r∗ r ∗ 在位置 l∗ l ∗ (即头或者尾)上关联的实体数量最多的关系的数量,对应的设置超参 θmin θ m i n 表示其稀疏程度。 对于一个关系三元组 (h,r,t) ( h , r , t ) ,TransSparse需要满足的约束为 d(h,r,t)=||hp+r−tp||22=||Mhr(θhr)h+r−Mtr(θtr)t||22≈0 d ( h , r , t ) = | | h p + r − t p | | 2 2 = | | M r h ( θ r h ) h + r − M r t ( θ r t ) t | | 2 2 ≈ 0 。

TransG: 高斯混合模型(A Generative Mixture Model for Knowledge Graph Embedding)

考虑到一种关系存在的多语义问题,相当于对关系进行了细化,就是找到关系的隐形含义,最终从细化的结果中选出一个最佳的关系语义。

KG2E: 高斯分步表示实体和关系(Learning to represent knowledge graphs with gaussian embedding)

ps. 最后两种方法设计到使用高斯混合分步表示实体,后面有时间了再更新。

标签:

最新新闻:

新闻放送
Top