基于对比学习的符号图表征学习方法、装置和存储介质

专利查询2023-5-17  148



1.本发明涉及符号图表征技术领域,尤其涉及基于对比学习的符号图表征学习方法、装置和存储介质。


背景技术:

2.图领域研究的大部分工作都是处理实体(节点)之间的积极关系的(如社交图中的好友关系,引文网络中的引用关系等),即默认边为含有积极意义的边,通常不会在数据集中特别标注边的符号信息,这类图一般被称为无符号图。
3.现有技术中的图研究主要都是针对无符号图,由于这类无符号图的边都是积极意义的连边,所以针对无符号图的相关工作都是采取同构性假设进行,即存在连边的两个节点应该是相似的或具有相同标签的,如在社交图中,具有连边的两个人比不具有连边的两个人,其在年龄地区爱好上具有更高地相似度;又如在职业图中,具有连边的两个人具有相同的职业的可能性更高;再如在引文网络中,一般具有连边的两篇论文通常归属于同一个领域。
4.然而,图领域研究还涉及实体(节点)之间同时具有积极关系和消极关系的图,即该类图含有两种具有截然不同意义的两种连边(即同时具有积极边和消极边),我们将该类图称为符号图。由于无符号图具有两种不同关系(不同意义)的连边,因此,无法直接将无符号图的同构性假设理论毫不改动地迁移到符号图之中。
5.具体地,现有图对比学习方法未考虑符号图具有不同类型边的特点,其在图增强过程中,完全不考虑边的符号,这会导致信息的丢失和不充分利用。且现有图对比学习方法未考虑到符号图中存在的另外一个对比,即正负边的对比。在无符号图的对比学习里,其中的对比为自身(正样本对)与他人(负样本对),促使与前者学习到的嵌入相似,而与后者的相远。但是在符号图中,由于边具有截然相反的含义,也是形成了一个对比,即正负边的对比。因此,需要针对符号图设计一种表征学习方法方式,以实现对符号图的有效预测。


技术实现要素:

6.本发明的目的是提供基于对比学习的符号图表征学习方法、装置和存储介质,能够根据符号图的特性,学习出更加泛化和鲁棒的表征,进而使下游任务达到最前沿的水平。
7.为了实现上有目的,本发明公开了一种基于对比学习的符号图表征学习方法,其包括如下步骤:
8.s1、对原符号图进行图增强处理,分别获得第一增强符号图和第二增强符号图;
9.s2、对所述第一增强符号图和第二增强符号图分别进行正负边分离处理,以获得基于所述第一增强符号图的第一正边子图和第一负边子图,及以获得基于所述第二增强符号图的第二正边子图和第二负边子图;
10.s3、采用第一编码器对所述第一正边子图和第二正边子图进行编码,以获得每一节点在对应正边子图的特征信息,及采用第二编码器对所述第一负边子图和第二负边子图
进行编码,以获得每一节点在对应负边子图的特征信息;
11.s4、以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练符号图表征模型,直至所述符号图表征模型的预设误差收敛。
12.与现有技术相比,本发明一方面分别对原符号图进行图增强处理以获得两个增强符号图,以使后续的学习中可以获得更加具有不变性的嵌入;另一方面,针对正边子图和负边子图采用不同编码器进行编码处理,以使具有不同意义信息的正边子图和负边子图能够单独学习而不会互相干扰;再一方面,通过控制符号图表征模型的预设误差收敛,以确保训练得到的符号图表征模型的预测精度能够满足使用要求。
13.较佳地,所述步骤s1具体包括:
14.采用连续性扰动策略或符号扰动策略对所述原符号图进行图增强处理,以获得所述第一增强符号图,及采用连续性扰动策略或符号扰动策略对所述原符号图进行图增强处理,以获得所述第二增强符号图。
15.较佳地,所述第一编码器和第二编码器均为具备注意力机制的多层图神经卷积网络。
16.较佳地,所述步骤s3中,采用第一编码器对所述第一正边子图和第二正边子图进行编码,以获得每一节点在对应正边子图的特征信息,具体包括:
17.s311、依据注意力机制计算所述第一正边子图和第二正边子图中每一节点在对应正边子图对应的聚合边的注意力系数;
18.s312、依据当前节点在对应正边子图对应的聚合边的注意力系数和经过特征转换后的节点在对应正边子图的特征信息,聚合当前节点在对应正边子图的所有一阶邻居的信息,以获得当前节点在对应正边子图在多层图神经卷积网络中的当前层的表征;
19.s313、对当前节点在对应正边子图在多层图神经卷积网络中的不同层的表征进行拼接和特征转换,得到当前节点在对应正边子图的特征信息。
20.较佳地,所述步骤s3中,采用第二编码器对所述第一负边子图和第二负边子图进行编码,以获得每一节点在对应负边子图的特征信息,具体包括:
21.s321、依据注意力机制计算所述第一负边子图和第二负边子图中每一节点在对应负边子图对应的聚合边的注意力系数;
22.s322、依据当前节点在对应负边子图对应的聚合边的注意力系数和经过特征转换后的节点在对应负边子图的特征信息,聚合当前节点在对应负边子图的所有一阶邻居的信息,以获得当前节点在对应负边子图在多层图神经卷积网络中的当前层的表征;
23.s323、对当前节点在对应负边子图在多层图神经卷积网络中的不同层的表征进行拼接和特征转换,得到当前节点在对应负边子图的特征信息。
24.较佳地,所述步骤s4具体包括:
25.以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练所述符号图表征模型中每一节点在对应正边子图的特征信息的特征转换参量和每一节点在对应负边子图的特征信息的特征转换参量,直至所述符号图表征模型的每一节点在对应正边子图的特征信息的特征转换参量和每一节点在对应负边子图的特征信息的特征转换参量的预设误差均收敛。
26.较佳地,所述第一编码器为具有正边编码特性的编码器,所述第二编码器为具有
负边编码特性的编码器。
27.较佳地,所述预设误差包括标签误差和对比误差,其中,所述对比误差包括增强图间误差和增强图内误差。
28.相应地,本发明还公开了一种基于对比学习的符号图表征学习装置,其包括:
29.第一处理单元,被配置为对原符号图进行图增强处理,分别获得第一增强符号图和第二增强符号图;
30.第二处理单元,被配置为对所述第一增强符号图和第二增强符号图分别进行正负边分离处理,获得基于所述第一增强符号图的第一正边子图和第一负边子图,及获得基于所述第二增强符号图的第二正边子图和第二负边子图;
31.编码单元,被配置为采用第一编码器对所述第一正边子图和第二正边子图进行编码,获得每一节点在对应正边子图的特征信息,及采用第二编码器对所述第一负边子图和第二负边子图进行编码,获得每一节点在对应负边子图的特征信息;
32.训练单元,被配置为以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练符号图表征模型,直至所述符号图表征模型的预设误差收敛。
33.相应地,本发明还公开了一种存储介质,用于存储计算机程序,所述程序被处理器执行时实现如上所述的基于对比学习的符号图表征学习方法。
附图说明
34.图1是本发明的基于对比学习的符号图表征学习方法的流程框图;
35.图2是本发明的基于对比学习的符号图表征学习装置的结构框图。
具体实施方式
36.为详细说明本发明的技术内容、构造特征、所实现目的及效果,以下结合实施方式并配合附图详予说明。
37.请参阅图1所示,本实施例的基于对比学习的符号图表征学习方法,其包括如下步骤:
38.s1、对原符号图进行图增强处理,分别获得第一增强符号图和第二增强符号图。
39.较佳地,所述步骤s1具体包括:
40.采用连续性扰动策略或符号扰动策略对所述原符号图进行图增强处理,以获得所述第一增强符号图,及采用连续性扰动策略或符号扰动策略对所述原符号图进行图增强处理,以获得所述第二增强符号图。
41.可以理解的是,本实施例在进行图形增强的过程中,考虑到符号图边上所带有的符号,具体地,可以采用连续性扰动策略分别获得第一增强符号图和第二增强符号图,也可以采用符号扰动策略分别获得第一增强符号图和第二增强符号图,还可以采用连续性扰动策略和符号扰动策略中的一者获得第一增强符号图,采用另一者获得第二增强符号图。
42.以下结合计算分别对连续性扰动策略和符号扰动策略的具体方式进行详细说明。
43.对于连续性扰动策略,给定给定一个符号图其中v代表点的
集合,ε
+
代表正边集合,ε-代表负边集合。连接性扰动策略以扰动概率r随机对边进行扰动。
44.连接性扰动策略具体执行方式如下:
45.对于正边,

首先在正边集合ε
+
中,以扰动概率r对每条边进行删除(即每条边有r的概率被删除),假设存在p条正边从符号图中删除;

然后随机生成p条正边,插入到符号图中。
46.同理,对于负边,

首先在负边集合ε-中,以扰动概率r对每条边进行删除(即每条边有r的概率被删除),假设存在q条负边从符号图中删除;

然后随机生成q条负边,插入到符号图中。
47.通过上述方式,可以通过连接性扰动策略获得基于原符号图的第一增强符号图和/或第二增强符号图。
48.对于符号扰动策略,给定一个符号图其中v代表点的集合,ε
+
代表正边集合,ε-代表负边集合。连接性扰动以扰动概率r随机对边进行扰动。
49.而符号扰动以扰动概率r对每条边进行符号变换。具体的,

每条正边都有r概率变换成负边(只是符号进行变换,边的两个端点不变);

每条负边都有r概率变换成正边。
50.通过上述方式,可以通过符号扰动以策略获得基于原符号图的第一增强符号图和/或第二增强符号图。
51.步骤s1的最后,得到的第一增强符号图为第二增强符号图为
52.s2、对所述第一增强符号图和第二增强符号图分别进行正负边分离处理,以获得基于所述第一增强符号图的第一正边子图和第一负边子图,及以获得基于所述第二增强符号图的第二正边子图和第二负边子图。
53.可以理解的是,为了将正负边所传递的不同语义信息进行分离,避免信息混淆,本实施例认为将正负边二者分离是非常有必要的。
54.具体的,将第一增强符号图的正负边分离,得到第一正边子图和第一负边子图其中,第一正边子图只含有第一增强符号图中的正边,第一负边子图只含有第一增强符号图的负边。
55.同理,将第二增强符号图的正负边分离,得到第二正边子图和第二负边子图其中只含有第二增强符号图中的正边,只含有第二增强符号图中的负边。
56.s3、采用第一编码器对所述第一正边子图和第二正边子图进行编码,以获得每一节点在对应正边子图的特征信息,及采用第二编码器对所述第一负边子图和第二负边子图进行编码,以获得每一节点在对应负边子图的特征信息。
57.较佳地,所述第一编码器和第二编码器均为具备注意力机制的多层图神经卷积网络。具体地,较佳地,所述第一编码器为具有正边编码特性的编码器,所述第二编码器为具
有负边编码特性的编码器。
58.较佳地,所述步骤s3中,采用第一编码器对所述第一正边子图和第二正边子图进行编码,以获得每一每一节点在对应正边子图的特征信息,具体包括:
59.s311、依据注意力机制计算所述第一正边子图和第二正边子图中每一节点在对应正边子图对应的聚合边的注意力系数。
60.这里的注意力系数的计算方式如下:
61.在第一编码器gnn
+
中,节点i和节点j之间的注意力系数α
ij
的计算如下:
[0062][0063]
其中,a为向量,起到映射作用;hi为节点i的嵌入(为节点i的固定属性);wa为矩阵(需要通过学习以进行优化),起到特征转换作用;ni代表节点i的一阶邻居;leakyrelu为带泄露线性整流函数,为神经网络中常用的激活函数;exp为自然常数e为底的指数函数,是数学常用符号表达。
[0064]
s312、依据当前节点在对应正边子图对应的聚合边的注意力系数和经过特征转换后的当前节点在对应正边子图的特征信息,聚合当前节点在对应正边子图的所有一阶邻居的信息,以获得当前节点在对应正边子图在多层图神经卷积网络中的当前层的表征。
[0065]
根据注意力系数、经过特征转换后的节点特征,聚合一阶邻居的信息,并通过多端学习机制,独立捕捉不同方面的信息。
[0066]
在第一编码器gnn
+
中,
[0067]
其中,hj为节点j的表征;wb为矩阵,起到特征转换作用;ni代表节点i的一阶邻居;σ代表非线性激活函数;k代表多端注意力机制中端的数量;
[0068]
σ与括号内的内容对应聚合当前节点在对应正边子图的所有一阶邻居的信息;部分为组合k个端学习出的内容,为采用的注意力集中为多端注意力机制,即通过不同且独立的注意力过程,使得学习过程更加稳定。
[0069]
s313、对当前节点在对应正边子图在多层图神经卷积网络中的不同层的表征进行拼接和特征转换,得到当前节点在对应正边子图的特征信息。
[0070]
将当前节点在对应正边子图在不同层的表征进行拼接和特征转换,得到当前节点在对应正边子图的最终表征z
i+
,这里,在第一编码器gnn
+
中,当前节点在对应正边子图的特征信息为:
[0071][0072]
其中,为节点i在第l层的表征;wc为矩阵,起到特征转换作用。
[0073]
较佳地,所述步骤s3中,采用第二编码器对所述第一负边子图和第二负边子图进行编码,以获得每一节点在对应负边子图的特征信息,具体包括:
[0074]
s321、依据注意力机制计算所述第一负边子图和第二负边子图中每一节点在对应负边子图对应的聚合边的注意力系数。
[0075]
注意力系数的计算方式如下:
[0076]
在第二编码器gnn-中,节点i和节点j之间的注意力系数α
ij
的计算如下:
[0077][0078]
其中,a为向量,起到映射作用;hi为节点i的嵌入(为节点i的固定属性);wa为矩阵(需要通过学习以进行优化),起到特征转换作用;ni代表节点i的一阶邻居;leakyrelu为带泄露线性整流函数,为神经网络中常用的激活函数;exp为自然常数e为底的指数函数,是数学常用符号表达。
[0079]
s322、依据当前节点在对应负边子图对应的聚合边的注意力系数和经过特征转换后的当前节点在对应负边子图的特征信息,聚合当前节点在对应负边子图的所有一阶邻居的信息,以获得当前节点在对应负边子图在多层图神经卷积网络中的当前层的表征。
[0080]
根据注意力系数、经过特征转换后的节点特征,聚合一阶邻居的信息;并通过多端学习机制,独立捕捉不同方面的信息。
[0081]
在第二编码器gnn-中,
[0082]
其中,hj为节点j的表征;wb为矩阵,起到特征转换作用;ni代表节点i的一阶邻居;σ代表非线性激活函数;k代表多端注意力机制中端的数量;
[0083]
σ与括号内的内容对应聚合当前节点在对应负边子图的所有一阶邻居的信息;部分为组合k个端学习出的内容,为采用的注意力集中为多端注意力机制,即通过不同且独立的注意力过程,使得学习过程更加稳定。
[0084]
s323、对当前节点在对应负边子图在多层图神经卷积网络中的不同层的表征进行拼接和特征转换,得到当前节点在对应负边子图的特征信息。
[0085]
将当前节点在对应负边子图在不同层的表征进行拼接和特征转换,得到当前节点在对应负边子图的最终表征z
i-,这里,在第二编码器gnn-中,当前节点在对应负边子图的特征信息为:
[0086][0087]
其中,为节点i在第l层的表征;wc为矩阵,起到特征转换作用。
[0088]
s4、以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练符号图表征模型,直至所述符号图表征模型的预设误差收敛。
[0089]
较佳地,所述步骤s4具体包括:
[0090]
以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练所述符号图表征模型中每一节点在对应正边子图的特征信息的特征转换参量和每一节点在对应负边子图的特征信息的特征转换参量,直至所述符号图表征模型的每一节点在对应正边子图的特征信息的特征转换参量和每一节点在对应负边子图的特征信息的特征转换参量的预设误差均收敛。
[0091]
较佳地,所述预设误差包括标签误差和对比误差,其中,所述对比误差包括增强图间误差和增强图内误差。
[0092]
对于标签误差,本实施例中,根据链接符号预测任务进行标签误差设计,即判断给定链接的符号。具体的,在本专利中,首先,将基于两个增强图和两个编码器学习获得的四个节点表征进行拼接转化,得到节点的最终表征。具体的,对于节点i,其最终表zi为:
[0093][0094]
其后,使用一个2层mlp函数去估计顶点i和顶点j之间链接(边)的符号预测分数:
[0095][0096]
再基于交叉熵损失,得出最终的标签误差:
[0097][0098]
其中,ω
+
代表训练集中正边的集合,ω-代表训练集中负边的集合;σa(
·
)代表sigmoid函数;y
i,j
和yi′
,i

分别代表两个点间连边真实标签;和分别代表两个节点间连边预测标签。
[0099]
对于增强图间误差,增强图间与一般对比学习误差设计的核心一致,关注不同节点间的表征差距;本实施例受infonec误差设计启发,定义两个编码器的增强图间误差分别如下:
[0100]
对于第一编码器gnn
+学
习出来的节点表征的增强图间误差为:
[0101][0102]
对于第二编码器gnn-学习出来的节点表征的增强图间误差为:
[0103][0104]
其中,z
+
和z-分别为第一编码器gnn
+
和第二编码器gnn-学习得到的节点表征;z
i,1
和z
i,2
为分别基于第一增强符号图和第二增强符号图学习获得的节点i的表征,i为这一训练批次的节点总数,τ为温度系数。
[0105]
最后,总的增强图间误差为:
[0106][0107]
对于增强图内误差,其关注同一节点在正图和负图学习获得的表征之间的差距,其设计目的为,令节点的最终表征接近根据正图学习获得的表征,而同时远离根据负图学习获得的表征。据此,增强图内误差设计如下:
[0108][0109]
根据增强图间误差和增强图内误差,最终的对比误差设计如下:
[0110][0111]
其中,α为调节参数,其调节二者重要性的作用。
[0112]
根据标签误差和对比误差,最终的误差设计如下:
[0113][0114]
其中,β为调节参数,其调节二者重要性的作用。
[0115]
请参阅图2所示,相应地,本发明还公开了一种基于对比学习的符号图表征学习装置,其包括:
[0116]
第一处理单元10,被配置为对原符号图进行图增强处理,分别获得第一增强符号图和第二增强符号图;
[0117]
第二处理单元20,被配置为对所述第一增强符号图和第二增强符号图分别进行正负边分离处理,获得基于所述第一增强符号图的第一正边子图和第一负边子图,及获得基于所述第二增强符号图的第二正边子图和第二负边子图;
[0118]
编码单元30,被配置为采用第一编码器对所述第一正边子图和第二正边子图进行编码,获得每一节点在对应正边子图的特征信息,及采用第二编码器对所述第一负边子图和第二负边子图进行编码,获得每一节点在对应负边子图的特征信息;
[0119]
训练单元40,被配置为以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练符号图表征模型,直至所述符号图表征模型的预设误差收敛。
[0120]
相应地,本发明还公开了一种存储介质,用于存储计算机程序,所述程序被处理器执行时实现如上所述的基于对比学习的符号图表征学习方法。
[0121]
结合图1和图2,本发明一方面分别对原符号图进行图增强处理以获得两个增强符号图,以使后续的学习中可以获得更加具有不变性的嵌入;另一方面,针对正边子图和负边子图采用不同编码器进行编码处理,以使具有不同意义信息的正边子图和负边子图能够单独学习而不会互相干扰;再一方面,通过控制符号图表征模型的预设误差收敛,以确保训练得到的符号图表征模型的预测精度能够满足使用要求。
[0122]
以上所揭露的仅为本发明的优选实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明申请专利范围所作的等同变化,仍属本发明所涵盖的范围。

技术特征:
1.一种基于对比学习的符号图表征学习方法,其特征在于,包括如下步骤:对原符号图进行图增强处理,分别获得第一增强符号图和第二增强符号图;对所述第一增强符号图和第二增强符号图分别进行正负边分离处理,以获得基于所述第一增强符号图的第一正边子图和第一负边子图,及以获得基于所述第二增强符号图的第二正边子图和第二负边子图;采用第一编码器对所述第一正边子图和第二正边子图进行编码,以获得每一节点在对应正边子图的特征信息,及采用第二编码器对所述第一负边子图和第二负边子图进行编码,以获得每一节点在对应负边子图的特征信息;以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练符号图表征模型,直至所述符号图表征模型的预设误差收敛。2.如权利要求1所述的基于对比学习的符号图表征学习方法,其特征在于,所述对所述第一增强符号图和第二增强符号图分别进行正负边分离处理,以获得基于所述第一增强符号图的第一正边子图和第一负边子图,及以获得基于所述第二增强符号图的第二正边子图和第二负边子图,具体包括:采用连续性扰动策略或符号扰动策略对所述原符号图进行图增强处理,以获得所述第一增强符号图,及采用连续性扰动策略或符号扰动策略对所述原符号图进行图增强处理,以获得所述第二增强符号图。3.如权利要求1所述的基于对比学习的符号图表征学习方法,其特征在于,所述第一编码器和第二编码器均为具备注意力机制的多层图神经卷积网络。4.如权利要求3所述的基于对比学习的符号图表征学习方法,其特征在于,所述采用第一编码器对所述第一正边子图和第二正边子图进行编码,以获得每一节点在对应正边子图的特征信息,具体包括:依据注意力机制计算所述第一正边子图和第二正边子图中每一节点在对应正边子图对应的聚合边的注意力系数;依据当前节点在对应正边子图对应的聚合边的注意力系数和经过特征转换后的节点在对应正边子图的特征信息,聚合当前节点在对应正边子图的所有一阶邻居的信息,以获得当前节点在对应正边子图在多层图神经卷积网络中的当前层的表征;对当前节点在对应正边子图在多层图神经卷积网络中的不同层的表征进行拼接和特征转换,得到当前节点在对应正边子图的特征信息。5.如权利要求4所述的基于对比学习的符号图表征学习方法,其特征在于,所述采用第二编码器对所述第一负边子图和第二负边子图进行编码,以获得每一节点在对应负边子图的特征信息,具体包括:依据注意力机制计算所述第一负边子图和第二负边子图中每一节点在对应负边子图对应的聚合边的注意力系数;依据当前节点在对应负边子图对应的聚合边的注意力系数和经过特征转换后的节点在对应负边子图的特征信息,聚合当前节点在对应负边子图的所有一阶邻居的信息,以获得当前节点在对应负边子图在多层图神经卷积网络中的当前层的表征;对当前节点在对应负边子图在多层图神经卷积网络中的不同层的表征进行拼接和特征转换,得到当前节点在对应负边子图的特征信息。
6.如权利要求5所述的基于对比学习的符号图表征学习方法,其特征在于,所述以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练符号图表征模型,直至所述符号图表征模型的预设误差收敛,具体包括:以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练所述符号图表征模型中每一节点在对应正边子图的特征信息的特征转换参量和每一节点在对应负边子图的特征信息的特征转换参量,直至所述符号图表征模型的每一节点在对应正边子图的特征信息的特征转换参量和每一节点在对应负边子图的特征信息的特征转换参量的预设误差均收敛。7.如权利要求1所述的基于对比学习的符号图表征学习方法,其特征在于,所述第一编码器为具有正边编码特性的编码器,所述第二编码器为具有负边编码特性的编码器。8.如权利要求1所述的基于对比学习的符号图表征学习方法,其特征在于,所述预设误差包括标签误差和对比误差,其中,所述对比误差包括增强图间误差和增强图内误差。9.一种基于对比学习的符号图表征学习装置,其特征在于,包括:第一处理单元,被配置为对原符号图进行图增强处理,分别获得第一增强符号图和第二增强符号图;第二处理单元,被配置为对所述第一增强符号图和第二增强符号图分别进行正负边分离处理,获得基于所述第一增强符号图的第一正边子图和第一负边子图,及获得基于所述第二增强符号图的第二正边子图和第二负边子图;编码单元,被配置为采用第一编码器对所述第一正边子图和第二正边子图进行编码,获得每一节点在对应正边子图的特征信息,及采用第二编码器对所述第一负边子图和第二负边子图进行编码,获得每一节点在对应负边子图的特征信息;训练单元,被配置为以所有节点在对应正边子图的特征信息和在对应负边子图的特征信息作为训练样本数据,训练符号图表征模型,直至所述符号图表征模型的预设误差收敛。10.一种存储介质,用于存储计算机程序,其特征在于:所述程序被处理器执行时实现如权利要求1~8中任一项所述的基于对比学习的符号图表征学习方法。

技术总结
本发明公开了基于对比学习的符号图表征学习方法、装置和存储介质,该方法包括:对原符号图进行图增强处理,分别获得第一增强符号图和第二增强符号图;对第一增强符号图和第二增强符号图分别进行正负边分离处理,以获得第一正边子图、第一负边子图、第二正边子图和第二负边子图;采用第一编码器对第一正边子图和第二正边子图进行编码,以获得每一节点在对应正边子图的特征信息,及采用第二编码器对第一负边子图和第二负边子图进行编码,以获得每一节点在对应负边子图的特征信息;训练符号图表征模型,直至符号图表征模型的预设误差收敛;本发明能够根据符号图的特性,学习出更加泛化和鲁棒的表征。鲁棒的表征。鲁棒的表征。


技术研发人员:杜尔鑫 舒琳 陈川 郑子彬 周育人
受保护的技术使用者:中山大学
技术研发日:2021.12.08
技术公布日:2022/3/8

最新回复(0)