1.本发明涉及图像处理技术领域,尤其涉及一种跨中心图像联合学习方法、系统、存储介质及电子设备。
背景技术:
2.图像数据的应用越来越广泛,通常一个领域的图像数据会分布在多个中心,而图像实际应用趋向于联合使用多中心的数据,因为数据样本大,模型适应性会更好,应用效果才会更好。但是,各中心对各自的图像数据具有独立的知识产权,都希望极大程度保证各自图像数据的隐私性和安全性。
3.近年来,联邦学习被广泛研究和应用,其能够实现在保护数据隐私安全的前提下执行多中心数据联合学习。常用的联邦学习方法是在各中心间传输模型信息(如模型参数、梯度信息),因为不直接传输原始图像数据,所以保护了数据的隐私和安全。但是,现阶段图像领域通常都使用深度学习模型来实现应用,而深度学习模型参数量是非常大的,直接传输模型参数梯度信息是非常耗费通信资源的,并且深度学习模型梯度信息的传输可能带来图像信息泄露风险。
技术实现要素:
4.本发明所要解决的技术问题是针对现有技术存在的问题,提供一种跨中心图像联合学习方法、系统、存储介质及电子设备。
5.为解决上述技术问题,本发明提供一种跨中心图像联合学习方法,包括如下步骤:
6.s1,中央节点接收各分布式节点提供的对应原始图像的标签数据和拓扑知识,将所述标签数据和拓扑知识输入合成模型,通过合成模型产生合成图像;
7.其中,各分布式节点独立拥有各自的原始图像以及对应的标签数据;各分布式节点针对各自的原始图像利用拓扑数据分析方法提取相应的拓扑知识;
8.s2,各分布式节点接收中央节点反馈的合成图像,利用各自节点的识别模型判断所述合成图像与各自节点的原始图像是否相同,并计算模型损失值;
9.s3,各分布式节点基于各自的模型损失值更新各自节点上识别模型的参数;中央节点接收所有分布式节点反馈的模型损失值并叠加,基于总损失值更新中央节点上合成模型的参数;
10.s4,每次参数更新后循环重复s1~s3步骤,直至各分布式节点上的识别模型均判定合成图像与各自节点的原始图像相同时,至此完成跨中心的图像联合学习。
11.本发明的有益效果是:本发明的跨中心图像联合学习方法,节点间交互的仅为标签数据、拓扑知识、合成图像、损失值,不直接交互原始图像数据,保护了原始图像数据的隐私和安全;同时相比交互深度学习模型参数梯度信息,交互信息量大大降低,实现了多中心联合学习过程中在保障原始图像数据隐私安全的同时减少通信资源的开销。
12.在上述技术方案的基础上,本发明还可以做如下改进。
13.进一步,上述技术方案还包括预先在中央节点处构建合成模型,以及在各分布式节点处构建识别模型的步骤。
14.进一步,所述合成模型由全卷积网络结构和transformer网络结构融合而成;所述识别模型由全卷积网络结构和transformer网络结构融合而成。
15.采用上述进一步方案的有益效果是:结合卷积网络对图像目标的强特征提取能力和transformer网络对图像目标的强关系建模能力,提高合成模型的生成图像的能力,提升识别模型的识别能力。
16.进一步,所述计算模型损失值包括:利用拓扑数据分析方法计算合成图像的拓扑特征,根据所述拓扑特征、识别模型的输出结果、原始图像的标签数据和拓扑知识,计算模型损失值。
17.为解决上述技术问题,本发明提供一种跨中心图像联合学习系统,包括中央节点和多个分布式节点;所述中央节点用于接收各分布式节点提供的对应原始图像的标签数据和拓扑知识,将标签数据和拓扑知识输入合成模型,通过合成模型产生合成图像。
18.其中,各分布式节点独立拥有各自的原始图像以及对应的标签数据;各分布式节点针对各自的原始图像利用拓扑数据分析方法提取相应的拓扑知识。
19.各分布式节点用于接收中央节点反馈的合成图像,利用各自节点的识别模型判断所述合成图像与各自节点的原始图像是否相同,并计算模型损失值。
20.各分布式节点还用于基于各自的模型损失值更新各自节点上识别模型的参数;所述中央节点还用于接收所有分布式节点反馈的模型损失值并叠加,基于总损失值更新中央节点上合成模型的参数。
21.每次参数更新后中央节点和分布式节点循环重复进行图像合成和图像识别,直至各分布式节点上的识别模型均判定合成图像与各自节点的原始图像相同时,至此完成跨中心的图像联合学习。
22.在上述技术方案的基础上,本发明还可以做如下改进。
23.进一步,所述中央节点处预先构建合成模型,各分布式节点处预先构建识别模型。
24.进一步,所述合成模型由全卷积网络结构和transformer网络结构融合而成;所述识别模型由全卷积网络结构和transformer网络结构融合而成。
25.进一步,各分布式节点计算模型损失值包括:利用拓扑数据分析方法计算合成图像的拓扑特征,根据所述拓扑特征、识别模型的输出结果、原始图像的标签数据和拓扑知识,计算模型损失值。
26.为解决上述技术问题,本发明提供一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,使所述计算机执行上述技术方案所述的跨中心图像联合学习方法中中央节点执行的方法步骤或分布式节点执行的方法步骤。
27.为解决上述技术问题,本发明提供一种电子设备,包括存储器、处理器及存储在所述存储器上的并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现上述技术方案所述的跨中心图像联合学习方法中中央节点执行的方法步骤或分布式节点执行的方法步骤。
28.本发明附加的方面及其优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明实践了解到。
附图说明
29.图1为本发明实施例中跨中心图像联合学习方法的节点信息交互图;
30.图2为本发明实施例中跨中心图像联合学习方法流程图;
31.图3为本发明实施例中跨中心图像联合学习方法中合成模型结构图;
32.图4为本发明实施例中跨中心图像联合学习方法中识别模型结构图;
33.图5为本发明实施例提供的电子设备示意图。
具体实施方式
34.以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
35.需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
36.图1为本发明实施例提供的跨中心图像联合学习方法的节点信息交互图;图2为本发明实施例提供的跨中心图像联合学习方法流程图。如图1和2所示,该方法包括:
37.s1,中央节点接收各分布式节点提供的对应原始图像的标签数据和拓扑知识,将所述标签数据和拓扑知识输入合成模型,通过合成模型产生合成图像;
38.其中,各分布式节点独立拥有各自的原始图像以及对应的标签数据;各分布式节点针对各自的原始图像利用拓扑数据分析方法提取相应的拓扑知识。拓扑知识可以设置为持续同调。
39.s2,各分布式节点接收中央节点反馈的合成图像,利用各自节点的识别模型判断所述合成图像与各自节点的原始图像是否相同,并计算模型损失值。
40.各分布式节点接收中央节点反馈的合成图像,同时也输入此节点独立拥有的原始图像数据,利用识别模型判断合成图像与原始图像是否相同。具体地,可以利用各自节点的识别模型计算所述合成图像与各自节点的原始图像的相似度,当所述相似度大于或等于预设值时,判定所述合成图像与各自节点的原始图像相同。也可以利用各自节点的识别模型输出0或1,0代表不相同,1代表相同,进而判定所述合成图像与各自节点上的原始图像是否相同。
41.计算模型损失值包括:利用拓扑数据分析方法计算合成图像的拓扑特征(拓扑特征也设置为持续同调),根据所述拓扑特征、识别模型的输出结果、原始图像的标签数据和
拓扑知识,计算模型损失值。
42.s3,各分布式节点基于各自的模型损失值利用梯度下降法更新各自节点上识别模型的参数;中央节点接收所有分布式节点反馈的模型损失值并叠加,基于总损失值利用梯度下降法更新中央节点上合成模型的参数;
43.s4,每次参数更新后循环重复s1~s3步骤,直至各分布式节点上的识别模型均判定合成图像与各自节点的原始图像相同时,至此完成跨中心的图像联合学习。
44.本发明是实施例中,预先在中央节点处构建合成模型,以及在各分布式节点处构建识别模型的步骤。在中央节点上融合全卷积网络和transformer网络来构建合成模型,在各分布式节点上融合全卷积网络和transformer网络来构建识别模型。
45.如图3所示,合成模型包括第一基础模块1、中间模块2和第一输出模块3;第一基础模块1包括第一swin transformer单元11、resnet单元12和特征图合并单元13;所述swin transformer单元11和resnet单元12基于输入的标签数据和拓扑知识并行提取特征图。也就是说,标签数据和拓扑知识输入到第一swin transformer单元11中,同时标签数据和拓扑知识也输入到resnet单元12中,进行并行特征图提取。特征图合并单元13合并第一swin transformer单元11和resnet单元12输出的特征图。中间模块2利用fpn(feature pyramid network)从已合并的所述特征图中获取分层多尺度特征图,进而合并所述分层多尺度特征图。第一输出模块3利用多层上采样操作对已合并的分层多尺度特征图进行逐层上采样,将上采样结果作为合成图像输出。合成模型通过融合全卷积网络(resnet、fpn)的强特征提取能力和swintransformer的强关系建模能力,增强了合成图像的能力。
46.如图4所示,识别模型包括第二基础模块4和第二输出模块5;第二基础模块包括第二swintransformer单元41、patchgan单元42和特征合并单元43,所述第二swin transformer单元41和patchgan单元42基于输入的合成图像及原始图像并行提取特征。也就是说,合成图像及原始图像输入到第一swin transformer单元11中,同时合成图像及原始图像也输入到resnet单元12中,进行并行特征提取。特征合并单元43合并第二swin transformer单元41和patchgan单元42输出的特征;第二输出模块5包括多个卷积层,将已合并的特征输入到多个卷积层中,计算合成图像与原始图像的相似度并输出。识别模型通过融合全卷积网络(patchgan)的强特征提取能力和swin transformer的强关系建模能力,增强了识别和判别图像的能力。
47.合成模型和识别模型除了可以采用上述融合结构外,还可以采用如下结构。合成模型的另一种实施例结构依次由resnet中的1个或多个基础模块(一般resnet中总共包含5个基础模块)、2个swin transformer基础模块(swintransformer一般含有多个基础模块)、多个卷积层组成。识别模型的另一种实施例结构依次由patchgan、swintransformer、多个卷积层组成。
48.本发明实施例提供的跨中心图像联合学习方法,节点间交互的仅为标签数据、拓扑知识、合成图像、损失值,不直接交互原始图像数据,保护了原始图像数据的隐私和安全;同时相比交互深度学习模型参数梯度信息,交互信息量大大降低,实现了在保障原始图像数据隐私安全的同时减少通信资源的开销。
49.本发明实施例能够实现在多个中心不共享原始图像数据的情况下完成图像联合学习,保护了原始图像的隐私和安全;并通过卷积网络、transformer网络、拓扑知识的融
合,提高整个联合学习模型的学习能力。
50.本发明实施例提供一种跨中心图像联合学习系统,包括中央节点和多个分布式节点。中央节点用于接收各分布式节点提供的对应原始图像的标签数据和拓扑知识,将标签数据和拓扑知识输入合成模型,通过合成模型产生合成图像。其中,各分布式节点独立拥有各自的原始图像以及对应的标签数据;各分布式节点针对各自的原始图像利用拓扑数据分析方法提取相应的拓扑知识。
51.各分布式节点用于接收中央节点反馈的合成图像,利用各自节点的识别模型判断所述合成图像与各自节点的原始图像是否相同,并时计算模型损失值。
52.各分布式节点还用于基于各自的模型损失值更新各自节点上识别模型的参数;中央节点还用于接收所有分布式节点反馈的模型损失值并叠加,基于总损失值更新中央节点上合成模型的参数。
53.每次参数更新后中央节点和分布式节点循环重复进行图像合成和图像识别,直至各分布式节点上的识别模型均判定合成图像与各自节点的原始图像相同时,至此完成跨中心的图像联合学习。
54.描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定。
55.基于与本发明的实施例中所示的方法相同的原理,本发明的实施例中还提供了一种电子设备,该电子设备可以包括但不限于:处理器和存储器;存储器,用于存储计算机程序;处理器,用于通过调用计算机程序执行本发明任一实施例所示的方法。
56.在一个可选实施例中提供了一种电子设备,如图5所示,图5所示的电子设备5000包括:处理器5001和存储器5003。其中,处理器5001和存储器5003相连,如通过总线5002相连。可选地,电子设备5000还可以包括收发器5004,收发器5004可以用于该电子设备与其他电子设备之间的数据交互,如数据的发送和/或数据的接收等。需要说明的是,实际应用中收发器5004不限于一个,该电子设备5000的结构并不构成对本发明实施例的限定。
57.处理器5001可以执行前述方法实施例中中心图像联合学习方法中中央节点执行的方法步骤或分布式节点执行的方法步骤。处理器5001可以是cpu(central processing unit,中央处理器),通用处理器,dsp(digital signal processor,数据信号处理器),asic(application specific integrated circuit,专用集成电路),fpga(field programmable gate array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本发明公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器5001也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,dsp和微处理器的组合等。
58.总线5002可包括一通路,在上述组件之间传送信息。总线5002可以是pci(peripheral component interconnect,外设部件互连标准)总线或eisa(extended industry standard architecture,扩展工业标准结构)总线等。总线5002可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
59.存储器5003可以是rom(read only memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,ram(random access memory,随机存取存储器)或者可存储
信息和指令的其他类型的动态存储设备,也可以是eeprom(electrically erasable programmable read only memory,电可擦可编程只读存储器)、cd-rom(compact disc read only memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
60.存储器5003用于存储执行本发明方案的应用程序代码(计算机程序),并由处理器5001来控制执行。处理器5001用于执行存储器5003中存储的应用程序代码,以实现前述方法实施例所示的内容。
61.其中,电子设备也可以是终端设备,图5示出的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
62.本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,当其在计算机上运行时,使得计算机可以执行前述方法实施例中中央节点执行的方法步骤或分布式节点执行的方法步骤。
63.根据本发明的另一个方面,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该电子设备执行上述各种实施例实现方式中提供的方法。
64.可以以一种或多种程序设计语言或其组合来编写用于执行本发明的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++、python,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
65.应该理解的是,附图中的流程图和框图,图示了按照本发明各种实施例的方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
66.本发明实施例提供的计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、
光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
67.上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
68.以上描述仅为本发明的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本发明中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本发明中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
技术特征:
1.一种跨中心图像联合学习方法,其特征在于,包括如下步骤:s1,中央节点接收各分布式节点提供的对应原始图像的标签数据和拓扑知识,将所述标签数据和拓扑知识输入合成模型,通过合成模型产生合成图像;其中,各分布式节点独立拥有各自的原始图像以及对应的标签数据;各分布式节点针对各自的原始图像利用拓扑数据分析方法提取相应的拓扑知识;s2,各分布式节点接收中央节点反馈的合成图像,利用各自节点的识别模型判断所述合成图像与各自节点的原始图像是否相同,并计算模型损失值;s3,各分布式节点基于各自的模型损失值更新各自节点上识别模型的参数;中央节点接收所有分布式节点反馈的模型损失值并叠加,基于总损失值更新中央节点上合成模型的参数;s4,每次参数更新后循环重复s1~s3步骤,直至各分布式节点上的识别模型均判定合成图像与各自节点的原始图像相同时,至此完成跨中心的图像联合学习。2.根据权利要求1所述的方法,其特征在于,还包括预先在中央节点处构建合成模型,以及在各分布式节点处构建识别模型的步骤。3.根据权利要求2所述的方法,其特征在于,所述合成模型由全卷积网络结构和transformer网络结构融合而成;所述识别模型由全卷积网络结构和transformer网络结构融合而成。4.根据权利要求1至3任一项所述的方法,其特征在于,所述计算模型损失值包括:利用拓扑数据分析方法计算合成图像的拓扑特征,根据所述拓扑特征、识别模型的输出结果、原始图像的标签数据和拓扑知识,计算模型损失值。5.一种跨中心图像联合学习系统,其特征在于,包括中央节点和多个分布式节点;所述中央节点用于接收各分布式节点提供的对应原始图像的标签数据和拓扑知识,将标签数据和拓扑知识输入合成模型,通过合成模型产生合成图像;其中,各分布式节点独立拥有各自的原始图像以及对应的标签数据;各分布式节点针对各自的原始图像利用拓扑数据分析方法提取相应的拓扑知识;各分布式节点用于接收中央节点反馈的合成图像,利用各自节点的识别模型判断所述合成图像与各自节点的原始图像是否相同,并计算模型损失值;各分布式节点还用于基于各自的模型损失值更新各自节点上识别模型的参数;所述中央节点还用于接收所有分布式节点反馈的模型损失值并叠加,基于总损失值更新中央节点上合成模型的参数;每次参数更新后中央节点和分布式节点循环重复进行图像合成和图像识别,直至各分布式节点上的识别模型均判定合成图像与各自节点的原始图像相同时,至此完成跨中心的图像联合学习。6.根据权利要求5所述的系统,其特征在于,所述中央节点处预先构建合成模型,各分布式节点处预先构建识别模型。7.根据权利要求6所述的系统,其特征在于,所述合成模型由全卷积网络结构和transformer网络结构融合而成;所述识别模型由全卷积网络结构和transformer网络结构融合而成。8.根据权利要求5至7任一项所述的系统,其特征在于,各分布式节点计算模型损失值
包括:利用拓扑数据分析方法计算合成图像的拓扑特征,根据所述拓扑特征、识别模型的输出结果、原始图像的标签数据和拓扑知识,计算模型损失值。9.一种计算机可读存储介质,包括指令,其特征在于,当所述指令在计算机上运行时,使所述计算机执行根据权利要求1至4任一项所述的跨中心图像联合学习方法中中央节点执行的方法步骤或分布式节点执行的方法步骤。10.一种电子设备,包括存储器、处理器及存储在所述存储器上的并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至4任一项所述的跨中心图像联合学习方法中中央节点执行的方法步骤或分布式节点执行的方法步骤。
技术总结
本发明涉及图像处理技术领域,公开了一种跨中心图像联合学习方法、系统、存储介质及电子设备;方法包括:中央节点接收各分布式节点提供的对应原始图像的标签数据和拓扑知识,并通过合成模型产生合成图像;各分布式节点利用各自的识别模型判断合成图像与原始图像是否相同,并计算模型损失值;各分布式节点基于各自的模型损失值更新各自识别模型的参数;中央节点基于所有分布式节点反馈的模型损失值的总和更新中央节点上合成模型的参数;每次参数更新后循环重复上述步骤,直至各分布式节点上的识别模型难以区分合成图像和原始图像。本发明实现了多中心联合学习过程中在保障原始图像数据隐私安全的同时减少通信资源的开销。像数据隐私安全的同时减少通信资源的开销。像数据隐私安全的同时减少通信资源的开销。
技术研发人员:李叶 许乐乐 徐金中 郭丽丽
受保护的技术使用者:中国科学院空间应用工程与技术中心
技术研发日:2021.12.03
技术公布日:2022/3/8