背景:基于深度学习的方法是目前遥感影像全色多光谱融合处理的主流方法,取得了良好的融合效果。
问题:然而,现有的融合深度学习模型大都是基于相同卫星的全色和多光谱图像进行训练和和预测。作为典型的数据驱动的算法,当前卫星传感器建立的模型直接应用于其他卫星的传感器数据时,会出现严重的融合质量降低。
方法:因此,建立适合不同卫星传感器数据的通用模型是目前急需解决的问题。本研究提出了一个监督式的传感器类型预测模块。首先,输入待融合全色与多光谱影像对到传感器类型预测模块,获得传感器类型;然后,从各传感器模型构成的模型库中选择对应的预测模型;最后,采用模型进行全色和多光谱数据的融合预测。传感器预测算法的设计基本假设是:采用某一特定传感器建立的模型融合对应传感器的数据会获得最优的融合结果,当采用的模型与传感器类型不匹配时不会获得最优的融合结果。基于上述假设,传感器类型预测模块的具体步骤如下:首先,确定某一深度学习融合方法,采用
n
种不同传感器数据集训练获得对应的
n
种融合模型。其次,构建一个涵盖所有传感器类型、包含
m
对MS和Pan影像的影像数据库,逐一输入每对影像到所有的预测模型,共计获得
mn
幅融合影像;然后,采用非监督融合评价指标,统计每对影像输出的
n
幅融合影像的评价数值,将所有7n评价数值作为一组特征向量,以对应的输入影像传感器类型为标签数据,形成包含
m
个7n维样本以及对应传感器标签的训练样本集;最后,采用支撑向量机(SVM)或随机森林(RF)等分类器建立传感器类型预测模型,对测试数据获得的多种传感器模型融合影像和评价结果作为特征向量,使用预测模型来预测传感器类型。
实验设置:为验证提出的框架的有效性,构建了包含GaoFen-1(GF1)、GaoFen-2(GF2)、JiLin-1(JL1)、QuickBird(QB)、WorldView-2(WV2)、WorldView-3(WV3)6种卫星传感器传感器,各100对影像的数据集(其中训练70对,预测影像30对);选择先进的WSDFNet深度学习融合方法用于传感器类型预测模块。实验中预测的准确率达到97%以上。
实验结论:该策略可有效区分传感器类型。预测策略简单而灵活,可作为一个附件,灵活放置在任何有监督深度学习融合过程之前,构建一个跨传感器的通过融合模型。
发表评论