基于空间和时间映射学习的土地覆盖变化遥感图像双视角时空融合模型
编号:2209 访问权限:仅限参会人 更新:2024-04-12 10:16:28 浏览:798次 快闪报告

报告开始:2024年05月18日 16:25(Asia/Shanghai)

报告时间:5min

所在会场:[S7] 主题7、遥感与地理信息科学 [S7-3] 主题7、遥感与地理信息科学 专题7.3(18日下午,305)

暂无文件

摘要
       时空融合作为解决遥感图像时空矛盾的经济有效方案受到广泛关注。近年来,深度学习方法显示出巨大潜力。但有效地融合土地覆盖变化图像仍具挑战,难点在于不同尺度时间特征映射复杂,导致精细时间变化难以精确建模。本文提出一种新的双视角时空融合方法,其核心思想是通过对空间和时间建模的判别学习来预测目标信息。具体来说,设计基于Swin Transformer的编解码结构,从时间变化图提取全局信息,学习细尺度时间映射来预测目标图像。采用并行子网络考虑时间变化学习从粗到精细尺度的空间映射。引入通道-空间注意力机制,引导模型重点重建异质纹理和时间变化特征。将双视角预测结果融合生成最终重建图像。在三个公开数据集上大量实验验证所提方法优于主流算法。
 
关键词
时空融合,深度学习,Swin Transformer,遥感
报告人
钱中华
硕士研究生 中国地质大学(武汉)地理与信息工程学院

稿件作者
钱中华 中国地质大学(武汉)地理与信息工程学院
岳林蔚 中国地质大学(武汉);地理与信息工程学院
发表评论
验证码 看不清楚,更换一张
全部评论
重要日期
  • 会议日期

    05月17日

    2024

    05月20日

    2024

  • 03月31日 2024

    初稿截稿日期

  • 03月31日 2024

    报告提交截止日期

  • 05月20日 2024

    注册截止日期

主办单位
青年地学论坛理事会
承办单位
厦门大学近海海洋环境科学国家重点实验室
中国科学院城市环境研究所
自然资源部第三海洋研究所
联系方式
历届会议
移动端
在手机上打开
小程序
打开微信小程序
客服
扫码或点此咨询