西安光机所在压缩高速成像领域取得重要进展
提出多先验物理增强神经网络(mPEN)成像框架(如图1所示),团队创新性地将光致发光动力学物理模型、扩展采样先验、稀疏性约束、深度图像先验等多先验信息深度融入非训练神经网络。
近日,中国科学院西安光机所联合加拿大国立科学研究院(INRS)和西北大学,在压缩高速成像领域取得重要进展。相关研究成果发表于《超快科学》(Ultrafast Science)。论文共同第一作者为西安光机所栗星博士、王思颖博士和西北大学博士陈长恒,通讯作者为西安光机所柏晨研究员和姚保利研究员,西安光机所为第一完成单位及通讯单位。 压缩高速成像的核心难题,在于从复杂逆问题中高保真地重建动态序列。传统深度学习方法通常依赖于大量训练数据,且普遍存在泛化能力有限、易引入伪影等问题。而现有的物理增强框架大多局限于单一任务先验,难以有效应对超快成像场景中噪声、帧间串扰等多维度干扰带来的复合成像难题。 为此,西安光机所研究团队提出多先验物理增强神经网络(mPEN)成像框架(如图1所示),团队创新性地将光致发光动力学物理模型、扩展采样先验、稀疏性约束、深度图像先验等多先验信息深度融入非训练神经网络。通过多重互补先验的协同修正,有效抑制了重建伪影、纠正空间畸变并提升空间分辨率,特别是在低光子条件下表现出较强的鲁棒性。 图1.mPEN-sCUPLI 深度学习网络架构。该框架融合了物理模型、扩展采样先验、稀疏性约束和深度图像等先验,解决了传统方法的不稳定性。 在此基础上,研究团队进一步构建了基于双光路同步采集与多先验物理增强深度学习融合的压缩高速成像系统(如图2所示)。 该系统采用脉冲激光作为激发光源,并通过数字微镜器件(DMD)加载伪随机图案对动态场景进行空间编码。动态场景的光信号被划分为两个路径:在编码路径中,通过振镜扫描将时间信息转化为空间剪切偏移,并由CMOS相机捕获;在先验采样路径中,另一台同步的CMOS相机直接采集场景的未编码积分图像。系统通过数字延迟发生器与信号发生器协同调度,实现对光源、振镜与双相机的精密同步控制。最终,该系统结合人工智能赋能的图像重建方法,在维持高空间分辨率的同时,实现了高保真的高速动态成像。 图2.基于多先验物理增强深度学习的压缩高速成像光路 |

1.行业新闻、市场分析。 2.新品新技术(最新研发出来的产品技术介绍,包括产品性能参数、作用、应用领域及图片); 3.解决方案/专业论文(针对问题及需求,提出一个解决问题的执行方案); 4.技术文章、白皮书,光学软件运用技术(光电行业内技术文档);
如果想要将你的内容出现在这里,欢迎联系我们,投稿邮箱:service@opticsky.cn




