齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)崔磊获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)申请的专利融合Mamba与视觉基础模型知识的光流估计方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121616625B 。
龙图腾网通过国家知识产权局官网在2026-04-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202610130927.X,技术领域涉及:G06T7/269;该发明授权融合Mamba与视觉基础模型知识的光流估计方法及系统是由崔磊;彭凯;傅科学;高龙翔;曲悠扬;顾树俊;王常维;庞为光;周万雷设计研发完成,并于2026-01-30向国家知识产权局提交的专利申请。
本融合Mamba与视觉基础模型知识的光流估计方法及系统在说明书摘要公布了:本发明属于计算机视觉与深度学习技术领域,具体涉及融合Mamba与视觉基础模型知识的光流估计方法及系统。所述方法包括:利用卷积神经网络对输入相邻两帧图像进行下采样特征提取,得到局部纹理特征;并对第一帧图像下采样得到上下文特征;同时,使用预训练的视觉模型提取相邻两帧图像的全局语义特征通过自适应语义纹理特征融合模块进行自适应融合增强,获得语义增强后的图像编码特征对;通过逐像素点积运算构建相关体积;最终基于获得的相关体积、上下文特征,通过循环迭代更新模块迭代优化输出光流。本发明解决了在低纹理、重复纹理或遮挡区域中特征表达不稳定,缺乏自适应建模能力,难以泛化不同场景,无法平衡模型性能与效率的问题。
本发明授权融合Mamba与视觉基础模型知识的光流估计方法及系统在权利要求书中公布了:1.融合Mamba与视觉基础模型知识的光流估计方法,其特征在于,所述方法包括: 步骤S1、通过卷积神经网络对输入相邻两帧图像分别进行下采样特征提取,得到相邻两帧图像的局部纹理特征;并对相邻两帧图像的第一帧图像下采样得到上下文特征; 步骤S2、使用参数冻结预训练的视觉模型提取相邻两帧图像各自的全局语义特征; 步骤S3、将相邻两帧图像各自的局部纹理特征与全局语义特征进行自适应融合增强,获得相邻两帧图像语义增强后的图像编码特征; 所述步骤S3具体包括: 步骤S31、首先,对全局语义特征进行特征预处理,使相邻两帧图像各自的全局语义特征与局部纹理特征对齐; 步骤S32、然后,将所述对齐后的全局语义特征与局部纹理特征进行自适应语义纹理融合,得到信息聚合特征; 接着将信息聚合特征分别与SILU激活后的全局语义特征和局部纹理特征相乘,获得信息交互特征与; 通过引入状态空间结构,对全局语义特征与局部纹理特征进行长程依赖建模,并与所述信息交互特征与对应相加,获得自适应互补特征与,实现跨模态的动态信息传递,具体为: 1; 2; 公式1-2中,表示逐像素相加运算,表示基于完整的模型; 步骤S33、将所述自适应互补特征与通过由深度卷积与普通卷积组成的轻量化融合模块进行融合,获得相邻两帧图像各自最终的语义增强的图像编码特征,具体为: 3; 4; 公式3-4中,为轻量化融合模块中间产生的初步融合特征,表示通道拼接操作,表示卷积操作; 所述自适应语义纹理融合具体为: 将相邻两帧图像各自的全局语义特征与局部纹理特征进行逐元素相加,然后经过层归一化,再通过深度卷积激活以及模块处理,获得信息聚合特征;具体公式如下: 5; 公式5中,表示层归一化操作,表示2D选择性扫描操作,表示深度卷积,表示激活函数,表示线性层,代表信息聚合特征; 步骤S4、通过将相邻两帧图像的语义增强后的图像编码特征通过逐像素点积运算构建四维相关体积; 步骤S5、最终基于获得的四维相关体积、上下文特征,通过循环迭代更新迭代优化输出光流。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心),其通讯地址为:250000 山东省济南市长清区西部新城大学科技园;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励