南京邮电大学吴瑶获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京邮电大学申请的专利一种混合交通交互行为轨迹预测方法、设备及存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121457757B 。
龙图腾网通过国家知识产权局官网在2026-04-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202610018144.2,技术领域涉及:G06Q10/04;该发明授权一种混合交通交互行为轨迹预测方法、设备及存储介质是由吴瑶;占志彬;张学军;甘婧;周继彪设计研发完成,并于2026-01-08向国家知识产权局提交的专利申请。
本一种混合交通交互行为轨迹预测方法、设备及存储介质在说明书摘要公布了:本发明公开了一种混合交通交互行为轨迹预测方法、设备及存储介质,方法包括:获取多智能体的历史轨迹数据及其初始状态信息,之后将历史轨迹数据输入最大熵逆强化学习模型,构建基于多智能体交互行为的最大熵行为生成概率模型,并采用嵌入动态奖励生成的MA‑AIRL框架进行行为反向建模并提取隐式意图,同时结合利用基于纳什均衡的NashQ‑learning学习智能体间博弈关系并生成协同策略,最终将策略输入仿真器生成预测轨迹,将预测结果与真实轨迹进行对比,基于指定指标对预测模型精准度进行验证。本发明能够显著提升多智能体交互轨迹预测的精度与稳定性,有效提高混合交通环境下交互行为轨迹预测结果的可靠性。
本发明授权一种混合交通交互行为轨迹预测方法、设备及存储介质在权利要求书中公布了:1.一种混合交通交互行为轨迹预测方法,其特征在于,包括: S1.获取混合交通场景中多个智能体的历史轨迹数据及其初始状态信息; S2.将历史轨迹数据输入最大熵逆强化学习模型,构建基于多智能体交互行为的最大熵行为生成概率模型,并初始化基础奖励结构; S3.建模引入对抗逆强化学习结构,通过判别器优化奖励函数,并融入自适应奖励校准机制; S4.建模过程中,利用NashQ-learning算法更新多智能体的动作价值函数,并基于近似纳什均衡原理求解联合最优策略分布,得到策略模型; S5.将策略模型与初始状态输入行为仿真器,通过策略采样生成未来轨迹预测序列; S6.将预测结果与真实轨迹进行对比,基于指定指标对预测模型精准度进行验证; 所述S4步骤的具体操作流程包括: 通过纳什均衡策略建模执行多智能体交互,有公式为: 其中,表示为当前状态下第个智能体受奖励函数参数影响的多智能体联合动作的评价Q值,为智能体集合,为第个智能体动作的动作空间,为第个智能体的Q函数,定义为在状态下,受奖励参数影响的多智能体局部博弈关系; 根据当前奖励参数和局部博弈,求解纳什均衡混合策略,其中为智能体执行动作后的下一时刻状态,纳什均衡策略存在满足条件: 其中,为步长,表示为在假设其他智能体都遵循纳什策略、而智能体遵循候选策略的情况下,能拿到的平均总收益,为其他智能体在纳什均衡下的最优动作联合,为在奖励函数参数下,从状态开始的预期累积回报,为折扣因子,为其他智能体的纳什均衡策略,为智能体的候选策略,为智能体的候选动作,为奖励函数参数下该智能体考虑其他智能体最优动作联合即时奖励在状态下执行候选动作的即时奖励; 纳什平衡求解通过下式实现: 从状态开始的预期累积回报,其中的计算如下所示: 其中,表示在状态下,假设所有智能体都采取博弈达成的最优均衡动作,计算这些动作组合的期望; 使用Bellman公式更新Q值函数,有: 其中,表示控制更新强度的权重参数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210000 江苏省南京市栖霞区文苑路9号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励