[发明专利]一种实时匹配的手术场景增强现实投射方法在审
申请号: | 201710198938.2 | 申请日: | 2017-03-29 |
公开(公告)号: | CN107016685A | 公开(公告)日: | 2017-08-04 |
发明(设计)人: | 郑毅雄;吴育连;郑斌 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06T7/194 | 分类号: | G06T7/194;G06T7/136;G06T11/00 |
代理公司: | 杭州求是专利事务所有限公司33200 | 代理人: | 邱启旺 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 实时 匹配 手术 场景 增强 现实 投射 方法 | ||
1.一种实时匹配的手术场景增强现实投射方法,其特征在于,该方法包括:根据CT图像进行三维重建,得到虚拟3D模型;通过红外摄像机获得手术病人的红外图像,并将其与虚拟3D模型的冠状面图像(从人体的前面往后面看)进行融合;同时对手术病人的体位信息进行实时跟踪,最后根据体位信息,通过投影仪将融合图像投射在病人体表。
2.根据权利要求1所述的方法,其特征在于,所述图像融合方法如下:
(1)根据虚拟3D模型获得冠状面图像的灰度图;采用全局阈值分割法对灰度图进行分割,提取前景图像;
(2)对红外摄像机实时采集的红外图像,采用基于仿射传播聚类的视频关键帧提取方法,获取关键帧图像。采用全局阈值分割法对关键帧图像的灰度图进行分割,提取前景图像;
(3)将步骤1和2获得的前景图像进行融合。
3.根据权利要求1所述的方法,其特征在于,根据体位信息,通过投影仪将融合图像投射在病人体表,具体为:
(1)通过训练,获得红外摄像机和投影仪位置相对于病人位置的变化矩阵T;
(2)对红外摄像机实时采集的红外图像,采用基于仿射传播聚类的视频关键帧提取方法,获取关键帧图像。采用全局阈值分割法对关键帧图像的灰度图进行分割,获得前景图像中各个像素点的坐标(xu,yu);
(3)根据像素点坐标以及变换矩阵T,调整投影仪的位置,将融合图像投射在病人体表。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710198938.2/1.html,转载请声明来源钻瓜专利网。