外科手术导航中的增强现实技术研究

外科手术导航中的增强现实技术研究

孙磊[1]2006年在《基于视觉的增强现实系统的研究》文中认为增强现实技术(Augmented Reality,简称AR)是20世纪90年代初兴起的一种计算机图形图像处理技术,它是将计算机产生的附加信息融合到使用者所看到的真实世界景象中,增强了使用者对真实场景的感知能力。由于其虚实结合的优点,在医疗、工业等领域得到具有广阔的应用发展前景。本论文的研究目的是将增强现实技术应用医疗外科手术导航中,使得医生能够医生在计算机屏幕上同时看到病人体表和内部的病灶组织,提高手术的完成质量。目前,我国在这方面的研究还处在起步阶段。本论文在增强现实技术的基础上,开发了一套基于视觉的增强现实虚实配准的试验系统,针对算法的需要和实验环境,设计了一系列简单实用的实验,制作了摄像机定标所需的标定模板和一些简单实用的测试模板,并对虚实配准系统进行了标定和测试实验,同时,编制了相应的应用软件。在现有的实验条件下,系统能较好地完成空间点的立体定位。在摄像机定标的基础上,实现了计算机生成的虚拟物体与摄像机拍摄的真实场景图像之间的配准,从而验证了本论文提出的基于视觉的虚实配准算法的可行性。配准过程中提出的半自动提取标志点和虚实合成显示的方法,提高了配准精度。本论文主要研究立体视觉定位、摄像机标定、畸变校正、虚实配准、虚实合成显示等技术,其中虚实配准是本文研究的重点也是实验的关键环节,各个部分均给出了具体的实现步骤,从实践上论证了整个增强现实系统实现的基本过程。目前限于实验条件等客观因素,本论文初步建立的系统还处于试验阶段,要实现实用化还有很多工作要做。

刘晓宏[2]2015年在《基于增强现实的手术导航图像融合方法研究》文中研究表明应用在手术导航系统中的基于增强现实的图像融合技术改变了传统的手术方式,不仅能减轻病人痛苦,有效的降低手术风险,还能精确的制定术前规划,在医疗培训方面也具有很高的应用价值。基于增强现实的图像融合是将虚拟的病灶部位迭加在真实的手术部位,为医生诊断提供更多的支撑。本文研究了二维图像的融合及叁维图像的融合可视化,通过对将要手术部位的外表面二维融合和内部生理信息的叁维融合,使病灶信息量增大,具体的研究内容和成果如下:1.本文结合真实的手术过程对增强现实系统进行了设计,主要分成四个部分,包括虚拟颅骨模型的叁维重建、增强现实系统的空间定位、真实手术场景的重构和虚实融合显示。采用基于Matlab工具箱的摄像机标定方法,完成了系统的空间定位,为增强现实融合部分做了前续工作。2.设计了易于识别、提取的蓝色外加标志点,利用目标窗口对颅骨定位剪切,提取蓝色标志点,计算标志点质心坐标并对质心标号,利用基于Laplacian矩阵的图像匹配方法对左右图像进行匹配,最后利用加权图像融合方法和像素灰度值极大(小)图像融合法完成左右颅骨图像外表面二维融合。3.研究了虚实配准的原理、方法,提出了一种融合图像显示方法。利用叁维扫描颅骨的数据重建虚拟颅骨模型,采用了对多角度图片进行叁维场景恢复的方法得到真实手术场景,最后把虚拟的颅骨模型导入到真实的手术场景空间去,显示在计算机上。本文在搭建的实验平台的基础上,对该系统进行了实验研究。首先进行双目摄像机标定,经过实验分析,系统的标定误差在0.3个像素以内,达到了亚像素级的精度;然后对左右摄像机采集的图像进行Laplacian匹配和加权、像素灰度值极大(小)图像融合;最后将重建的虚拟模型导入到真实手术场景中并通过计算机屏幕进行显示。本文研究的阶段性成果为后续动态可视化研究打下了基础。

钮艳华[3]2004年在《外科手术导航中的增强现实技术研究》文中认为外科手术导航技术充分利用了多种医学成像信息,不仅可帮助外科医生进行术前计划,使创口最小化,同时可提高手术质量,给外科手术带来了极大的便利。增强现实(AR:Augmented Reality)是一种图形学领域的新技术,它将计算机绘制的虚拟模型融合到使用者所看到的真实世界景象中。使用者可从计算机描绘的虚拟模型中获得额外的信息,从而对真实环境进行增强。在医学领域,虚拟模型是通过成像设备对人体部位扫描得到体数据,对其进行叁维重建得到的。本文的工作是希望将增强现实技术应用到外科手术导航中来,从而提供给外科医生更直观的信息。医生在计算机屏幕上既可看到病人真实的环境和姿态,又可从虚拟模型中得到其视觉系统无法获得的信息。 本文首先由Marching Cube面绘制的方法对实验的CT数据叁维可视化,并提出了解决二义性问题的方法,得到虚拟模型。然后采用基于视觉的单相机定标方法,对虚拟模型的叁维点与真实场景图片上的点进行配准,得到两者的变换关系。最后利用变换关系实现虚拟模型和真实场景的虚实配准,得到增强现实显示。本文是通过贴在头部表面的基准点来辅助虚实配准的。此外本文还在虚实配准的基础上,对于点跟踪作了一些研究。 根据本文的算法,实验证明我们进行了准确的虚实配准,得到了通过虚拟模型增强的增强现实图像。同时在二维图片上对叁维点进行准确定位的基础上,实现了对多帧图片上的同一点的准确跟踪。

贺长宇[4]2015年在《增强现实手术导航中的混合位姿跟踪技术及可视化应用研究》文中研究说明增强现实手术导航系统通过位姿跟踪、图像融合和信息化显示技术将手术导航图像迭加在病人身体手术部位,借助增强现实手术导航图像医生能够获得“透视”能力,实时获取手术工具和病灶的位姿和图像信息。但是现有手术导航系统的位姿跟踪的精度、鲁棒性和刷新率通常较低,且增强现实导航图像信息可视化方法较为单一,难以满足不同手术应用对手术导航的不同需求。本文面向用于增强现实手术导航中的位姿跟踪技术需求,针对基于惯性和磁传感器的姿态跟踪技术、基于光学和惯性跟踪系统的混合位姿跟踪技术和增强现实手术导航信息可视化方法等关键技术开展了深入系统的研究工作,主要研究内容包括:1、提出了一种基于惯性和磁传感器的离线混合姿态跟踪方法。针对目前姿态跟踪系统精度受陀螺仪漂移误差影响的问题,在研究基于惯性传感器的姿态跟踪基本原理的基础上,提出了一种基于卡尔曼滤波器的惯性磁场混合姿态跟踪算法及传感器测量噪声模型定义方法,在卡尔曼滤波器中抑制位移运动加速度误差和传感器测量噪声对姿态跟踪精度的影响。实验结果表明,本文提出的基于惯性和磁传感器的姿态跟踪系统和数据融合方法能够有效的抑制漂移误差、位移运动加速度误差和传感器测量噪声对姿态跟踪精度的影响,可将姿态跟踪误差控制在0.1°以内,实现了能够满足增强现实应用需求的离线姿态跟踪。2、提出了一种基于光学跟踪和惯性跟踪的混合位姿跟踪系统。针对光学跟踪精度较高但是易发生遮挡的问题,提出将光学跟踪系统和惯性跟踪系统的数据进行融合的方法,充分利用光学跟踪系统高精度和惯性跟踪系统高刷新率和不受遮挡影响的优点,通过光学跟踪系统对惯性传感器偏置误差进行校正并通过扩展卡尔曼滤波器对光学和惯性跟踪系统数据进行融合。实验结果表明,本文所构建的混合跟踪系统能够抑制传感器偏置误差和光学遮挡对位姿跟踪精度的影响,提高了位姿跟踪的刷新率,实现了部分遮挡条件下不受遮挡时间影响的高精度位姿跟踪和全部遮挡条件下较短时间(5s)的高精度位姿跟踪,同时将刷新率提高至100Hz。3、提出了基于光学-惯性混合跟踪的增强现实手术导航信息可视化方法。在本文提出的光学-惯性混合跟踪方法的基础上,分别提出了基于内窥镜、头戴式显示设备和分光镜的增强现实手术导航信息可视化方法,通过边缘式增强现实显示方法和误差信息可视化方法提高了手术导航信息的可视化效果。实验结果表明,借助本文所提出的混合跟踪方法和手术导航信息可视化方法,增强现实手术导航系统能够准确跟踪手术中各目标的位姿并将手术导航图像与之进行匹配,并通过增强现实显示设备实时显示给医生,实现基于混合跟踪方法的手术导航信息可视化应用。

李亮[5]2016年在《鼻内镜手术导航系统的叁维立体显示模式研究》文中进行了进一步梳理近年来,内镜下鼻窦手术(ESS)在极大程度上取代了传统的开放手术,成为外科治疗鼻腔鼻窦疾病的主要手段。随着鼻内镜技术的广泛应用及手术范围、适应征的不断拓展,眼眶、颅底损伤等严重并发症也随之增多。在精准手术理念的要求下,内镜手术导航系统应运而生。现有的手术导航系统能够根据术前影像学资料向术者准确提供手术中器械与重要解剖结构之间的相对位置信息,指导术者安全准确的完成手术操作。目前临床所用的各类导航系统(电磁、红外等),在物理追踪精度及使用便捷程度方面均已能够满足手术需求,但在图像显示方面却都沿用着“叁视图”模式。术者需根据导航屏幕中器械尖端在矢状位、冠状位及水平位图像上的坐标及鼻内镜术野内的真实图像在头脑中重建出器械与解剖结构之间的位置关系,从而指导手术。正确还原解剖结构之间的位置关系,在很大程度上依赖于术者基于解剖学基础及临床经验的主观思维和判断。因而立体图像的构建往往因不同术者对影像资料判读的准确程度不同,以及对解剖结构的熟悉理解程度不同而具有较大差异。此外,现有的导航系统多是利用探针来验证相应的解剖标志,这就需要经常中断手术而导致费时较多。基于上述问题,在现有导航系统硬件配置的基础上,我们研究了基于增强现实技术的立体显示模式。将基于术前影像资料的叁维虚拟图像与畸变校正后的内镜真实图像匹配、融合并渲染,使内镜图像与重建出的鼻窦颅底影像实时、同步的显示于屏幕,使术者能够立体的观察到术区表面、深面及周边的解剖结构。从而让导航界面更友好,信息获取更直观,为精准安全的内镜手术提供更为便捷的信息支持。第一部分叁维立体显示模式下导航系统内镜坐标校准方法的研究目的为呈现实时立体显示的效果,首先要将现有导航系统对探针或器械尖端的定位转变为对于内窥镜尖端的定位。本部分研究目标即在于探讨并提出在叁维立体显示模式下,导航系统中内窥镜坐标的校准方法,并通过模具实验对校准结果进行验证。最终将上述结果与导航坐标系转换矩阵相结合,形成本导航系统特有的定位方法。方法利用POLARIS Vicra:跟踪系统生产厂商提供的校准程序及我课题组自行研制的“内镜校准器”,通过“锥摆法”获得鼻内镜尖端的校准参数,以此对鼻内镜坐标进行重新定义。继而以标准测试探针顶端坐标的偏移误差为参照,对比内窥镜坐标校准效果,评价得到参数的可靠性。最终将校准参数代入到坐标转换矩阵,为下一步的导航精度验证打下基础。结果通过实验获得了内窥镜坐标校准参数,结合校正公式得出内镜坐标转换关系为:FEJR'(FRTx一51.50,FRTy+ 0.00,FRTz+230.50);通过软件对实现坐标转换的内窥镜进行校准偏差的验证,并与标准参照物进行比较,结果显示二者校准偏差值的均数分别为0.170±O.048mm. 0.153±0.055mm,经过T检验证实无统计学差异。将得到的校准参数代入导航坐标系转换矩阵,推导出了总的坐标转换关系Fv=RWVFW+TMV。结论在鼻内镜手术导航系统的叁维可视化改造中,我们设计“锥摆法”实现了鼻内镜原点坐标的准确转换。验证结果表明,该方法具有可行性。将校准参数代入导航坐标系转换矩阵得到总体坐标转换关系。从而使系统能够对内窥镜尖端实时定位,并以该点坐标为基准对虚、实图像进行融合。第二部分内镜手术导航系统叁维立体显示的可行性研究目的对追踪内镜尖端的导航系统显示效果和精确度进行验证,评估其可靠性和临床应用的可行性。方法通过体模实验及尸头实验测试导航系统的叁维立体显示效果并获得其精度;通过比较本导航模式与传统导航模式辅助下模拟手术的时间、损伤等因素,以及基于主观评价的NASA-TLX评分,评估叁维立体显示模式的作用及使用者的主观感受。结果基于增强现实技术的叁维立体导航模式实现了对真实内镜图像与虚拟叁维重建图像的精确融合。在尸头实验中,其导航精度为1.28+0.45mm,符合鼻内镜手术导航设备的技术要求;本导航模式与传统导航模式引导完成模拟手术的平均时问分别为88.27±20.45min.104.93±24.61min,(P<0.05):术中受试者精神负荷综合评分分别为53.15+10.90、65.98+15.43,(P<0.05)。叁维立体的导航模式在以上两方面具有优势,其中低年资医师从中获益更为明显。结论我课题组自行设计的这种基于增强现实技术的鼻内镜手术叁维立体导航模式较传统模式更符合临床医生的实际需要。它能为鼻科医生提供更直观、更富有层次感的图像信息,从而在复杂的鼻-颅底手术中减少术者的判断时间,缓解精神负荷。此外,具有叁维立体显示模式的鼻内镜导航系统能够帮助低年资医生提高专业训练的效率。第叁部分叁维立体显示的内镜手术导航系统在鼻颅底手术中的初步应用目的对本导航系统进行初步的临床应用,进一步评估叁维可视化的鼻内镜手术导航系统的精度,探讨其在鼻颅底外科手术中的应用价值。方法将叁维立体显示模式的导航系统应用于12例鼻腔、鼻窦、颅底、眼眶占位患者的手术治疗,记录导航精度及并发症发生情况,并通过Likert问卷及NASA-TLX模拟量表反映术者主观获益程度。同时,尝试在一些关键的主客观指标方面与常规手术组进行对比。结果12例导航手术平均精度为1.35±0.53mm。在系统的引导下,导航组未出现手术并发症。Likert问卷结果显示:导航组术者中,有3人次在针对“本导航系统在性能方面是否符合临床需求”问题上持中立态度,其余均认可本系统在对操作者的主观帮助方面起到了积极的作用。NASA-TLX模拟量表反馈结果表明:在脑力需求、体力需求、时间需求、自信心、努力程度、挫败感等6项主观指标中,时间需求及主观努力程度平均分值在导航组与常规手术组之间比较时未出现统计学差异(P>0.05);而其余4项平均分值在组间比较时均存在差异(P<0.05),导航组术者在叁维立体显示模式引导下精神负荷更小。结论经过叁维可视化改进的导航系统精度可靠,显示直观,能够实时显示术区后方及周围的重要结构。更便捷的帮助术者确认解剖结构,有利于手术的顺利完成。鉴于样本量有限,叁维立体的显示模式在鼻内镜导航手术中的应用价值还需在更多的临床应用中得到证实。

张楚茜, 张诗雷[6]2018年在《增强现实技术的研究进展及临床应用概述》文中进行了进一步梳理近年来,增强现实技术在军事、教育、医学等诸多领域不断发展,其基本原理是将虚拟建模图像与实际环境相结合,以增强用户对现实世界的感官。增强现实技术在各个领域均展现出了独特的优越性,尤其是在医学领域,为外科手术的精准及微创提供了全新的手段。本文就当前增强现实技术的相关进展进行综述。

邓薇薇[7]2014年在《手持式增强现实神经导航关键技术研究及其系统建立》文中研究说明神经外科手术是治疗各种脑部疾病最直接有效的方法,但同时也是难度最大的术种之一。它要求医生不仅能够准确切除病灶,还要避免对周围神经、血管等正常组织造成损伤,神经外科手术的成功与否很大程度上取决于术前入路计划的准确性和术中病灶定位的精确性。神经导航系统(Image Guided Neurosurgery System, IGNS)以病人术前扫描的影像数据建立图像引导空间,术中通过光学定位仪跟踪手术器械并将它显示在术前图像上,医生通过观察图像上虚拟手术器械的位置来判断真实手术器械同病人之间的相对位置关系,从而帮助医生定位病灶位置并引导手术操作。IGNS系统通过术前准确计划手术入路和术中精确定位病灶,可以减小手术创伤、缩短手术时间以及提高手术质量,已逐渐成为微创神经外科手术中不可或缺的设备。虽然IGNS系统能够弥补传统神经外科手术方式的不足,但是现有导航系统都是将定位和引导信息显示在系统屏幕上,医生通过观察导航屏幕上的图像来进行手术操作。临床应用表明这种导航模式存在以下几个严重缺陷:①导航信息与手术场景相分离。术中,医生为了观察手术器械相对于病人解剖结构的位置,不得不在病人手术部位和导航屏幕之间来回切换视野,这不利于医生将注意力集中于病人头部进行手术,会干扰手术进程并加大导航定位误差。②导航信息不易理解。医生主要利用IGNS系统屏幕上显示的迭加了探针位置信息的断层图像来进行术中定位,而这些图像并不能很好地反映出病人当前体位,使得医生不能直观地理解真实手术场景中探针与实际病人解剖结构间的空间位置关系,造成IGNS系统的作用不能得到充分发挥。这些问题主要是由于现有IGNS系统虚实分离的导航模式引起的,为了解决这些问题,需要把虚拟信息同真实手术场景融合起来,其中最关键的是从虚拟图像中获取肿瘤等病灶的位置信息并将其融入到真实手术场景中。本文围绕上述问题展开研究,提出并建立了一种基于平板电脑的增强现实(Augmented Reality, AR)神经导航系统,简称AR-IGNS,它可以将肿瘤等虚拟信息同真实的手术场景相结合,并将导航信息显示在可移动的平板电脑屏幕上,在不需要医生切换视野的前提下辅助医生手术。新系统的成功实现依赖于基于平板电脑所建立的叁种新的导航模式以及术前肿瘤图像的准确分割,具体研究内容如下:1、虚实信息结合下迭加图像导航模式。这是AR-IGNS系统最重要的导航模式,主要利用AR技术将术前分割的肿瘤等病灶信息直接迭加显示在平板电脑摄像机所拍摄的真实手术场景中。该导航模式主要通过空间配准、目标跟踪和摄像机标定叁个过程将虚拟空间的图像信息变换到平板电脑屏幕上。首先,我们采用基于人工标记点的空间配准方法,通过奇异值分解法求解虚拟空间到现实空间的变换关系;其次,利用光学定位仪同时跟踪病人、平板电脑和手术器械,获得现实空间到平板电脑空间的变换关系;第叁,利用世界坐标系到观察坐标系的变换及基于棋盘格模板的标定方法获得平板电脑空间到平板电脑屏幕的投影关系;最后,综合这叁个变换,将虚拟空间中的图像变换到平板电脑屏幕空间,从而在术中将分割出的肿瘤表面等信息迭加到真实的手术场景中,帮助医生定位肿瘤位置。该导航模式在平板电脑上实现虚实迭加,有效地解决了传统导航系统中导航信息与手术场景相分离的问题。2、虚实信息结合下截面图像导航模式。这种模式利用AR技术将虚拟导航信息同真实手术环境相关联,主要根据平板电脑和真实病人之间的相对位置关系,实时生成平板电脑所在平面与病人相交的截面的图像,并将其显示在平板电脑屏幕上进行手术导航。具体地,首先将已分割出的病人肿瘤位置信息融合到原始数据当中;然后利用光学定位仪实时跟踪平板电脑在现实空间中的位置并将其变换到虚拟空间去,通过对虚拟空间中融合了肿瘤信息的扫描数据进行重采样,得到平板电脑平面与图像数据相交的截面图像;最后将断层图像通过无线网络传输技术传输到平板电脑上显示,从而辅助医生进行定位和导航。这种任意截面图像导航模式,将断层导航图像与现实手术场景直接联系起来,避免了医生在导航屏幕和手术区域进行大的视野切换,同时丰富了导航信息量并使导航定位信息更加容易理解。3、虚实信息结合下的投影图像导航模式。这种导航模式同样AR技术将虚拟导航信息同真实手术环境相关联,根据平板电脑相对于真实病人的位置信息,生成图像数据向平板电脑屏幕进行虚拟最大密度投影的图像,并将投影图像显示在平板电脑上进行手术导航。对于血管造影等成像方式,最大密度投影(Maximum Intensity Projection, MIP)图像可以清晰地显示颅内的血管信息,如果同时将其与病灶分割结果相结合,就可以显示血管同病灶之间的相对位置关系,为脑血管相关手术的顺利进行提供方便。通过对平板电脑位置的实时跟踪,当平板电脑的位置发生改变,其显示屏上也能实时显示相应位置处的投影图像。这种以平板电脑为可视化接口的MIP图像导航模式,改变了传统导航系统只能单纯在系统屏幕上显示MIP图像的问题,实现了虚拟导航信息与现实手术场景的融合。4、虚拟图像目标分割算法的研究。根据脑图像的特殊性和复杂性,我们将符合临床需求的交互式随机游走算法用于脑肿瘤的分割。医生只需在任意术前图像上简单选取肿瘤及非肿瘤区域的种子点,随机游走算法即可自动、精确地定位出肿瘤的边界。通过在上述叁种导航模式中显示肿瘤的位置和边界,AR-IGNS系统可以更好地在术中指导医生切除肿瘤。综上所述,针对现有神经导航系统虚实分离的导航模式中存在的问题,本文提出了基于迭加图像、截面图像和投影图像的叁种新的导航模式,以平板电脑为显示设备利用AR技术实现了虚拟导航信息与现实手术场景的融合。同时采用基于随机游走算法的交互式分割方法准确分割出脑肿瘤,从而在虚拟导航信息中直观准确地显示肿瘤的位置。新的导航模式可以使医生避免术中视野切换,并使导航信息更加容易理解,从而提高导航的精度和方便性,并确保医生集中精力在手术部位进行手术。我们对叁种导航模式分别进行了颅骨标本试验和真实病例的临床试验,验证了导航信息的准确性和各种导航模式的临床适用性。本文相关研究结果作为第一作者投稿SCI论文2篇,其中1篇已经发表,1篇修回。另外,还发表国内核心论文一篇,申请发明专利2项。本文建立的系统在第十五届中国国际工业博览会获得高校展区优秀展品奖。

林钦永[8]2016年在《光学手术导航引导的肝癌消融精准定位和穿刺方法研究》文中研究说明肝癌消融微创介入术是治疗肝癌最有效的方式之一,肿瘤靶点的精准定位和穿刺对肝癌消融介入术疗效是至关重要的。手术导航系统在神经外科、骨科等领域的应用已经取得了瞩目的成果,但腹腔肝脏器官因呼吸、心跳等因素引起的大形变严重制约了手术导航系统在肝癌消融介入术中的应用。当前,肝癌消融介入术的定位穿刺主要依靠医生的临床经验和医学影像的引导,手术过程操作复杂、定位精度低、手术效率低、病人创伤大。本文设计了肝癌消融光学手术导航系统,基于双目视觉定位技术和医学图像处理及可视化技术研究了手术导航中的全自动实时手术注册技术和肝癌消融的精准定位和穿刺技术,主要研究内容如下:(1)构建了肝癌消融光学手术导航系统。为解决手术导航系统在肝癌消融微创介入术中的应用受呼吸运动影响而导致的穿刺精度低、疗效差等问题,本文构建了应用于肝癌消融介入术的光学手术导航系统,设计了近红外标定板、手术器械标定块、手术器械跟踪夹具、新型标记点和手术器械等辅助工具。(2)研究了近红外光学导航仪及手术器械标定方法。本文在前期研究的基础上,提出了一种基于空间叁维误差的近红外光学导航仪标定方法及高精度的手术器械标定方法。本文提出的标定方法不再基于二维假设,而是将标定板视为叁维模板,在目标函数中加入特征点的叁维坐标重建误差项并求最优解。本文提出的标定方法具有较高的标定精度,标定结果精度高于前期研究的标定结果。本文分析了目前手术器械标定的缺陷设计了一种简捷的手术器械标定块和高精度的标定方法。使用此方法标定的手术器械尖端标定误差小于0.7 mm。本文还设计了更为通用的手术器械标定工具,具有使用便捷、适用性强和标定精度高等特点。(3)研究了手术导航中的自动手术注册方法。本文设计出一种新型标记点,基于该标记点实现了全自动实时手术注册方法。新型标记点有两种型号可适用于CT或MR设备,标记点结构独特,易于在图像空间中将其与人体解剖结构分割开,且可在手术空间为光学手术导航系统所识别。全自动实时手术注册方法分叁步执行:第一步识别图像空间的标记点,提出了一种基于模型配准的标记点自动识别方法,实现图像空间的标记点自动识别,相较手动识别标记点,该方法有更高的定位精度和鲁棒性;第二步跟踪手术空间的标记点,左右图像的立体匹配是标记点跟踪的准确性和实时性的关键,本文提出一种基于重投影误差的立体匹配算法,结合对极几何原理和重投影误差有效地解决立体匹配问题,该方法具有良好的鲁棒性,同时保证标记点跟踪的实时性;第叁步实现图像空间与手术空间的配准,本文提出了一种基于几何特征聚类的空间自动配准方法,利用两个空间中各个标记点间的几何距离关系,快速获得标记点的配对结果,接着求解两个空间之间的变换关系。为验证全自动实时手术注册方法的可行性,本文开展了一系列体模实验,实验结果表明该方法能够实现快速、自动、准确和实时的手术注册。(4)研究了肝癌消融精准穿刺方法。本文提出一种基于全自动实时手术注册的肝癌消融精准穿刺方法。此方法可概括为:术中实时跟踪粘贴于病人腹部的标记点,采用全自动实时手术注册方法计算标记点注册误差FRE的实时曲线图,根据实时FRE曲线找出与术前图像最匹配的时刻,确定最佳穿刺时隙进行精准穿刺。体模、离体和活体动物实验均验证了此方法相对其他方法具有较高的精度,对病人创伤小,大幅减少病人的辐射伤害,具有临床可行性。

钮艳华, 汪元美, 段会龙[9]2004年在《基于增强现实的外科手术导航技术》文中研究表明概要介绍基于图像的外科手术导航技术(IGS)的概念和发展,并着重分析和评述了近年来的基于增强现实(AR)的IGS的技术和系统。从空间变换/定标、匹配、跟踪和可视化显示四方面对基于AR的IGS技术进行了分类综述,同时就其系统及应用进行了探讨。最后结合理想的基于AR的IGS系统的要求和已有的研究成果,提出了还可深入研究的问题。

王学占[10]2015年在《面向腹腔微创手术的增强现实技术研究》文中认为增强现实技术是一项结合了计算机技术、通信技术、计算机图形学等多领域知识的技术,其目的是通过在真实场景中添加计算机中生成的虚拟信息,达到“虚实融合”的效果。在微创外科手术中使用增强现实技术,可以使医生具有“透视”功能,透过组织器官表面看到其内部病变的位置和形态,实时调整手术动作,提高手术效果。本文以建立基于增强现实的腹腔微创手术的图像导航系统为研究目标,具体研究内容包括:腹腔微创手术的立体显示。在建立双目视觉系统的基础上,分析了双目视觉系统确定空间中点的坐标的原理;对不同的坐标系进行说明,并分析了各坐标系之间相对关系。以理想的小孔成像模型为例,阐释了内窥镜标定的相关理论,对内窥镜的内参数矩阵、外参数矩阵进行定义并提出求解方法。分析了内窥镜使用过程中可能产生的畸变,以及左右图像对之间的对极几何。介绍了常用的立体显示技术原理,并指出了不同技术的优缺点。腹腔微创手术的术前规划。在模型的叁维重建和可视化技术分析基础上,分析了面绘制和体绘制的相关原理和特点,通过Open GL中进行观察的相关理论,对模型和视点变换、投影变换、视口变换等理论进行分析,指出建立完整的观察模型的具体步骤。分析了光照模型,以及光照的相关计算规律,为得到逼真的虚拟模型提供了理论支持。设计并实现人机交互功能实现虚拟叁维模型与真实场景的空间匹配,利用Open GL技术实现术前手术计规划信息与术中内窥镜信息的融合,使不可见病灶信息在内窥镜图像中显示,达到增强现实的目的。搭建基于增强现实的腹腔微创手术的图像导航实验平台,操作手术器械对肝脏模型进行试验,证明系统的可行性。本文建立的增强现实系统,可在腹腔微创手术中为医生导航,为后续深入研究奠定基础。

参考文献:

[1]. 基于视觉的增强现实系统的研究[D]. 孙磊. 福州大学. 2006

[2]. 基于增强现实的手术导航图像融合方法研究[D]. 刘晓宏. 吉林大学. 2015

[3]. 外科手术导航中的增强现实技术研究[D]. 钮艳华. 浙江大学. 2004

[4]. 增强现实手术导航中的混合位姿跟踪技术及可视化应用研究[D]. 贺长宇. 北京理工大学. 2015

[5]. 鼻内镜手术导航系统的叁维立体显示模式研究[D]. 李亮. 中国人民解放军医学院. 2016

[6]. 增强现实技术的研究进展及临床应用概述[J]. 张楚茜, 张诗雷. 组织工程与重建外科杂志. 2018

[7]. 手持式增强现实神经导航关键技术研究及其系统建立[D]. 邓薇薇. 复旦大学. 2014

[8]. 光学手术导航引导的肝癌消融精准定位和穿刺方法研究[D]. 林钦永. 华南理工大学. 2016

[9]. 基于增强现实的外科手术导航技术[J]. 钮艳华, 汪元美, 段会龙. 中国医疗器械杂志. 2004

[10]. 面向腹腔微创手术的增强现实技术研究[D]. 王学占. 哈尔滨工业大学. 2015

标签:;  ;  ;  ;  ;  ;  ;  ;  

外科手术导航中的增强现实技术研究
下载Doc文档

猜你喜欢