Artificial intelligence in gynecological surgery: current situation, challenges and prospects
-
摘要: 人工智能的快速发展为妇科手术的精准化和个体化提供了新的技术支撑。本文系统梳理了人工智能在妇科手术全流程中的应用进展,包括基于影像与临床数据的术前规划与模拟、术中实时导航与机器人辅助决策、术后并发症预测与预后评估及虚拟手术培训等。研究表明,人工智能显著提高了手术精准度和患者安全性,但仍面临数据隐私、算法泛化性和临床验证不足等挑战。未来需通过多学科协作推动人工智能与机器人技术、生物传感技术的深度融合,以进一步推动妇科手术的智能化发展。Abstract: The rapid development of artificial intelligence(AI) provides new technical support for the precision and personalized of gynecological surgery. This paper systematically reviews the application of AI in the whole process of gynecological surgery, including preoperative planning and simulation based on image and clinical data, real-time intraoperative navigation and robot-assisted decision making, postoperative complication prediction and prognosis assessment, and virtual surgical training. Studies have shown that AI significantly improves surgical accuracy and patient safety, but still faces challenges such as data privacy, algorithm generalization, and insufficient clinical validation. In the future, it is necessary to promote the deep integration of AI, robotics and biosensing through multidisciplinary collaboration to further improve the intelligent development of gynecological surgery.
-
近年来,随着微创外科(如腹腔镜、机器人手术)的快速发展,妇科手术已逐步实现从“开放切除”向“精准功能保护”的转变[1]。但是,由于妇科手术范围大、周围脏器复杂,目前仍面临诸多瓶颈:一是解剖与功能保护的平衡难题,妇科手术涉及子宫、卵巢、输尿管及盆底神经等结构,传统术式往往难以在根治疾病的同时最大限度保留生理功能[2];二是个体化决策的局限性,现有影像学评估(如超声、MRI)依赖医生经验,缺乏基于多组学数据的量化手术规划工具[3];三是术中实时动态导航不足,在狭窄的盆腔术野下,由于组织形变、出血干扰等因素的影响,传统手术导航系统往往存在定位误差,机器人手术也存在“手眼协调”延迟的问题[4];四是术后长期预后的不确定性,盆底功能障碍、肿瘤复发等远期并发症缺乏有效的早期预警模型[5]。
在上述临床挑战与技术需求背景下,人工智能(artificial intelligence,AI)技术的引入为妇科手术的精准化发展开辟了全新路径。通过深度学习对多模态数据(影像、病理、生物标志物)的整合分析,AI可显著增强术前规划的客观性[6];计算机视觉与增强现实(augmented reality,AR)技术的融合,实现了术中关键结构的实时三维定位与风险预警[7];而基于大数据的预后模型则能精准识别并发症高危患者,优化术后管理策略[8]。此外,虚拟现实(virtual reality,VR)模拟系统为外科培训提供了高保真、低风险的训练环境,加速了手术技能的学习曲线[9]。然而,AI技术的临床转化也面临严峻挑战,如数据孤岛导致的算法偏倚、手术机器人自主性边界的伦理争议及缺乏高级别循证医学证据支持等[10]。
本文系统梳理了AI在妇科手术全流程中的应用进展,包括基于深度学习的术前影像分析、术中智能导航与机器人控制、术后风险预测及虚拟培训等环节,并探讨了当前面临的临床转化障碍与未来发展方向,以期为推动妇科手术的智能化转型提供理论依据与实践参考。
1 AI在妇科手术实践中的应用
AI在妇科手术中的应用正快速扩展,涵盖术前规划、术中辅助和术后管理等多个环节,有助于提升手术精准度和安全性,并为妇科手术患者术后监测与预后评估提供参考。
1.1 术前手术规划与模拟
近年来,AI技术在医学影像分析领域展现出强大的潜力,尤其在女性腹盆腔疾病的诊断与手术规划中发挥了重要作用。基于图像识别、数据挖掘和模式识别等功能,AI能够高效处理超声、MRI、CT等影像数据,自动识别正常解剖结构和异常病灶,从而辅助临床医生制定手术方案,如子宫切除术、子宫肌瘤切除术和卵巢囊肿剥除术等[11]。
妇科恶性肿瘤手术既面临复杂解剖的挑战,又直接关乎患者生活质量,这种技术难度与临床价值并存的特性为AI的应用提供了现实需求与技术可行性。Lecointre等[6]的研究采用AI算法分析子宫内膜癌患者的术前MRI图像,准确判断肿瘤的肌层浸润深度、宫颈间质受累情况及淋巴结转移状态,为手术方案的制定提供了关键依据。类似地,Wang等[12]通过AI分析宫颈癌患者的MRI影像评估宫旁浸润情况,从而优化手术策略,提高了肿瘤切除的彻底性。
除了妇科恶性肿瘤手术,AI也被用于辅助妇科良性疾病手术的规划与模拟。Sinha等[13]的研究整合AI影像分析与3D打印技术,针对1例肌瘤数量多且位置复杂的子宫肌瘤患者成功构建了个性化子宫模型,帮助术者精确定位肌瘤位置,降低了术中遗漏风险,减少了术后复发可能。此外,AI在子宫内膜异位症手术中的应用也取得了显著进展,其视觉识别算法能快速定位囊肿亚型,缩短术中对隐匿病灶的探查时间,降低手术相关并发症(如感染和出血)的发生率[14]。
1.2 术中导航和辅助
AI辅助的术中导航主要指借助图像配对技术反馈器械与患者解剖结构之间的空间位置关系,通过实时跟踪技术定位手术器械和解剖位置,结合3D可视化技术分离并渲染感兴趣区域,引导医生完成手术操作。这一技术被广泛应用于骨科[15]、泌尿外科[16]和普外科[17]等。近年来,AI术中导航逐渐被应用到妇科良恶性疾病手术中,包括但不限于子宫边缘分割和输尿管走行分割等[7]。
结构识别是机器学习的第一步,可以帮助外科医生识别复杂的解剖结构、减少错误风险和提高手术精度。Madad Zadeh等[18]通过分析腹腔镜子宫切除手术视频,创建了子宫分割、子宫轮廓和左右输卵管连接区域的注释集,并形成了基于AR的腹腔镜手术指导应用程序Uteraug,该程序具有与现有手动设置相当的AR导航性能。AI术中导航可帮助医生在子宫肌瘤切除术中准确识别和切除子宫肌瘤。在腹腔镜手术中应用AR可以通过实时融合视频使子宫呈现半透明状态,外科医生在移动腹腔镜和子宫的同时可以实时看到肌瘤的位置。基于这些信息,医生可以快速且准确地决定最佳切口路径[19-20]。妇科腹腔镜手术中极易导致输尿管损伤,目前的内镜系统还不能实现实时检测输尿管位置,Song等[7]提出了一种暗弱目标检测算法,通过该算法结合带有发光二极管的新型光电控管对现有内镜光源进行改进,可以实时检测输尿管的水平位置和深度信息,在检测精度和系统稳定性方面均表现优越。
对术者来说,AI辅助腹腔镜妇科手术有以下优势:(1)操作灵活精准。AI辅助技术(如达芬奇手术机器人系统)能够提供更广的视野角度,消除手部震颤,其“内腕”结构可360°旋转,器械头端仅1 cm,在狭小空间内操作更灵活,尤其适合精细解剖。(2)降低术者疲劳。术者采用坐姿操作,减少长时间站立导致的腰肌劳损和下肢疲劳,有助于在复杂手术中保持专注,提高操作稳定性。(3)高清三维视野。立体成像系统可放大10~15倍,提供更清晰的解剖层次,减少分离粘连造成的损伤,提升复杂手术的安全性[21]。对患者来说,AI辅助腹腔镜妇科手术通过三维视野结合精细化操作,能够减少组织损伤和术中出血,减轻炎症反应,患者术后疼痛轻、并发症少、康复质量高,整体满意度显著提升[22]。因此,AI辅助腹腔镜妇科手术不但能够提升手术精准度,也能够改善患者体验。
1.3 术后监测与预后评估
目前妇科手术后的监测仍主要依赖于医生和护士主导的观察,数据的缺乏是AI在术后监测与预后评估应用中进展缓慢的原因之一。近年来,基于物联网技术的可穿戴医疗设备迅猛发展,它能够实时采集多维度健康数据,包括生命体征动态变化、生理功能指标、运动功能参数及切口愈合进程等[23]。对这些多源异构数据通过AI算法进行整合分析,不仅可以动态评估患者康复进程,还能建立并发症风险预测模型,为实施精准化康复干预提供决策支持[24]。移动健康数据还可应用于患者出院后监测,这有助于减少急诊就诊次数(OR=0.42,95%CI= 0.23~0.79)和再入院次数(OR=0.47,95%CI= 0.29~0.77),还可促进患者术后生活质量的改善[25]。Wells等[8]系统检索了关于成人腹部手术后30 d内使用可穿戴设备进行监护的研究文献,描述了31种不同的可穿戴设备,它们能够监测生命体征、生理参数和身体活动,在早期发现术后并发症方面展现出潜力,患者接受度高,但设备精度不足、患者依从性差、误报警频发、数据传输问题及回顾性数据分析等局限影响了结论的可靠性,还需要高质量研究进一步验证。AI的另一大益处便是将医生和护理人员从烦琐的生命体征监测数据中解脱出来,节省时间和精力,践行以患者为中心的护理理念。
术后并发症的预测一直是外科领域研究的难点,在复杂外科手术中尤为突出。目前,AI预测术后并发症的研究主要集中在肠道吻合术及胰腺手术领域[26-27]。Bhasker等[26]通过算法创建了一个基于术前CT影像组学特征、胰腺及周围标注结构的网格化体积数据及术前临床数据组合的预测模型,可有效预测胰腺切除术后并发症发生风险。Protego Maxima试验调查了一种新的数字化风险评估工具对接受大手术(内脏、胸外科、泌尿外科、血管和妇科手术)患者术后90 d生存率和主要并发症发生率的评估效果,低风险组与高风险组的90 d生存率(99.4% vs 95.5%,P=0.04)和主要并发症发生率(16.4% vs 32.4%,P<0.001)差异有统计学意义[27]。在妇科领域,卵巢癌肿瘤细胞减灭术是最为复杂、手术范围最广的术式之一,Barber等[28]基于患者术前资料、辅助检查结果和术后情况构建的机器学习模型,可以有效预测卵巢癌肿瘤细胞减灭术患者术后并发症和再入院的发生率。
AI辅助妇科术后监测和预后评估仍然是一个较新的领域,随着传感器的升级、可穿戴设备的普及和支持多模态数据输出设备的出现,这一方向的发展潜力逐渐显现,有望推动AI在该领域的深入应用。
2 AI在妇科手术培训中的应用
AI在妇科手术培训中的应用正逐渐改变传统医学教育模式,通过智能化、个性化和高效化的技术手段提升培训效果。AI在妇科手术培训中的应用主要包括以下几方面:VR与AR手术模拟、智能评估系统和远程协作教学。
VR技术在过去的30年取得了显著发展。当前,外科教育领域正在经历一场由虚拟建模和模拟技术引领的变革,这一变革不仅涵盖技术技能的培训,更关键的是引入了客观指标和基于标准的评估工具,能够科学地量化培训效果。随着机器学习的应用改进,手部运动追踪等定量测量手段的准确性大幅提升。目前,高度先进的VR模拟平台已被广泛应用于多种手术方法的验证,包括机器人手术(如达芬奇手术机器人技能模拟器)、腹腔镜手术(如LAPMentor)和内镜手术(如TURPsim)[29]。Connolly等[30]的研究证实,在达芬奇Si手术机器人技能模拟器上进行训练能够显著提升外科医生在实际手术中的表现。AI驱动的VR/AR平台可通过结构化分步训练(如腹腔镜/机器人手术模拟)提供逼真的视觉和触觉反馈,帮助学员熟悉解剖结构和操作流程,从而有效提升手术操作水平[31]。Akdemir等[32]研究证实,与接受标准临床外科培训的新手外科医生相比,接受VR腹腔镜模拟器培训者在进行腹腔镜下双侧输卵管结扎术时表现更好。近几年机器人辅助腹腔镜手术得到飞速发展,虽然较传统腹腔镜手术降低了操作难度,但仍需要特定的技能学习来适应缺乏触觉反馈和系统控制功能。有研究表明机器人辅助模拟教学能够促进新手外科医生的机器人手术操作技术精进[9]。除了分步训练模式,VR技术还可用于完整手术过程的模拟训练。例如,Bing等[33]的研究开发了一种基于VR的全子宫切除模型,结果显示,随着模拟训练次数的增加,学员完成手术的步骤和时间均显著减少,这表明VR技术可能有助于新手外科医生更快掌握特定手术技能。
传统的手术培训采用主观评价指标评估培训的有效性。AI智能评估系统能够量化操作路径、器械转化时间、电凝使用次数、缝合时间、器械角度,从而客观评价培训效果。Kiyasseh等[34]开发了一种机器学习系统,利用视觉转换器和监督对比学习来解码机器人手术期间视频中的手术活动元素,包括手术步骤、外科医生所做的动作和这些动作的质量等,从而精准识别手术步骤、术者操作动作和操作质量水平。
此外,在5G网络支持下,专家可远程指导基层医生进行腹腔镜或机器人妇科手术(如子宫切除术、肌瘤剔除术)。AI通过AR标记关键解剖结构(如输尿管、血管),并实时分析学员操作,提示“电凝距离过近”或“缝合角度偏差”等修正建议。例如,2025年3月13日,海西州人民医院成功运用5G+AR远程系统为州内8家市县级医院演示了9场直播带教手术,包括经内镜逆行胰胆管造影术、腹腔镜下肝包虫切除术等高难度手术[35]。专家利用5G+AR“远程诊疗”系统,在屏幕上标记出需要注意的患者身体部位及具体操作位置,实时传输到手术室医生面前,从而实现远程同步手术指导。
3 AI在妇科手术应用中的挑战与展望
目前AI辅助外科手术在某些妇科疾病中展示了一定的潜力,如宫颈癌、子宫内膜癌、子宫肌瘤等,AR和器官识别的另一个未来应用方向是卵巢癌和子宫内膜异位症。卵巢癌肿瘤细胞减灭术的彻底性是影响患者预后的关键因素,如何识别微小转移灶备受关注,但并未得到很好的解决,未来期望能通过AI技术识别卵巢癌微小转移灶,提高肿瘤细胞减灭术的彻底性。同样,子宫内膜异位症的微小病灶也严重影响患者的生活质量,由于病变形态多样且广泛,其在临床实践中往往难以准确识别[36]。AI与计算机视觉在该领域具有应用潜力,可通过精确定位与重要结构相连的子宫内膜异位病变提高手术中病灶的识别率与切除率。
除了扩大AI在妇科手术中的适用范围,如何提高AI技术的自主性也受到关注。目前,大多数的AI辅助技术均需要外科医生进行操作,实现全AI自动化或半自动化是AI界和医学界未来的重要研究方向。Kam等[37]的研究使用智能组织自主机器人系统缝合合成阴道袖带,并与一名外科医生手动缝合进行了比较,结果表明该机器人系统的缝线间距一致性和缝线咬合尺寸一致性分别比手动缝合高2.6倍和2.4倍。机器人系统通过集成多种传感器并运行先进算法,能够为外科医生提供实时反馈,从而实现精准的组织切开、有效的出血控制以及最小的组织损伤。尽管完全自主的手术机器人在短期内尚难实现,但在特定重复性简单任务(如缝合)中,由外科医生主导的半自主手术机器人已展现出可行的应用前景。
尽管AI在妇科手术中的应用前景广阔,但AI在成像诊断和模式识别方面的应用仍有局限性。例如,深度学习依赖于数据的质量和数量,引入系统的数据可能存在主观偏差风险,并且基于个别队列建立的机器模型不具有普适性。下一步的研究需在扩大数据量的同时改进数据准入门槛,并提升其普适性。
4 小结
AI技术在妇科手术中的应用正在快速发展,为手术的精准化、个体化和微创化发展提供了新的可能。从术前规划到术中导航再到术后监测,AI技术都展现出巨大的潜力。尽管目前仍面临一些挑战,但随着技术的不断进步和临床经验的积累,AI有望成为妇科手术中不可或缺的辅助工具。未来,AI技术将进一步推动妇科手术向更加精准、安全和高效的方向发展,最终惠及广大患者。
-
[1] STOJKO R, SADLOCHA M. Minimally invasive surgery in gynecology. Reconciling the past with a view to the future[J]. Ginekol Pol, 2022, 93(11): 859-860. DOI: 10.5603/GP.a2022.0138. [2] WU J, YE T, LV J, et al. Laparoscopic nerve-sparing radical hysterectomy vs laparoscopic radical hysterectomy in cervical cancer: a systematic review and meta-analysis of clinical efficacy and bladder dysfunction[J]. J Minim Invasive Gynecol, 2019, 26(3): 417-426.e6. DOI: 10.1016/j.jmig.2018.10.012. [3] AKAZAWA M, HASHIMOTO K. Artificial intelligence in gynecologic cancers: current status and future challenges—a systematic review[J]. Artif Intell Med, 2021, 120: 102164. DOI: 10.1016/j.artmed.2021.102164. [4] CIANCI S, GULINO F A, PALMARA V, et al. Exploring surgical strategies for uterine fibroid treatment: a comprehensive review of literature on open and minimally invasive approaches[J]. Medicina (Kaunas), 2023, 60(1): 64. DOI: 10.3390/medicina60010064. [5] VOLINSKY-FREMOND S, HOREWEG N, ANDANI S, et al. Prediction of recurrence risk in endometrial cancer with multimodal deep learning[J]. Nat Med, 2024, 30(7): 1962-1973. DOI: 10.1038/s41591-024-02993-w. [6] LECOINTRE L, ALEKSEENKO J, PAVONE M, et al. Artificial intelligence-enhanced magnetic resonance imaging-based pre-operative staging in patients with endometrial cancer[J]. Int J Gynecol Cancer, 2025, 35(1): 100017. DOI: 10.1016/j.ijgc.2024.100017. [7] SONG E, YU F, LIU H, et al. A novel endoscope system for position detection and depth estimation of the ureter[J]. J Med Syst, 2016, 40(12): 266. DOI: 10.1007/s10916-016-0607-1. [8] WELLS C I, XU W, PENFOLD J A, et al. Wearable devices to monitor recovery after abdominal surgery: scoping review[J]. BJS Open, 2022, 6(2): zrac031. DOI: 10.1093/bjsopen/zrac031. [9] RADI I, TELLEZ J C, ALTERIO R E, et al. Feasibility, effectiveness and transferability of a novel mastery-based virtual reality robotic training platform for general surgery residents[J]. Surg Endosc, 2022, 36(10): 7279-7287. DOI: 10.1007/s00464-022-09106-z. [10] YU K H, KOHANE I S. Framing the challenges of artificial intelligence in medicine[J]. BMJ Qual Saf, 2019, 28(3): 238-241. DOI: 10.1136/bmjqs-2018-008551. [11] MYSONA D P, KAPP D S, ROHATGI A, et al. Applying artificial intelligence to gynecologic oncology: a review[J]. Obstet Gynecol Surv, 2021, 76(5): 292-301. DOI: 10.1097/OGX.0000000000000902. [12] WANG T, GAO T, GUO H, et al. Preoperative prediction of parametrial invasion in early-stage cervical cancer with MRI-based radiomics nomogram[J]. Eur Radiol, 2020, 30(6): 3585-3593. DOI: 10.1007/s00330-019-06655-1. [13] SINHA R, BANA R, PRASAD R, et al. 3D printing-presurgical precision planning for complex robotic myomectomy[J]. J Minim Invasive Gynecol, 2022, 29(5): 599-601. DOI: 10.1016/j.jmig.2022.01.012. [14] SAADATI S, AMIRMAZLAGHANI M. Revolutionizing endometriosis treatment: automated surgical operation through artificial intelligence and robotic vision[J]. J Robot Surg, 2024, 18(1): 383. DOI: 10.1007/s11701-024-02139-7. [15] LONG T, LI K N, GAO J H, et al. Comparative study of percutaneous sacroiliac screw with or without TiRobot assistance for treating pelvic posterior ring fractures[J]. Orthop Surg, 2019, 11(3): 386-396. DOI: 10.1111/os.12461. [16] 李文智, 韦自卫, 王忠. 人工智能的研究进展及其在泌尿系肿瘤手术导航中的应用[J]. 现代泌尿外科杂志, 2020, 25(1): 1-3. DOI: 10.3969/j.issn.1009-8291.2020.01.001. [17] 徐楷文. 基于人工智能的腹腔镜直肠癌手术术中神经识别系统研究[D]. 北京: 北京协和医学院, 2023. [18] MADAD ZADEH S, FRANÇOIS T, COMPTOUR A, et al. SurgAI3.8K: a labeled dataset of gynecologic organs in laparoscopy with application to automatic augmented reality surgical guidance[J]. J Minim Invasive Gynecol, 2023, 30(5): 397-405. DOI: 10.1016/j.jmig.2023.01.012. [19] CHAUVET P, BOURDEL N, CALVET L, et al. Augmented reality with diffusion tensor imaging and tractography during laparoscopic myomectomies[J]. J Minim Invasive Gynecol, 2020, 27(4): 973-976. DOI: 10.1016/j.jmig.2019.11.007. [20] BOURDEL N, COLLINS T, PIZARRO D, et al. Use of augmented reality in laparoscopic gynecology to visualize myomas[J]. Fertil Steril, 2017, 107(3): 737-739. DOI: 10.1016/j.fertnstert.2016.12.016. [21] WILLIAMSON T, SONG S E. Robotic surgery techniques to improve traditional laparoscopy[J]. JSLS, 2022, 26(2): e2022.00002. DOI: 10.4293/JSLS.2022.00002. [22] FOTIOU A, IAVAZZO C. Gynecologic robotic surgery: intraoperative complication and conversion rates[J]. J Invest Surg, 2022, 35(4): 916-917. DOI: 10.1080/08941939.2021.1962440. [23] VARGHESE C, HARRISON E M, O'GRADY G, et al. Artificial intelligence in surgery[J]. Nat Med, 2024, 30(5): 1257-1268. DOI: 10.1038/s41591-024-02970-3. [24] SESSLER D I, SAUGEL B. Beyond'failure to rescue': the time has come for continuous ward monitoring[J]. Br J Anaesth, 2019, 122(3): 304-306. DOI: 10.1016/j.bja.2018.12.003. [25] DAWES A J, LIN A Y, VARGHESE C, et al. Mobile health technology for remote home monitoring after surgery: a meta-analysis[J]. Br J Surg, 2021, 108(11): 1304-1314. DOI: 10.1093/bjs/znab323. [26] BHASKER N, KOLBINGER F R, SKOROBOHACH N, et al. Prediction of clinically relevant postoperative pancreatic fistula using radiomic features and preoperative data[J]. Sci Rep, 2023, 13(1): 7506. DOI: 10.1038/s41598-023-34168-x. [27] SLIWINSKI S, FAQAR-UZ-ZAMAN S F, HEIL J, et al. Predictive value of a novel digital risk calculator to determine early patient outcomes after major surgery: a proof-of-concept pilot study[J]. Patient Saf Surg, 2024, 18(1): 13. DOI: 10.1186/s13037-024-00395-y. [28] BARBER E L, GARG R, PERSENAIRE C, et al. Natural language processing with machine learning to predict outcomes after ovarian cancer surgery[J]. Gynecol Oncol, 2021, 160(1): 182-186. DOI: 10.1016/j.ygyno.2020.10.004. [29] FRANKIEWICZ M, VETTERLEIN M W, MATUSZEWSKI M, et al. VR, reconstructive urology and the future of surgery education[J]. Nat Rev Urol, 2023, 20(6): 325-326. DOI: 10.1038/s41585-022-00722-x. [30] CONNOLLY M, SELIGMAN J, KASTENMEIER A, et al. Validation of a virtual reality-based robotic surgical skills curriculum[J]. Surg Endosc, 2014, 28(5): 1691-1694. DOI: 10.1007/s00464-013-3373-x. [31] NG P Y, BING E G, CUEVAS A, et al. Virtual reality and surgical oncology[J]. Ecancermedicalscience, 2023, 17: 1525. DOI: 10.3332/ecancer.2023.1525. [32] AKDEMIR A, SENDAG F, OZTEKIN M K. Laparoscopic virtual reality simulator and box trainer in gynecology[J]. Int J Gynaecol Obstet, 2014, 125(2): 181-185. DOI: 10.1016/j.ijgo.2013.10.018. [33] BING E G, PARHAM G P, CUEVAS A, et al. Using low-cost virtual reality simulation to build surgical capacity for cervical cancer treatment[J]. J Glob Oncol, 2019, 5: 1-7. DOI: 10.1200/JGO.18.00263. [34] KIYASSEH D, MA R, HAQUE T F, et al. A vision transformer for decoding surgeon activity from surgical videos[J]. Nat Biomed Eng, 2023, 7(6): 780-796. DOI: 10.1038/s41551-023-01010-8. [35] 李庆玲, 齐延迪. 海西借助5G+AR远程系统开启外科手术教学新篇章[N/OL]. 青海日报, 2025-03-14(2)[2025-06-01]. https://epaper.tibet3.com/qhrb/html/202503/14/content_210305.html. [36] IANIERI M M, DELLA CORTE L, CAMPOLO F, et al. Indocyanine green in the surgical management of endometriosis: a systematic review[J]. Acta Obstet Gynecol Scand, 2021, 100(2): 189-199. DOI: 10.1111/aogs.13971. [37] KAM M, SAEIDI H, WEI S, et al. Semi-autonomous robotic anastomoses of vaginal cuffs using marker enhanced 3D imaging and path planning[J]. Med Image Comput Comput Assist Interv, 2019, 11768: 65-73. DOI: 10.1007/978-3-030-32254-0_8.