文章信息
- 徐楷文, 王培培, 吴斌
- Xu Kaiwen, Wang Peipei, Wu Bin
- 人工智能在结直肠癌诊治中的应用
- Application of artificial intelligence in diagnosis and treatment of colorectal cancer
- 实用肿瘤杂志, 2022, 37(1): 29-32
- Journal of Practical Oncology, 2022, 37(1): 29-32
基金项目
- 中国医学科学院中央级公益性科研院所基本科研业务费专项资助项目(2021-JKCS-006);中国医学科学院医学与健康科技创新工程项目(2021-1-I2M-015)
-
通信作者
- 吴斌,E-mail:wubin0279@hotmail.com
-
文章历史
- 收稿日期:2022-01-04
在各种恶性肿瘤中,结直肠癌的发病率和死亡率位居前列[1]。近年来,随着我国生活水平的提高,恶性肿瘤的发病特点发生转变,结直肠癌的防治压力持续增加。早期诊断则可提高结直肠癌患者生存率,早期结直肠癌的5年生存率超过90.0%,而转移性结直肠癌的5年生存率仅为14.0%[1]。
结直肠癌的诊断主要依靠结肠镜活检进行定性诊断,依靠CT和MRI等影像学手段进行定位诊断和初步分期;但目前我国不同地区医疗条件和水平的差异仍然突出,这将影响肿瘤的筛查、诊断、预后判断和治疗选择。人工智能(artificial intelligence,AI)的出现为上述问题的解决提供了新的思路。机器学习(machine learning,ML)是人工智能的一个研究方向。深度学习则是近年来机器学习的热点技术,通过模拟神经元网络的方式处理信息。通过大量数据的训练,人工智能可实现快速高质量的决策,或进行精准的机械操作,辅助临床医师的诊疗[2]。
1 结直肠癌的筛查结直肠癌的发生和进展相对缓慢,为结肠镜筛查提供了条件。然而,结肠镜检查息肉的漏诊率约为24%~35%,特别是微小腺瘤的诊断仍然困难[3]。大量研究提示利用人工智能实时处理结肠镜视频图像,可以弥补人眼和医师技能的局限性[4]。
为提高息肉的检出率,AI须在短时间内输出结果,将其标注在结肠镜屏幕上。2015年Wang等[5]构建的AI能检出53个测试视频中97.7%的息肉,每秒可以处理10帧图像,首次实现了接近实时的输出。近年来随着深度学习算法的广泛应用,AI息肉识别的能力进一步提升。Urban等[6]的AI模型准确率达96.4%,敏感度足以帮助专家发现更多息肉,识别速度可达每秒近100帧。Wang等[7]的模型识别了192个测试视频中100%的息肉,可以在屏幕上对息肉实时追踪,在实时输出时一般不会干扰操作者,假阳性率也足够低;但无蒂锯齿状腺瘤/息肉(sessile serrated adenoma/polyp,SSA/P)等形态特征不明显的息肉对AI较为困难,且用于训练的数据集中此类息肉较少。
目前意大利开展了一项三家中心参与的开放标签随机对照试验,纳入了685例结肠镜筛查的患者,AI组腺瘤检出率(adenoma detection rate,ADR)高于对照组(54.8% vs 40.4%),AI辅助组小型息肉的识别增加,而且AI辅助信息并未延长检查时间[8]。基于深度学习的AI已有多项临床试验开展。Wang等[9]在四川省人民医院先后开展了开放标签和双盲的随机对照试验,每项试验纳入约1 000例患者,发现AI辅助可将ADR提高6%~9%,特别是可以辅助识别小型、被遮挡和外观特征不明显等较难识别的腺瘤。
目前AI辅助识别息肉的研究还面临以下挑战:肠镜中出血和肠道准备差等因素会造成干扰。此类AI相关的临床研究中盲法的应用较复杂,难以评估研究中医师的心理和注意力对结果的影响。不同人群息肉发病率不同,对AI性能的要求也不同。内镜筛查和内镜下治疗等不同适应证也会影响AI的训练和应用。从肿瘤防治的根本目的上考虑,AI辅助结肠镜检查对结直肠癌发病率的影响和经济效益仍有待研究。这些问题值得未来的研究关注。
2 结直肠癌的影像学检查与影像组学结直肠癌的术前定位诊断主要依靠CT和MRI检查。AI辅助读片目前被广泛研究。Trebeschi等[10]的AI模型可准确勾画MRI图像中局部晚期直肠癌的肿瘤范围。Liang等[11]用AI提取CT图像的信息,用术后分期进行训练,其AI模型可根据CT图像预测术后分期Ⅰ~Ⅱ期或Ⅲ~Ⅳ期,受试者工作特征(receiver operating characteristic,ROC)曲线的曲线下面积(area under curve,AUC)为0.792,结果有一定的参考意义。对常规较难判读的淋巴结转移和神经浸润等项目,AI展现了巨大的潜力。在两项相关研究中,AI判读淋巴结转移的AUC为0.9左右,与放射科专家类似,且处理时间远快于人工读片。未来值得进行大规模合作研究,评估并消除设备和人群等因素对AI性能的干扰,并纳入更多疑难影像进行训练,提高AI的临床应用性能。
2012年,Lambin等[12]首次提出影像组学的概念,指出CT和MRI等影像学数据中蕴含大量有待开发的信息。AI的发展丰富了影像组学提取信息的手段,为肿瘤的个体化诊治打开了广阔的前景。许多研究利用基于AI的影像组学,挖掘传统影像学不能给出的信息,如肿瘤的分子表型、治疗反应和患者预后等。例如,Cui等[13]用1 304例MRI T2WI图像预测肿瘤的V-Ki-ras2 Kirsten大鼠肉瘤病毒癌基因同源物(V-Ki-ras 2 Kirsten rat sarcoma viral oncogene homolog,KRAS)突变情况,通过算法提取特征,再用分子病理结果训练AI模型,AI在286例的外部验证集中的AUC为0.714。Fan等[14]提取增强CT特征预测肿瘤的微卫星不稳定(microsatellite instability,MSI)状态,AUC为0.688,结合临床指标后模型的AUC为0.752。Wei等[15]利用192例结直肠癌肝转移患者的CT,训练基于卷积神经网络(convolutional neural network,CNN)的AI模型,预测化疗有效性的AUC达0.82。上述研究多为单中心小样本回顾性研究。未来可以进行更大规模的多中心研究,纳入CT和MRI等不同影像学图像及临床和病理指标,构建更优的AI模型。
3 腹腔镜结直肠癌手术目前腹腔镜已经成为结直肠癌的重要手术方式。腹腔镜结直肠手术对实操经验要求较高,涉及手术的神经和血管等的保护和分离,术区淋巴结清扫等均需丰富的临床操作经验,低年资医师以及部分医院专科医师很难迅速熟练掌握该项手术方法。通过AI分析腹腔镜手术的图像,将识别结果实时反馈在屏幕上,有望降低学习曲线的影响并减少并发症的发生。目前在乙状结肠切除术中,有研究报道手术阶段识别已经实现>90%的准确率和实时输出[16-17]。
手术器械识别是AI用于手术视频处理的重要基础,因为器械尖端指向的区域往往是主刀医师感兴趣或易损伤的区域。AI主要采用CNN架构,通过勾画器械范围或简化的方式进行标注以供AI训练,得到的AI模型已能较准确地识别图像中器械的范围。Hasan等[18]运用CNN结合代数几何方法,实现了对器械空间方位的估计,未来可用于构建AI术中导航系统,为医师提示器械附近的重要结构和将要进行的手术动作。AI对胆囊三角、血管和神经等结构的辨识与勾画已经取得了一定成果,因此AI对重要结构的识别值得在腹腔镜结直肠手术中进行研究[19]。
术中导航是AI在手术领域的应用方向之一,其通过将可视化的影像学结果和重要的解剖结构信息等辅助信息集成叠加显示在腹腔镜视频中,为术者提供参考。AI不仅可以提供辅助信息,也可以帮助将辅助信息和手术实时视频中的结构相匹配,即“配准”[20]。借助AI模型估计镜头与画面结构的距离,可辅助配准过程;把套管针位置和相机角度纳入AI模型,医师输入数据后,AI可以辅助选择最有利于配准的相机视角,减少配准所需的时间[21]。
除了为医师提供辅助信息外,AI还可以控制机器人进行操作。Leonard等[22]设计的智能组织吻合机器人(smart tissue anastomosis robot,STAR)可以依据外科医师设定的进出针位置缝合,也可依据外科医师选定的切口形态自动选择进出针位置,在平面切口上的速度和准确性都远超外科医师。由于系统研究处于初始阶段, 系统仍局限于平面切口的缝合,且在追踪切口运动和缝合力度等方面有待进一步优化。
4 结直肠癌的预后预测AI对影像学和病理学图像的分析可以获得预后信息,一些研究利用临床和病理特征训练更简单的AI模型,对预后预测也有一定意义。2013年Spelt等[23]就研究了241例结直肠癌肝转移患者的术后生存,其构建的基于人工神经网络(artificial neural network)的AI模型选择出6个危险因素,AI模型性能高于Cox回归模型。日本的两项研究研究了接受结肠镜治疗的T1期结直肠癌患者淋巴结转移的预测[24]。前期单中心研究显示,按照AI模型的预测决策,或按照美国、欧洲和日本指南的追加手术指征决策,在100例的测试集中均未遗漏淋巴结转移患者,但AI模型与指南比较可减少假阳性,减少不必要的手术。后续多中心研究显示,AI的AUC高于指南,但在指南的敏感度水平下AI的特异度并不占优势。由于早期患者淋巴结转移的预测应当优先考虑敏感度,该研究的结果可能需谨慎对待,但AI在淋巴结转移的预测中确有良好的应用前景[25]。除淋巴结转移的预测外,AI还可用于药物不良反应的预测。有研究用AI分析患者的人口学特征、化验结果与动态血药浓度结果,对伊立替康的白细胞减少、中性粒细胞减少和腹泻不良反应进行预测,准确率分别为76%、75%和91%[26]。
5 结语结直肠癌的诊治仍面临医疗水平不均以及技术和经验的局限性等挑战。AI通过大量数据训练,在结肠镜筛查和治疗、影像学检查、手术辅助、病理检查和临床资料分析等方面有广泛的应用前景,可为结直肠癌的筛查、诊断、治疗和预后分析提供辅助,甚至帮助发现新的临床规律。
[1] |
Siegel RL, Miller KD, Fuchs HE, et al. Cancer statistics, 2021[J]. CA Cancer J Clin, 2021, 71(1): 7-33. DOI:10.3322/caac.21654 |
[2] |
Hamet P, Tremblay J. Artificial intelligence in medicine[J]. Metabolism, 2017, 69S: S36-S40. |
[3] |
Weitz J, Koch M, Debus J, et al. Colorectal cancer[J]. Lancet, 2005, 365(9454): 153-165. DOI:10.1016/S0140-6736(05)17706-X |
[4] |
Attardo S, Chandrasekar VT, Spadaccini M, et al. Artificial intelligence technologies for the detection of colorectal lesions: the future is now[J]. World J Gastroenterol, 2020, 26(37): 5606-5616. DOI:10.3748/wjg.v26.i37.5606 |
[5] |
Wang Y, Tavanapong W, Wong J, et al. Polyp-Alert: near real-time feedback during colonoscopy[J]. Comput Methods Programs Biomed, 2015, 120(3): 164-179. DOI:10.1016/j.cmpb.2015.04.002 |
[6] |
Urban G, Tripathi P, Alkayali T, et al. Deep learning localizes and identifies polyps in real time with 96% accuracy in screening colonoscopy[J]. Gastroenterology, 2018, 155(4): 1069-1078. DOI:10.1053/j.gastro.2018.06.037 |
[7] |
Wang P, Xiao X, Glissen Brown JR, et al. Development and validation of a deep-learning algorithm for the detection of polyps during colonoscopy[J]. Nat Biomed Eng, 2018, 2(10): 741-748. DOI:10.1038/s41551-018-0301-3 |
[8] |
Repici A, Badalamenti M, Maselli R, et al. Efficacy of real-time computer-aided detection of colorectal neoplasia in a randomized trial[J]. Gastroenterology, 2020, 159(2): 512-520. DOI:10.1053/j.gastro.2020.04.062 |
[9] |
Wang P, Berzin TM, Glissen Brown JR, et al. Real-time automatic detection system increases colonoscopic polyp and adenoma detection rates: a prospective randomised controlled study[J]. Gut, 2019, 68(10): 1813-1819. DOI:10.1136/gutjnl-2018-317500 |
[10] |
Trebeschi S, van Griethuysen JJM, Lambregts DMJ, et al. Author correction: deep learning for fully-automated localization and segmentation of rectal cancer on multiparametric MR[J]. Sci Rep, 2018, 8(1): 2589. DOI:10.1038/s41598-018-20029-5 |
[11] |
Liang CS, Huang YQ, He L, et al. The development and validation of a CT-based radiomics signature for the preoperative discrimination of stageⅠ-Ⅱ and stage Ⅲ-Ⅳ colorectal cancer[J]. Oncotarget, 2016, 7(21): 31401-31412. DOI:10.18632/oncotarget.8919 |
[12] |
Lambin P, Rios-Velazquez E, Leijenaar R, et al. Radiomics: extracting more information from medical images using advanced feature analysis[J]. Eur J Cancer, 2012, 48(4): 441-446. DOI:10.1016/j.ejca.2011.11.036 |
[13] |
Cui YF, Liu HH, Ren JL, et al. Development and validation of a MRI-based radiomics signature for prediction of KRAS mutation in rectal cancer[J]. Eur Radiol, 2020, 30(4): 1948-1958. DOI:10.1007/s00330-019-06572-3 |
[14] |
Fan SX, Li XB, Cui XN, et al. Computed tomography-based radiomic features could potentially predict microsatellite instability status in stage Ⅱ colorectal cancer: a preliminary study[J]. Acad Radiol, 2019, 26(12): 1633-1640. DOI:10.1016/j.acra.2019.02.009 |
[15] |
Wei JW, Cheng J, Gu DS, et al. Deep learning-based radiomics predicts response to chemotherapy in colorectal liver metastases[J]. Med Phys, 2021, 48(1): 513-522. DOI:10.1002/mp.14563 |
[16] |
Kitaguchi D, Takeshita N, Matsuzaki H, et al. Automated laparoscopic colorectal surgery workflow recognition using artificial intelligence: experimental research[J]. Int J Surg, 2020, 79: 88-94. DOI:10.1016/j.ijsu.2020.05.015 |
[17] |
Kitaguchi D, Takeshita N, Matsuzaki H, et al. Real-time automatic surgical phase recognition in laparoscopic sigmoidectomy using the convolutional neural network-based deep learning approach[J]. Surg Endosc, 2020, 34(11): 4924-4931. DOI:10.1007/s00464-019-07281-0 |
[18] |
Hasan MK, Calvet L, Rabbani N, et al. Detection, segmentation, and 3D pose estimation of surgical tools using convolutional neural networks and algebraic geometry[J]. Med Image Anal, 2021, 70: 101994. DOI:10.1016/j.media.2021.101994 |
[19] |
Cui P, Shu T, Lei J, et al. Nerve recognition in percutaneous transforaminal endoscopic discectomy using convolutional neural network[J]. Med Phys, 2021, 48(5): 2279-2288. DOI:10.1002/mp.14822 |
[20] |
Luo HL, Yin DL, Zhang SG, et al. Augmented reality navigation for liver resection with a stereoscopic laparoscope[J]. Comput Methods Programs Biomed, 2020, 187: 105099. DOI:10.1016/j.cmpb.2019.105099 |
[21] |
Robu MR, Edwards P, Ramalhinho J, et al. Intelligent viewpoint selection for efficient CT to video registration in laparoscopic liver surgery[J]. Int J Comput Assist Radiol Surg, 2017, 12(7): 1079-1088. DOI:10.1007/s11548-017-1584-7 |
[22] |
Leonard S, Wu KL, Kim Y, et al. Smart tissue anastomosis robot (STAR): a vision-guided robotics system for laparoscopic suturing[J]. IEEE Trans Biomed Eng, 2014, 61(4): 1305-1317. DOI:10.1109/TBME.2014.2302385 |
[23] |
Spelt L, Nilsson J, Andersson R, et al. Artificial neural networks-A method for prediction of survival following liver resection for colorectal cancer metastases[J]. Eur J Surg Oncol EJSO, 2013, 39(6): 648-654. DOI:10.1016/j.ejso.2013.02.024 |
[24] |
Ichimasa K, Kudo SE, Mori Y, et al. Artificial intelligence may help in predicting the need for additional surgery after endoscopic resection of T1 colorectal cancer[J]. Endoscopy, 2018, 50(3): 230-240. DOI:10.1055/s-0043-122385 |
[25] |
Ei KS, Katsuro I, Benjamin V, et al. Artificial intelligence system to determine risk of T1 colorectal cancer metastasis to lymph node[J]. Gastroenterology, 2021, 160(4): 1075-1084. DOI:10.1053/j.gastro.2020.09.027 |
[26] |
Oyaga-Iriarte E, Insausti A, Sayar O, et al. Prediction of irinotecan toxicity in metastatic colorectal cancer patients based on machine learning models with pharmacokinetic parameters[J]. J Pharmacol Sci, 2019, 140(1): 20-25. DOI:10.1016/j.jphs.2019.03.004 |