第二军医大学学报  2018, Vol. 39 Issue (8): 813-818   PDF    
人工智能技术在医学影像中的应用讨论
萧毅1, 夏晨2, 张荣国2, 刘士远1     
1. 海军军医大学(第二军医大学)长征医院影像科, 上海 200003;
2. 推想科技先进研究院, 北京 100080
摘要: 深度神经网络是新一代人工智能技术,其在自然语言处理、学习能力、计算机视觉上将机器的认知能力推向了新的高度。目前,深度神经网络在医学影像中的应用主要集中在发现异常、量化测量和鉴别诊断3个方面,基于深度神经网络的医学影像研究已涉及放射影像、病理图像、超声影像、内镜影像等多个领域。深度神经网络在一些任务场景中已展现出与医师相当甚至超越医师的表现。在人工智能技术高速发展的大环境下,医师群体应客观冷静地看待技术、科学严谨地评价技术、积极开放地参与技术的提升与应用,成为技术的驾驭者,走向人工智能技术辅助下的医疗服务未来。
关键词: 人工智能     医学影像     深度神经网络     发现异常     量化测量     鉴别诊断    
Discussion of artificial intelligence application in medical imaging
XIAO Yi1, XIA Chen2, ZHANG Rong-guo2, LIU Shi-yuan1     
1. Department of Radiology, Changzheng Hospital, Navy Medical University(Second Military Medical University), Shanghai 200003, China;
2. Advanced Institute of Beijing Infervision, Beijing 100080, China
Supported by National Key Research and Development Program of China for Intergovernmental Cooperation (2016YFE0103000), Project of Science and Technology Commission of Shanghai Municipality(17411952400), and Shanghai Health Planning Commission Smart Medical Project (2018ZHYL0101).
Abstract: As a new generation of artificial intelligence technology, the deep neural network takes the cognitive ability of machine to a historical high level in natural language processing, learning ability and computer vision. At present, the application of deep neural network in medical imaging can be categorized into discovery of anomalies, quantitative measurement, and differential diagnosis. Medical imaging research based on deep neural network research has involved various medical imaging domains such as radiological imaging, pathological images, ultrasound imaging, and endoscopic imaging. In several tasks, deep neural network has demonstrated physician-level or even above-physician-level performance. In the context of rapid development of artificial intelligence in imaging medicine, physicians should adopt a more objective, scientific, and proactive attitude towards artificial intelligence technology, and become the masters of artificial intelligence technology and the creators of a futuristic medical world assisted by artificial intelligence technology.
Key words: artificial intelligence     medical imaging     deep neural network     discovery of anomalies     quantitative measurements     differential diagnosis    

科技革命是推动影像诊断跨时代发展的动力。1895年诺贝尔奖获得者、德国物理学家伦琴教授发现了X射线,奠定了医学影像学的根基[1]。20世纪70年代,第一台X线计算机断层扫描(computed tomography,CT)设备的问世将医学影像诊断带上一个新的台阶[2]。20世纪80年代,医学图像存档及通信系统(picture archiving and communication system,PACS)的广泛应用颠覆了影像科医师传统的阅片工作。在21世纪的当下,以人工智能(artificial intelligence)技术为主导的“第4次工业革命”[3]势必为医学影像带来新的“机”与“遇”。

1 人工智能技术与深度神经网络

1950年,Turing[4]提出了图灵测试,至今该测试依然是人工智能被广泛接受的操作定义(operational definition,区别于概念性定义)。在图灵测试中,人类考官会提出一些题目,如果考官无法基于答题对象的回答正确判断答题对象是否为机器,则判定机器通过了图灵测试。要通过图灵测试,机器往往需具备以下能力:(1)自然语言处理(natural language processing);(2)知识表征(knowledge representation);(3)自动推理(automated reasoning);(4)学习能力(machine learning);(5)计算机视觉(computer vision);(6)机器人系统(robotics)[5]。以上6大技能也是如今人工智能领域快速发展的方向。

深度神经网络是新一代人工智能技术的代表。深度神经网络是一种模仿人类大脑构造设计的数学模型,其网络由多个层级构成,每一层都是对原始信息的不同知识表征,通过层与层之间的信息交互感知系统解释传感器数据。神经网络对原始输入进行层层抽象,最终实现对不同模态数据包括图像、声音、文本等的聚类和分类[6]

深度神经网络在多项人工智能技能上将机器的认知能力推向了历史巅峰。2015年,基于深度卷积神经网络(convolutional neural network,CNN)的计算机视觉系统在ImageNet 1000挑战赛中首次超越了人类专家的图像识别分类能力[7]。2016年,AlphaGo横空出世,基于深度神经网络的计算机算法首次在围棋领域战胜人类世界冠军[8]。2017年,Deepstack模型击败德州扑克职业玩家,再次论证了深度神经网络在自动推理能力中的过人优势[9]。2018年的I/O大会上,谷歌发布了Duplex语音人工智能技术,引发了科技界对深度神经网络跨模态应用的无限想象。

2 人工智能技术在医学影像中的应用场景

尽管以深度神经网络为代表的人工智能技术已在不同领域展现出了超越人类的表现,但人工智能技术尚未实现通用型智能(general intelligence)。当前,深度神经网络应用的前提是有清晰定义的性能度量、环境、执行器、传感器(performance measure,environment,actuator,sensor,PEAS)[5]。性能度量是指针对机器表现的具体评价指标,如ImageNet任务中的图像分类错误率;环境是指机器执行任务的具体场景;执行器是指呈现机器输出结果的具体形式,机器的输出往往是一系列数字,要理解输出结果就需要将这些数字转置成有意义的行为或符号;传感器是指输入机器的具体信息,数据形式的不同会直接导致机器任务产生极大的变化。以PEAS框架分析医学影像领域中深度神经网络的应用场景,可将其主要分为发现异常、量化测量和鉴别诊断3类。

(1)发现异常:影像中哪里显示有问题?从医学影像中发现异常就任务环境而言与深度神经网络的检测问题相当。机器的主要任务是通过分析某张或某个序列影像来识别该影像中所有存在目标病灶的具体位置。如输入胸部低剂量CT(low dose CT,LDCT)影像,机器对图像进行分析后,以标注框的形式输出机器在图像上识别出的所有肺结节。评价机器发现异常的效果主要依靠灵敏度和假阳性率,其中假阳性率的计算方式可以是每例影像产生的假阳性结果的平均数,也可以是机器发现的所有结节中的假阳性结果与真阳性结果的比值。

(2)量化测量:病灶多大?平均密度为多少?测量某个具体病灶的大小就任务环境而言与深度神经网络的分割问题类似。机器的主要任务是通过分析某张或某个序列影像来分割出影像中所有属于某种病灶的像素点。如输入脑出血CT影像,机器对图像进行分析后,精确勾勒出所有出血区域,然后基于勾勒的出血区域计算出血量。分割任务可以看作是对每个像素的分类任务。

(3)鉴别诊断:属于A疾病还是B疾病?医学影像的鉴别诊断就任务环境而言与深度神经网络中最常见的分类问题相当。机器的主要任务是通过分析某张或某个序列影像来判断该影像属于几种疾病中的哪一种。如输入肺结节CT影像,机器对图像进行良恶性分类,输出结果可以为一个类别名称(如恶性结节)和机器判断的属于这个类别的概率(如86%)。评价机器鉴别诊断的效果主要是依靠准确率、灵敏度、特异度、受试者工作特征(receiver operating characteristic,ROC)曲线下面积(area under curve,AUC)等医学研究领域常见变量。

除发现异常、量化测量、鉴别诊断外,影像诊断还涉及患者的随访跟踪。深度神经网络还有一个小分支研究图像配准问题,其主要目的是实现多个同一模态或不同模态影像中目标物的匹配[10-11]

3 医学影像人工智能技术的研究现状

根据Litjens等[12]和Ravi等[13]于2017年分别发表的深度学习医学(影像)文献综述分析,基于深度神经网络的医学(影像)研究数量在过去几年呈指数增长,其中不乏一些发表在顶级期刊的研究成果[14-16]。2016年底,谷歌团队在JAMA上报道了利用深度神经网络检测视网膜眼底照片中的糖尿病性视网膜病变;该团队由印度与美国医师合作,创建了一个包含128 000张图像的数据集,每张图片都由54名眼科医师团队中的3~7名眼科医师进行评估,在2个独立的临床验证集上测试算法性能,最后证明了模型的高分类准确率[14]。2017年初,Nature报道了美国斯坦福大学研究团队的一项研究成果,研究者利用深度神经网络训练计算机识别涵盖了2 032种皮肤病的129 450张皮肤损伤图片,并对比了机器与21名专业皮肤科医师对同一批活组织检查证实的皮肤损伤图片的良恶性分类准确率,结果显示机器达到了不亚于专业皮肤科医师的诊断水平[15]。2018年,Cell以封面文章形式刊登了一项基于深度神经网络迁移学习的研究成果,研究者将利用ImageNet数据集训练得到的分类网络迁移至10余万张标注的视网膜光学相干断层扫描(optical coherence tomography,OCT)图像,该深度神经网络筛查致盲性视网膜疾病的准确率可达96.6%,且其灵敏度和特异度均与专业眼科医师相当[16]

尽管深度神经网络的诊断有效性已初步得到验证,但诊断(分类)仅仅是人工智能技术在医学影像应用场景中的一小部分。医学影像临床工作交织着多种不同任务,以肺结节的筛查为例,医师首先需要在影像上识别出所有肺结节,对结节的大小、密度、形态等进行完整描述,并且根据指南对发现结节的病例采取不同的随访方案。在随访过程中,医师需继续观察结节大小、密度的变化,以判断结节的生长规律与良恶性,从而指导后期临床干预。因此,具有最终临床应用价值的人工智能技术需要在发现异常、量化测量、随访跟踪和鉴别诊断中均发挥可靠作用。也就是说,除了将深度神经网络应用于医学影像的分类(诊断),研究者还需继续探索人工智能技术在医学影像检测(发现异常)、分割(量化测量)、配准(随访跟踪)中的应用。

基于放射影像的深度神经网络研究已在包括X线检查、CT、磁共振成像(magnetic resonance imaging,MRI)、乳腺钼靶X线检查等不同模态的图像中取得了重要进展。Rajpurkar等[17]利用Chest X-ray14数据集(超过10万例)实现了肺炎、肺不张、心脏扩大、气胸等14种异常的分类,并通过热力图的方式展示了病灶的具体位置;通过比较发现,机器对肺炎的识别率超过了放射科医师。Kooi等[18]使用深度神经网络检测乳腺钼靶X线影像中的肿块,并系统比较了深度神经网络提取的特征与影像组学特征,结果证明尽管加入组学特征能在一定程度上提升模型的准确率(AUC值增加0.012),仅基于深度神经网络提取的特征就能使AUC值达到近0.93,且与专业放射科医师相比差异无统计学意义。Sharma等[19]利用CNN对肾脏CT影像进行分割并自动计算肾脏总体积以评估常染色体显性多囊肾病,结果显示该自动分割结果与专家人工描绘的相似度(Dice系数)达0.86。Trebeschi等[20]利用深度神经网络对多模态MRI影像(1.5T,T2扩散加权成像)中的直肠癌病变进行自动分割,结果显示深度神经网络与两位专家针对病变的描绘具有高相似度(Dice系数分别为0.68和0.70)。

病理图像是继放射影像后深度学习技术最关注的医学影像领域[12],过去几年医师与科学家们已就细胞检测、分割与分类展开了研究[21-26],涵盖了肺癌[22]、结直肠癌[24]、甲状腺癌[25]、前列腺癌[26]等多个病种。2017年JAMA发表了一项关于使用深度神经网络识别和判断乳腺癌患者腋窝淋巴结转移的研究,通过比较在有时间限制和无时间限制条件下病理医师与机器识别转移癌细胞和判断图像中是否存在转移灶的准确性。结果表明,在无时间限制的条件下,最优的深度神经网络算法与医师的表现相当;但在有时间限制的条件下,深度神经网络识别和判断微转移与宏转移的准确率超越病理医师[27]

超声检查是最常见的医学影像检查之一,研究者已在多个疾病领域开展深度神经网络对超声影像的探索。在甲状腺结节的良恶性鉴别诊断上,实验证明CNN与其他机器学习方法相比优势明显[28]。同时,基于大样本(包含8 000多个结节)的研究证实,深度神经网络鉴别诊断甲状腺结节可达到较高的准确率(灵敏度为82%、特异度为84%)[29]。超声检查是乳腺肿块的常用检查手段,Becker等[30]利用深度神经网络鉴别良性与恶性乳腺病灶,可达到与高年资医师相仿的准确率(AUC分别为0.84、0.88)。除了鉴别诊断,基于超声图像的量化测量也是重要的临床研究方向。第一孕期的胎盘体积是难产风险的重要指标,Looney等[31]通过对三维超声影像中的胎盘进行神经网络自动分割,实现了与手工测量或半自动测量相当的体积测量精度。胎儿左心室的超声表现可用于预测心功能发育,Yu等[32]通过训练深度神经网络自动分割超声图像中胎儿的左心室区域,实现了与医师手动分割类似的效果。除以上常见的超声检查场景,基于超声图像的深度神经网络取得的研究成果还包括肌炎[33]、颈动脉斑块[34]、脂肪肝[35]等疾病的诊断、筛查与量化。

深度神经网络在内镜影像中的应用正越来越受到关注,目前日本医学人工智能团队在该领域处于世界领先地位。Misawa等[36]创新性将地深度学习视频检测技术应用于肠镜检查,使息肉的识别率从传统方法的70%提升至94%。Hirasawa等[37]将深度神经网络中的检测模型应用于胃镜图片的病灶识别,其对早期胃癌病灶的检出率高达92.2%。Shichijo等[38]使用30 000多张胃镜图片训练深度神经网络模型以判断患者是否存在幽门螺杆菌感染,通过与不同年资的消化科医师诊断结果的对比发现,深度神经网络模型的诊断准确率优于中低年资的医师,与高年资医师相仿;同时,深度神经网络在诊断速度上有明显优势。

随着深度神经网络方法的不断推广及其在临床研究中的不断深入,深度神经网络技术还会在其他医学图像领域用于鉴别诊断、发现异常、量化测量,如正电子发射断层成像-磁共振成像(positron emission tomography-magnetic resonance imaging,PET-MRI)、血管内超声检查等。未来,新一代人工智能技术有望从影像诊断向介入与治疗不断发展。

4 正确看待人工智能技术在医学影像中的应用

在人工智能工业革命的背景下,影像科医师应该更客观和积极地面对眼前的“机”与“遇”。(1)更客观、更现实地看待人工智能技术。目前,人工智能技术尚处于初级阶段,更多是围绕某单一影像任务提出解决方案,与临床工作场景还有很远的距离。此外,目前深度神经网络应用的前提是大量的数据训练,并不是所有病种都能满足这个条件。(2)更严谨地评估人工智能技术。目前各类医学影像挑战赛成为新闻热点,这些挑战赛尚缺乏标准化、专业化设计,应从临床角度严格审视挑战赛在研究与应用两方面的意义。所有的技术都是为任务服务的,首先是要解决任务,其次才应寻找方法,深度学习技术只是其中一个方法,医师与技术团队应密切协作,深入探讨临床问题,了解这项技术的优势与局限,更好服务于医疗。(3)以更广阔的思路应用人工智能技术。医学影像不只应用于诊断,许多临床环节都涉及影像的分析与利用。人工智能技术也不只应用于影像分析,深度神经网络能就不同模态的信息(如文本、语音)产出有价值的应用成果,如在手术室等复杂环境中对成像和图像的分析研究,帮助医师提高工作效率、提升服务质量的任务环节。

2016年,深度学习人工智能之父Geoffrey Hinton教授在接受《纽约客》(The New Yorker)杂志采访时曾表示,“放射科医师已经站在失业的边缘。5年内,人工智能将超越放射科医师”。显然,Hinton教授大大低估了影像诊断的复杂程度。正如北美放射学会(Radiological Society of North America,RSNA)副主席Curtis Langlotz教授所言,“人工智能并不会取代放射科医师,但拥抱人工智能的放射科医师必然会取代抗拒人工智能的放射科医师”。人工智能的发展离不开医师,未来医师的工作也将离不开人工智能,机器辅助下的医疗服务将是未来诊疗路径中的最优解决方案。

参考文献
[1]
EISENBERG R L. Radiology:an illustrated history[M]. St. Louis: Mosby-Year Book, 1992.
[2]
HRUBY W. Digital (r)evolution in radiology[M]. New York: Springer-Verlag Wien GmbH, 2001: 195-200.
[3]
OBERHOLZER S, TAGLI R. The fourth industrial revolution[C]. ICCC International Digital Design Invitation Exhibition, 2017: 390.
[4]
TURING A M. Computing machinery and intelligence[M]//EPSTEIN R, ROBERTS G, BEBER G. Parsing the Turing test. Dordrecht: Springer, 2009: 23-24.
[5]
RUSSELL S J, NORVIG P. Artificial intelligence:a modern approach[J]. Appl Mech Mater, 2010, 263: 2829-2833.
[6]
LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521: 436-444. DOI:10.1038/nature14539
[7]
HE K, ZHANG X, REN S, SUN J. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification[Z/OL]. arXiv: 1502. 01852, 2015. http://cn.arxiv.org/pdf/1502.01852v1.
[8]
SILVER D, HUANG A, MADDISON C J, GUEZ A, SIFRE L, VAN DEN DRIESSCHE G, et al. Mastering the game of Go with deep neural networks and tree search[J]. Nature, 2016, 529: 484-489. DOI:10.1038/nature16961
[9]
MORAVČÍK M, SCHMID M, BURCH N, LISÝ V, MORRILL D, BARD N, et al. DeepStack:expert-level artificial intelligence in heads-up no-limit poker[J]. Science, 2017, 356: 508-513. DOI:10.1126/science.aam6960
[10]
MIAO S, WANG Z J, LIAO R. A CNN regression approach for real-time 2D/3D registration[J]. IEEE Trans Med Imaging, 2016, 35: 1352-1363. DOI:10.1109/TMI.2016.2521800
[11]
SIMONOVSKY M, GUTIE RREZ-BECKER B, MATEUS D, NAVAB N, KO-MODAKIS N. A deep metric for multimodal registration[C]//MICCAI: International Conference on Medical Image Computing and Computer-Assisted Intervention. Springer: 2016: 10-18.
[12]
LITJENS G, KOOI T, BEJNORDI B E, SETIO A A A, CIOMPI F, GHAFOORIAN M, et al. A survey on deep learning in medical image analysis[J]. Med Image Anal, 2017, 42: 60-88. DOI:10.1016/j.media.2017.07.005
[13]
RAVI D, WONG C, DELIGIANNI F, BERTHELOT M, ANDREU-PEREZ J, LO B, et al. Deep learning for health informatics[J]. IEEE J Biomed Health Inform, 2017, 21: 4-21. DOI:10.1109/JBHI.2016.2636665
[14]
GULSHAN V, PENG L, CORAM M, STUMPE M C, WU D, NARAYANASWAMY A, et al. Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs[J]. JAMA, 2016, 316: 2402-2410. DOI:10.1001/jama.2016.17216
[15]
ESTEVA A, KUPREL B, NOVOA R A, KO J, SWETTER S M, BLAU H M, et al. Dermatologist-level classification of skin cancer with deep neural networks[J]. Nature, 2017, 542: 115-118. DOI:10.1038/nature21056
[16]
KERMANY D S, GOLDBAUM M, CAI W, VALENTIM C C S, LIANG H, BAXTER S L, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J]. Cell, 2018, 172: 1122-1131. DOI:10.1016/j.cell.2018.02.010
[17]
RAJPURKAR P, IRVIN J, ZHU K, YANG B, MEHTA H, DUAN T, et al. CheXNet: radiologist-level pneumonia detection on chest X-rays with deep learning[Z/OL]. arXiv: 1711. 05225, 2017. http://cn.arxiv.org/pdf/1711.05225v3.
[18]
KOOI T, LITJENS G, VAN GINNEKEN B, GUBERN-MÉRIDA A, SÁNCHEZ C I, MANN R, et al. Large scale deep learning for computer aided detection of mammographic lesions[J]. Med Image Anal, 2017, 35: 303-312. DOI:10.1016/j.media.2016.07.007
[19]
SHARMA K, RUPPRECHT C, CAROLI A, APARICIO M C, REMUZZI A, BAUST M, et al. Automatic segmentation of kidneys using deep learning for total kidney volume quantification in autosomal dominant polycystic kidney disease[J/OL]. Sci Rep, 2017, 7: 2049. doi: 10.1038/s41598-017-01779-0.
[20]
TREBESCHI S, VAN GRIETHUYSEN J J M, LAMBREGTS D M J, LAHAYE M J, PARMAR C, BAKERS F C H, et al. Deep learning for fully-automated localization and segmentation of rectal cancer on multiparametric MR[J/OL]. Sci Rep, 2018, 8: 5301. doi: 10.1038/s41598-017-05728-9.
[21]
SONG Y, TAN E L, JIANG X, CHENG J Z, NI D, CHEN S, et al. Accurate cervical cell segmentation from overlapping clumps in pap smear images[J]. IEEE Trans Med Imaging, 2017, 36: 288-300. DOI:10.1109/TMI.2016.2606380
[22]
YAO J, WANG S, ZHU X, HUANG J. Imaging biomarker discovery for lung cancer survival prediction[C]//MCCAI 2016: International Conference on Medical Image Computing and Computer-Assisted Intervention. Springer, 2016: 649-657.
[23]
CHANG H, HAN J, ZHONG C, SNIJDERS A M, MAO J H. Unsupervised transfer learning via multi-scale convolutional sparse coding for biomedical applications[J]. IEEE Trans Pattern Anal Mach Intell, 2018, 40: 1182-1194. DOI:10.1109/TPAMI.2017.2656884
[24]
BYCHKOV D, TURKKI R, HAGLUND C, LINDER N, LUNDIN J. Deep learning for tissue microarray image-based outcome prediction in patients with colorectal cancer[C/OL]//Proc. SPIE 9791, Medical Imaging 2016: Digital Pathology, 979115(2016-03-23). doi: 10.1117/12.2217072.
[25]
KIM E, CORTE-REAL M, BALOCH Z. A deep semantic mobile application for thyroid cytopathology[C/OL]//Proc. SPIE 9789, Medical Imaging 2016: PACS and Imaging Informatics: Next Generation and Innovations, 97890A (2016-04-05). doi: 10.1117/12.2216468.
[26]
SCHAUMBERG A J, RUBIN M A, FUCHS T J. H&E-stained whole slide deep learning predicts SPOP mutation state in prostate cancer[J/OL]. bioRxiv, 2017: 064279. doi: 10.1101/064279.
[27]
EHTESHAMI BEJNORDI B, VETA M, JOHANNES VAN DIEST P, VAN GINNEKEN B, KARSSEMEIJER N, LITJENS G, et al. Diagnostic assessment of deep learning algorithms for detection of lymph node metastases in women with breast cancer[J]. JAMA, 2017, 318: 2199-2210. DOI:10.1001/jama.2017.14585
[28]
LIU T, XIE S, YU J, NIU L, SUN W. Classification of thyroid nodules in ultrasound images using deep model based transfer learning and hybrid features[C/OL]//IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2017. doi: 10.1109/ICASSP.2017.7952290.
[29]
MA J, WU F, ZHU J, XU D, KONG D. A pre-trained convolutional neural network based method for thyroid nodule diagnosis[J]. Ultrasonics, 2017, 73: 221-230. DOI:10.1016/j.ultras.2016.09.011
[30]
BECKER A S, MUELLER M, STOFFEL E, MARCON M, GHAFOOR S, BOSS A. Classification of breast cancer in ultrasound imaging using a generic deep learning analysis software: a pilot study[J/OL]. Br J Radiol, 2018, 91: 20170576. doi: 10.1259/bjr.20170576.
[31]
LOONEY P, STEVENSON G N, NICOLAIDES K H, PLASENCIA W, MOLLOHOLLI M, NATSIS S, et al. Automatic 3D ultrasound segmentation of the first trimester placenta using deep learning[C/OL]//IEEE 14th International Symposium on Biomedical Imaging (ISBI 2017). IEEE, 2017. doi: 10.1109/ISBI.2017.7950519.
[32]
YU L, GUO Y, WANG Y, YU J, CHEN P. Segmentation of fetal left ventricle in echocardiographic sequences based on dynamic convolutional neural networks[J]. IEEE Trans Biomed Eng, 2017, 64: 1886-1895. DOI:10.1109/TBME.2016.2628401
[33]
BURLINA P, BILLINGS S, JOSHI N, ALBAYDA J. Automated diagnosis of myositis from muscle ultrasound: Exploring the use of machine learning and deep learning methods[J/OL]. PLoS One, 2017, 12: e0184059. doi: 10.1371/journal.pone.0184059.
[34]
LEKADIR K, GALIMZIANOVA A, BETRIU A, DEL MAR VILA M, IGUAL L, RUBIN D L, et al. A convolutional neural network for automatic characterization of plaque composition in carotid ultrasound[J]. IEEE J Biomed Health Inform, 2017, 21: 48-55. DOI:10.1109/JBHI.2016.2631401
[35]
BISWAS M, KUPPILI V, EDLA D R, SURI H S, SABA L, MARINHOE R T, et al. Symtosis:a liver ultrasound tissue characterization and risk stratification in optimized deep learning paradigm[J]. Comput Methods Programs Biomed, 2018, 155: 165-177. DOI:10.1016/j.cmpb.2017.12.016
[36]
MISAWA M, KUDO S E, MORI Y, CHO T, KATAOKA S, YAMAUCHI A, et al. Artificial intelligence-assisted polyp detection for colonoscopy:initial experience[J]. Gastroenterology, 2018, 154: 2027-2029. DOI:10.1053/j.gastro.2018.04.003
[37]
HIRASAWA T, AOYAMA K, TANIMOTO T, ISHIHARA S, SHICHIJO S, OZAWA T, et al. Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images[J]. Gastric Cancer, 2018, 21: 653-660. DOI:10.1007/s10120-018-0793-2
[38]
SHICHIJO S, NOMURA S, AOYAMA K, NISHIKAWA Y, MIURA M, SHINAGAWA T, et al. Application of convolutional neural networks in the diagnosis of helicobacter pylori infection based on endoscopic images[J]. EBioMedicine, 2017, 25: 106-111. DOI:10.1016/j.ebiom.2017.10.014