Artificial intelligence empowers precision rehabilitation for stroke: assessment, intervention, and remote management
-
摘要: 本文梳理了人工智能(AI)在卒中康复领域的关键应用进展,内容覆盖评估量化、个体化处方制定与闭环训练等方面,并针对临床转化提出了路径建议。基于近年来的高质量工程与临床研究证据,围绕评估诊断、治疗干预和远程管理这一主线,整合了计算机视觉、脑机接口(BCI)、外骨骼、虚拟/增强现实与边缘-云平台等多种技术手段,强调算法、工程与临床3个层面证据的贯通与协同。在评估环节,AI借助多模态传感技术与影像分析方法,实现了功能量表评估的自动化和预后预测的精准化。在治疗环节,AI为BCI和外骨骼等康复设备赋能,通过对患者运动意图的解码以及自适应调节机制,为患者提供高度个体化的闭环训练,从而最大程度激发神经可塑性。在远程管理方面,由AI驱动的可穿戴设备与远程平台相结合,实现了对患者居家训练过程的连续监测以及对训练质量的有效控制。尽管目前AI在卒中康复应用中面临临床证据质量欠佳、算法泛化能力有限及潜在安全风险等诸多挑战,但它在推动康复与管理的深度融合、实现个体化精准治疗方面已展现出巨大的潜力。Abstract: This paper reviews the key advances in the application of artificial intelligence (AI) for stroke rehabilitation, including quantitative assessment, personalized treatment prescription, and closed-loop training, and proposes pathways for clinical translation. Based on recent high-quality engineering and clinical evidence, we centered on assessment/diagnosis, therapeutic intervention, and remote management, integrating computer vision, brain-computer interfaces, exoskeletons, virtual/augmented reality, and edge-to-cloud platforms. We emphasized the alignment of "algorithm-engineering-clinical" evidence. On the assessment side, AI leverages multimodal sensing and imaging analytics to automate functional scale scoring and enhance prognostic precision. On the treatment side, AI empowers brain-computer interfaces and exoskeletons through intent decoding and adaptive control to deliver highly individualized closed-loop training that maximizes neuroplasticity. On the remote management side, AI-driven wearables combined with remote platforms enable continuous home-based monitoring and quality control. Despite challenges-including variable evidence quality, limited algorithmic generalization, and potential safety risks-AI shows substantial promise for deeper integration of rehabilitation care and management and for achieving individualized precision therapy.
-
Keywords:
- artificial intelligence /
- stroke /
- deep learning /
- multimodal /
- brain-computer interface
-
在全球范围内,脑卒中仍是第二大死亡原因以及第三大死亡和致残联合原因[1]。在中国,卒中监测报告表明多地发病水平改善有限,缺血性脑卒中发病率也有上升趋势[2]。与不断上升的康复需求相比,我国卒中康复存在康复剂量不足、量化指标匮乏及出院-居家阶段衔接不畅等问题。研究表明,增加训练量、提高训练强度和频次与更好的功能改善呈正相关[3]。然而在中国,仅有约11.5%的脑卒中患者能在发病1周内接受康复干预,由此可见早期持续康复的缺口依然存在[4]。
在此背景下,人工智能(artificial intelligence,AI)能通过机器学习(machine learning,ML)和深度学习(deep learning,DL)等算法模仿大脑受伤后保留的能力,为解决上述痛点提供了新的契机。AI技术具备强大的多模态数据处理与自适应学习能力,能够深度介入卒中康复的各个环节[5]。本文旨在系统梳理AI赋能脑卒中精准康复的三大核心路径:在评估与诊断层面,AI借助深度相机和惯性传感器(inertial measurement unit,IMU)等设备的同时结合ML算法,能够将传统的Fugl-Meyer评估量表(Fugl-Meyer assessment scale,FMA)等主观量表转化为自动化的客观运动学指标[6],并利用多模态数据实现精准的预后预测,为制定个体化康复目标提供依据[7]。在康复干预层面,AI通过外骨骼机器人与脑机接口(brain-computer interface,BCI)等技术实现了从意图识别到辅助执行的闭环控制。通过实时分析患者的生理信号与运动表现,AI算法能够动态调整训练难度与辅助强度,从而使神经可塑性的诱导效果最大化[8]。在远程管理层面,基于AI的物联网平台打破了时空限制,实现了对居家康复的远程监测与智能指导,有效解决了康复断层问题[9]。
本文将从评估量化、干预个体化及管理远程化3个维度,深入探讨AI技术的最新应用进展、关键算法机制及未来面临的挑战,以期为临床医生与工程技术人员提供参考。
1 AI在脑卒中诊断与评估中的应用
1.1 急性期脑卒中诊断中的AI应用:影像与标志物预测
在脑卒中的急性期,精准、及时的诊断是启动有效治疗、减缓脑组织损伤的关键。AI算法,特别是DL,通过对CT和MRI等影像数据的自动化、精细化分析,正在深刻变革这一诊断流程,能够识别出人眼难以察觉的病理模式与异常征象[10-11]。在CT影像分析中,AI模型能快速检出缺血性或出血性脑卒中,提升诊断速度与准确性[12]; 在MRI中,AI能辅助发现脑结构微小的变化,为溶栓、取栓等干预措施提供更可靠的影像依据。这种高精度的影像分析,结合基于ML的胶质纤维酸性蛋白等血液生物标志物筛查,能够为患者建立多维度的疾病严重度基线[13]。这些客观数据不仅提升了临床分型的准确性,更为后续判断患者的神经可塑性潜能、预测功能恢复上限以及制定康复目标提供了关键的病理学依据[14]。
由此可见,AI在急性期脑卒中诊断中的应用,已从单一的技术演进为影像自动定量联合生物标志物检测的多模态整合决策支持模式。然而,当前该领域仍面临若干限制,不同影像软件间定量结果的一致性有待提升,生物标志物诊断阈值在不同人群间的稳定性也尚需验证。
1.2 功能评估的自动化:运动功能量表的智能评定
传统的卒中运动功能评估依赖于临床量表,其固有的主观性及评估者间信度差异限制了其在精准康复中的应用。AI为客观量化提供了新手段:通过传感器和算法自动提取患者运动学数据,生成定量指标或评分,从而减少人工偏差。例如,深度摄像头结合ML算法模型可自动评估上肢Fugl-Meyer量表(Fugl-Meyer assessment scale for upper extremity,FMA-UE)分数[15]。此外,AI大语言模型已被用于阅读电子病历中的自由文本,多方面综合分析卒中严重程度[16]。
基于计算机视觉的无标记点动作捕捉是实现自动化评估的核心技术之一。该技术在运动中的关节角度测量上,精度已接近金标准——光学动捕系统[17-18]。同时,针对偏瘫上肢功能的评定,研究者已开发了基于深度相机和ML模型的FMA-UE系统,采用特征提取、主成分分析降维和人工神经网络(artificial neural network,ANN)逐条分类等方法,实现对各评估项目的自动分类,单项准确率达65%~87%[19]。最新的临床验证研究进一步整合了深度视觉与力传感数据,其多数条目的评分表现优于人类观察员对视频的回放评分,证实了其临床可行性[15]。此外,基于智能手机内置加速度和陀螺仪等传感器的轻量化方案,同样实现了对FMA-UE的高精度评估,准确率高达85%,并将评估时间从30 min缩短至10 min[20]。除了FMA,该技术也被用于手臂动作测试(action research arm test,ARAT)和Wolf运动功能测试(Wolf motor function test,WMFT)的自动化。例如,通过融合多视角视频与Transformer等模型,并引入贝叶斯模型来推断运动质量,可使ARAT的自动化评分验证准确率达到89%[21]。而针对WMFT,一种基于定制化动捕系统和前馈神经网络的评估方法在准确性上同样表现出色[22]。
另一条关键技术路径则是利用可穿戴的传感器,实时捕捉患者在自然状态下的生物力学与生理数据。在自动化平衡评估方面,结合可穿戴IMU和DL模型,例如卷积神经网络(convolutional neural network,CNN)-双向长短期记忆网络(bidirectional long short-term memory,Bi-LSTM)结合自注意力机制的算法模型,已能在轻中度平衡障碍患者中准确评估Berg平衡量表(Berg balance scale,BBS)的分数,但其在重度功能障碍患者中的泛化能力以及逐项评分功能方面仍有待完善[23]。在静态平衡方面,利用力传感平台采集的足底压力中心轨迹,结合概率密度分析等AI算法,不仅能有效区分不同平衡能力的患者,还能对姿态摇摆模式进行精细分型,从而识别出视觉依赖、控制迟滞等潜在的平衡控制缺陷[24]。在步态和下肢功能评估中,基于IMU的步态分析系统已被广泛用于步态参数的实时计算,并与临床观察评估表现出显著的相关性(r=0.75)[25]。同时,有研究使用下肢外骨骼设备集成的多模态传感器数据,并借助极限梯度提升(extreme gradient boosting,XGBoost)算法,成功实现了对6分钟步行距离(6 minutes walking distance,6MWD)和下肢Fugl-Meyer评估量表分数的高精度预测,准确率分别达到85.2%和92.7%,为动态、连续的功能评估提供了创新范式[26]。
综上所述,在运动功能自动化评估的技术路线选择上,基于深度相机的计算机视觉与IMU等可穿戴传感器呈现出显著的场景分化与互补优势。计算机视觉技术凭借非接触、低负荷的特性,避免了设备穿戴对患者动作的干扰,是标准化和横断面评估的首选技术。然而,计算机视觉技术对光线及环境等的高要求限制了其在居家场景的应用。相比之下,基于IMU的可穿戴方案虽存在佩戴烦琐与长时间使用信号漂移的挑战,但其可采集连续动态数据的特性,使其在居家环境下的步态长程监测中具有不可替代的优势。尽管自动化评估系统在FMA-UE总分上与人类治疗师评分展现出极高的相关性(Pearson r=0.96)[15],但这并不意味着AI已具备完全替代临床医生的能力,主要在于对复杂运动质量的精细判断。现有的深度视觉算法在识别躯干微小前倾、耸肩或骨盆代偿等非典型运动模式时,其灵敏度仍显著低于临床专家[27]。同时,AI算法往往倾向于判定为高分,而忽略了患者可能是在使用错误的肌肉群发力。
1.3 语言、认知和吞咽功能的智能评定
目前,AI在卒中后功能评估中的应用已拓展至语言、认知与吞咽等,对患者生活质量的恢复有重要作用。通过分析声学、生理乃至神经影像等多模态数据,AI正为这些传统上依赖主观评价的领域带来客观、高效的评估新范式[28]。在失语症评定中,基于语音信号处理的模型能够通过分析患者的语音特征(包括流利度、停顿、语义连贯性),来辅助甚至自动判别失语症亚型,且准确性已接近临床专家(Kappa=0.94)[29]。同时,AI与影像组学数据整合,映射不同失语症类型相关的脑活动模式,增强了诊断的精确度[30]。除了语言功能,AI还被探索用于卒中后认知障碍的筛查和监测。研究者开发了名为CognoSpeak的智能认知评估系统,该系统通过自然语言处理技术分析患者的对话内容来评估其认知水平[31]。初步临床研究表明,该系统对蒙特利尔认知评估的筛查具有良好的特异性和较高的灵敏度,其评估结果与专业量表评分高度相关,并对患者出院时的认知状态具有一定的预测价值[32]。这提示自动化语音评估有潜力用于筛查早期认知问题,从而尽早干预。
声学分析也被用于吞咽障碍的初步筛查,一项研究利用CNN模型对脑卒中患者的发声进行分类,成功实现了吞咽困难的自动化识别[33]。同时,对于吞咽这一生理过程,大模型也能够通过分析直接的生理信号来进行更深层次的评估。高密度表面肌电图(surface electromyography,sEMG)信号技术通过在颈部部署电极阵列来记录吞咽肌群的电活动,其结合自适应算法能够精细量化各肌群的协同情况,从而客观判断吞咽功能失调的程度与具体模式[34]。为实现更全面的监测,研究者开发了集成sEMG和声音传感器的无线多模态可穿戴系统。该系统结合DL算法,能够实时监测吞咽行为并有效诊断临床上难以发现的静默性误吸,在脑卒中患者中的验证准确率高达89.47%,为吞咽功能的床边及远程评估提供了极具潜力的解决方案[35]。
1.4 脑卒中预后的预测模型
精准的预后预测是制定个体化康复目标与管理患者期望的核心环节。相较于传统统计方法,ML模型能够更好地处理高维、非线性的变量关系,并有效降低过拟合风险,从而显著提升预测的准确性[36]。研究证实,患者入院时的初始功能状态是预测其运动功能恢复的最重要因素之一[37]。基于这一原因,研究者已成功应用多种ML模型进行预后预测。例如,最小绝对收缩和选择算子(least absolute shrinkage and selection operator,LASSO)回归已被用于预测患者出院时的功能独立性评定量表、6MWD和BBS得分,其模型解释方差达到70%~77%[37]。另一项研究则使用多因素logistic回归开发了Maugeri模型,其能够有效预测患者康复后实现功能改善或独立生活的能力,并在外部验证队列中准确率超过85%[38]。支持向量回归和XGBoost算法通过整合多维度临床数据,在预测患者改良Barthel指数和出院时独立行走能力方面的性能已显著优于随机森林等传统ML模型[39-40]。
对于言语和吞咽等功能的预后,DL模型在整合多模态数据方面展现出独特优势。一项研究使用CNN融合MRI影像中的关键脑区、病灶大小等特征与临床数据,对患者的语言能力恢复实现了高达85.4%的预测准确率,并能通过交叉验证识别出对预后重要的脑区[41]。在认知与情绪预后方面,一项纵向研究明确了年龄、受教育程度、卒中严重程度和功能状态都是预测认知恢复和卒中后抑郁的关键因素,其构建的模型准确率高达87.7%~98.0%[42]。在吞咽障碍的长期预后方面,基于贝叶斯网络的模型通过整合吞咽评分、影像学特征等因素,在预测6个月后的吞咽功能恢复方面达到80%的准确率[43]。
尽管预测模型的准确度较高,但根据PROBAST等偏倚风险评估工具的评估,现有研究存在较高的偏倚风险[44]。当前研究的重点不应仅仅是开发出有更高准确率的新模型,而应对现有模型进行严格的外部验证、头对头的比较研究,以及评估它们在真实临床环境中应用的有效性。
AI技术正在逐步革新脑卒中的诊断、评估与预后预测流程。从急性期基于影像和生物标志物的快速精准诊断,到康复阶段对运动、语言、认知和吞咽功能进行客观量化的自动化评估,再到基于多模态数据的高精度个体化预后预测,AI正弥补传统方法的主观性与局限性。AI大模型与先进的传感、影像及自然语言处理技术的深度融合,提升了临床决策的效率。
2 AI赋能的脑卒中精准康复
AI在卒中康复领域的应用反映了卒中康复从传统、标准化的治疗模式向高度个体化、数据驱动和适应性强的干预措施的根本性转变。AI技术不仅是一种辅助工具,更是康复过程的核心驱动力,其通过精准的决策支持、智能的设备交互和沉浸式的虚拟环境,重塑了卒中后功能恢复的路径。下文将系统性评述AI在卒中康复治疗中的关键应用,重点阐述其在急性期治疗决策、外骨骼机器人、BCI以及增强现实(augmented reality,AR)和虚拟现实(virtual reality,VR)等前沿领域的循证证据和核心机制。
2.1 AI辅助决策下的取栓与溶栓
在缺血性脑卒中的超急性期管理中,以静脉溶栓和血管内取栓为代表的再灌注治疗是挽救缺血半暗带、改善患者预后的核心手段之一。在此关键环节,AI的核心价值在于通过快速、精准的自动化分析,显著缩短了治疗决策时间[45]。
传统决策流程依赖于临床经验和影像学初评,耗时且存在主观性,而模型则通过自动分析CT灌注成像和MRI弥散加权成像图像,能够在数分钟内完成对核心梗死区与缺血半暗带的精确分割和体积量化,有助于对时间窗不明确的患者做出更优决策[46-47]。同时,一项观察性研究评估了能快速识别大血管闭塞的AI平台部署前后的临床数据,结果显示,AI平台的部署使得患者从进入初级卒中中心至转运的平均时间从141 min缩短至79 min(P<0.001)[48]。这表明AI的核心贡献在于加速了对符合取栓条件患者的识别和分诊。即使是在本身已经高效运转的高水平卒中中心,引入AI工具仍然能够实现流程效率的显著提升[49]。
2.2 BCI系统联合AI算法在脑卒中康复中的临床应用
对于运动功能严重受损的脑卒中患者,皮质运动指令往往无法有效传递至外周的执行器官,致使康复进入平台期。BCI可概括为在大脑与外部设备之间建立直接通信通道的技术,其目标是通过对个体脑活动中意图和心理状态的解码,绕开受损的神经肌肉通路,实现对计算机、神经刺激器或外骨骼等设备的实时控制[50]。按获取神经信号的路径,BCI分为侵入式与非侵入式两大类。侵入式BCI凭借极高的时空分辨率,能够实现对多自由度机械臂的精细控制或言语的实时合成,但其伴随的手术风险使其应用目前主要局限于重度瘫痪等无法通过常规康复治疗获益的患者群体。相比之下,非侵入式BCI虽信号带宽较窄且易受伪影干扰,但其凭借无创、低成本和高便携性,更适合作为一种康复训练工具而广泛应用于尚存部分神经通路潜能的轻中度脑卒中患者。
侵入式BCI的常见形态包括硬膜下皮质脑电(electrocorticography,ECoG)、皮质内微电极阵列,以及近年兴起的经血管支架电极[51-52]。前两类具备更高的时空分辨率,但需开颅或显微外科操作,且存在感染、出血及远期稳定性不足等风险; 经血管支架电极则利用神经介入技术,通过静脉窦或皮质静脉逆行将电极停驻于运动皮质附近,该方法无需开颅,规避了硬膜外出血与脑组织损伤风险,为长期居家使用提供了更安全的微创替代方案。
在言语重建方面,基于高密度ECoG的多通路解码已实现从神经信号到文字、语音及面部表情的端到端体系:文字通道通常采用循环神经网络(recurrent neural network,RNN)配合连接时序分类与五元语言模型进行无对齐的序列解码; 语音通道通常以离散语音单元——梅尔频谱的声学建模,并由声码器合成可懂语音; 口腔-面部运动学通道可通过RNN+矢量量化变分自编码器重建构音相关的面部与口型运动。该类系统在重度构音障碍患者中已实现接近临床交流门槛的速度[53]。另有一项基于皮质内微电极阵列的研究,利用音素级解码和大词表语言模型,以约62词/min的速度实现了自由文本交流,并在超大词汇表中保持了较低的错词率,展示了通信效率与词汇广度的显著提升[54]。
在运动功能恢复方面,针对皮质下梗死所致的瘫痪,研究者通过在患侧前中央回植入微电极阵列,将运动相关的皮质放电实时解码为控制信号以驱动肘-腕-手辅助装置; 在家庭场景连续使用12周后,相较于肌电控制组,侵入性BCI组的FMA-UE等评分较基线显著改善[55]。同时,经血管支架电极技术为规避开颅风险提供了替代路径。前瞻性研究显示,采用该方案的患者在12个月随访期内未见器械相关严重不良事件或血管闭塞,且能够在居家环境中完成以意念驱动的计算机交互[56-58]。综上所述,AI与侵入式硬件的结合,正通过言语重建与运动控制2个层面为重度致残患者构建全新的中枢通路。
非侵入性BCI所用的脑电图信号存在信噪比低、易受伪影干扰和隔日不稳定等挑战。AI的引入为上述难题提供了系统解决思路。首先,利用滤波、独立成分分析及伪迹抑制等进行预处理来提升信噪比。其次,在特征学习方面,传统ML算法,如共空间模式(common spatial pattern,CSP)-线性判别分析(linear discriminant analysis,LDA)和支持向量机(support vector machine,SVM)在被试内可获得稳定的性能,并可作为BCI联合功能性电刺激(functional electrical stimulation,FES)触发与剂量调整的基线方案。DL作为更高级的模型,能够直接从原始或轻度预处理的多导脑电图上进行端到端空间-时间特征学习,显著提升弱信噪比下的意图判别与在线响应速度[59]。与传统人工特征提取不同,深度模型具备个体化特征自学习能力,可通过迁移学习、域自适应与少样本微调缓解跨被试和隔日分布漂移,减少每次治疗前的标定负担,并提升在真实临床流程中的可用性[60]。
目前,非侵入性BCI在脑卒中患者的上肢功能康复中主要聚焦于手腕的精细动作意图识别及其闭环干预,因为它们在运动皮质占比最大[61]。早期以CSP-LDA/SVM或基于黎曼几何的协方差空间分类为核心的触发器,已在运动想象或尝试范式中实现了稳定的被试内识别,并在BCI-FES联合伸肌刺激中带来了FMA-UE、ARAT等评分的额外提升[62]。系统综述表明BCI-FES对上肢康复的总体疗效达到中等效应量,且阈值自适应和动作观察联合运动想象范式可进一步放大效果[63]。如今,CNN与长短期记忆网络(long short-term memory,LSTM)等DL算法逐渐取代传统线性分类器,可从弱信噪比脑电图中稳定提取与上肢意图相关的判别特征,结合迁移学习和在线阈值调节实现了按需触发和调整FES,显著改善解码的判别力与实时性; 同时,在上肢多类意图的任务中,叠加自注意力的CNN解码器通过先验迁移与小样本微调显著提升了多类手臂动作的区分度,同时缩短了校准时间[63-64]。然后将源定位信息或多模态特征联合输入深度网络,可在卒中后脑网络重组背景下维持较好的判别性与跨被试迁移能力[65]。在临床层面,在中国17个中心的研究显示,BCI-FES组在干预1个月时FMA-UE评分提升显著优于对照且安全性良好[66]。除FES外,运动想象的脑电图的解码也用于触发手部外骨骼的张合和抓握动作。例如,以EEGNet为代表的CNN在外骨骼引导的主/被动运动的诱发范式下,使被试间的患侧与健侧手识别率达72.6%,显著优于CSP,而且其可通过外骨骼提供的标准化本体感觉输入提升跨被试适用性[67]。小样本研究提示,BCI-外骨骼可改善抓握能力,但整体证据仍受异质性与技术成熟度限制,未来需通过更强的在线自适应与连续控制策略突破局限[68-69]。
在下肢与步态方面,AI赋能的BCI重点解决步行意图的前瞻性识别,以及FES与外骨骼输出的时间配准问题。DL算法针对真实步行与足下垂康复训练的解码管线,开始从一维CNN发展为建模时序依赖的LSTM或注意力机制,并结合从通用模型到个体化全层微调的迁移学习流程,在不牺牲在线响应性的前提下显著减小了跨被试差异与隔日漂移。该方法已在下肢外骨骼闭环控制中证实,其效果优于传统特征提取方法[70]。临床研究显示,脑卒中患者经过25次BCI步行训练可使地面步速平均提高约0.19 m/s(P<0.001),并伴踝关节痉挛下降与活动度改善[71]。在亚急性阶段也观察到BCI对下肢运动、步行能力与日常活动能力有显著的改善,为脑卒中的早期介入提供了证据支撑[72]。总体而言,传统的CSP-LDA或SVM算法足以支撑被试内触发。然而,若要实现异步控制、跨被试推广和低校准等目标,DL网络结合迁移学习和微调以及在线阈值自适应等方法则更具优势。多模态融合与源定位在复杂场景下能够提供冗余信息,提升了时序配准的稳健性并拓展安全边界。
针对下肢外骨骼BCI控制的研究聚焦于将低信噪比脑电图中的启动/停止、站立/行走以及支撑/摆动等状态稳定译码为外骨骼指令。DL通过端到端学习与迁移对齐跨人、隔日分布,使在线性能与异步控制的可行性显著提升[73]。一项研究构建了深度网络全层微调的流程,通过该流程,仅需少量个体数据,便可将基于他人数据进行预训练的解码器适配到新的被试,进而闭环驱动下肢外骨骼,实现对其何时起步或停止的异步控制[74]。另一条具有代表性的路径,是利用外骨骼带来的标准化本体感觉输入减小个体差异。外骨骼引导的被动运动可诱发更一致的皮质响应,使EEGNet的跨被试解码准确度高达72.6%,区分健患侧运动反应的准确率高达84.2%,明显优于CSP等传统方法[67],这提示通过标准化感觉联合运动输入与深度解码可降低临床的标定成本与门槛。综合来看,时序深度网络、多模态融合与自适应校准,共同构成了提升下肢场景泛化性能的关键技术栈。最后,随着标准化公开数据集的出现以及自监督学习的应用,有望进一步缩短建模和适应时间,从而加快相关技术在真实世界的应用进程[75]。
AI算法之所以能够提升BCI的康复疗效,本质上是源于其对神经可塑性机制的深度运用。基于Hebb可塑性理论,若突触前神经元的兴奋与突触后神经元的去极化在时间上实现精准同步,那么将会诱导突触连接产生长时程增强[76]。在传统的BCI中,信号解码的高延迟往往导致外周反馈滞后于大脑的运动意图,进而削弱了神经通路重组效果。引入Transformer等DL模型后,系统可凭借毫秒级速度从高维脑电信号中提取特征,使端到端延迟得以显著降低。这种算法层面的优化,确保了中枢指令与外周反馈在时间窗口上高度一致,最大程度地诱导受损运动皮质的突触重塑与功能代偿[77]。
综上所述,在侵入性BCI领域,深度序列模型与语言大模型的结合,已能将高保真的皮质信号稳定映射为语言和运动输出,为重度功能障碍患者开辟了新的控制途径。在更广泛应用的非侵入性BCI领域,以CNN、LSTM和注意力机制等为核心的DL模型,辅以迁移学习和在线自适应策略,能更快速、更准确地从低信噪比的脑电图数据中提取运动意图,而将其与FES、外骨骼等效应器深度耦合可形成时序精确的闭环干预。然而,从研究走向临床应用,AI-BCI技术仍面临诸多挑战,未来需要开展更高质量的临床试验,推动技术的标准化与可复现性。
2.3 AI在外骨骼康复设备中的算法应用:运动分类与轨迹预测
外骨骼康复能够在可穿戴形态下提供高强度、可量化且能实时反馈的训练[78]。延续前文对AI融合脑电图与外骨骼的讨论,本节聚焦于外骨骼控制中重要的sEMG、力传感与IMU等生物信号采集装置。sEMG能捕捉残余肌肉激活程度,力传感反映人机交互与关节负载,IMU则捕捉肢体姿态与步态相位。通过将上述多模态信号与ML、DL模型结合,外骨骼可实现对训练情境的自适应理解与响应,从而在安全性与个体化处方上优于固定轨迹的传统外骨骼设备[79]。
在上肢应用场景下,SVM和随机森林等ML算法能够借助sEMG特征实现动作和手势意图的识别,并且这些算法与隐马尔可夫模型结合可实现对动作连续趋势的识别[80]。在DL方面,CNN算法能从原始肌电和多模态序列中自动抽取空间特征,LSTM等RNN能对时间特征进行动态建模,自注意力结构则可用于捕捉更长时的依赖[81-82]。研究发现,基于sEMG的SVM对手部动作的识别,在健康受试者与脑卒中患者之间存在性能差异(健康受试者识别准确率约为91%,脑卒中患者约为75%),这表明该识别方法的跨人群鲁棒性仍有待提升[83]。Xia等[84]尝试应用DL提高识别性能,他们设计了结合遗传算法的CNN并对其进行优化,同时兼顾模型轻量化需求以部署在可穿戴设备上,该模型在上肢外骨骼的多模态传感数据库中识别了15种上肢动作,实现了高精度且实时的动作意图分类。在工程验证方面,上肢外骨骼普遍采用自适应阻抗等力交互控制器,融合力传感器与sEMG的按需辅助策略,即系统根据患者的即时努力程度自动调节助力强度,鼓励患者主动参与[85]。证据显示,目前有约40%的研究采用ANN算法,约20%采用自适应算法[86]。多数设备和研究先在健康人群完成安全性与生物力学评估,然后逐步应用到脑卒中人群。Murakami等[87]开展了一项随机对照试验,采用集成AI肌电解码器的手外骨骼,该设备能够通过前臂肌电信号感知患者的手指屈伸意图并提供对应辅助。试验结果显示,与对照组相比,外骨骼组慢性脑卒中患者的手部功能显著改善,肌张力有所下降。另一项研究则表明,手外骨骼显著提升了患者手指关节的屈伸活动度与协调性[88]。
下肢外骨骼的主要功能是支撑和摆动等步态相位的识别,以及行走和站立等功能状态的分类,能在康复训练中进行实时控制切换与按需助力[8, 89]。下肢外骨骼常用传感器包括穿戴式IMU、足底压力传感器、sEMG和深度摄像机等,其通过融合这些多模态信息,借助决策树、XGBoost等算法可有效区分行走、站立等功能动作[90]。早期多模态数据融合算法在受控条件下,步态分类准确率可达99.8%[91]。在DL方面,LSTM-CNN算法对步态模式识别的平均准确率高达97.8%[92]。除动作分类外,短时轨迹预测同样关键,基于IMU数据的LSTM算法可提前约200 ms预测关节角速度并同步判别步态相位(r>0.98),对摆动相的识别准确率约为95%,可用于前馈补偿控制延时、避免拖曳[89]。在工程验证方面,结合IMU与足底压力传感器可在线识别步态相位或楼梯等场景,指导外骨骼在恰当时机启动摆动或站立支撑[93]。在力矩层面,联合sEMG与关节力矩传感器数据集,神经网络算法可实时预测膝关节力矩,实现平滑助力。针对个体化与不确定性问题,强化学习(reinforcement learning,RL)控制在经过离线仿真训练后,可直接用于具有不同程度障碍的患者[94]。例如,基于数字孪生的通用控制框架使用RL算法优化个体化康复策略,相较于固定控制器更能应对环境与个体的差异; 同时,“任务无关策略”通过在线估计关节力矩和努力程度来提供对应的助力,而无需预定义步态模式[95]。最后,在分类与相位识别精度提高的同时,控制器能更精准地对齐步态相位与前馈调节,减少人机相位不合拍并提高安全性,使患者步态周期更接近正常模式,步态对称性和稳定性指标均较传统控制有所改善[94]。总体来说,识别、预测和按需助力的一体化闭环是下肢外骨骼实现情境化步态康复的主线。
躯干稳定与全身协调也是卒中康复的重要目标。Moya-Esteban等[96]开发了一种软性背部外骨骼,基于个体化肌电驱动的肌骨力学模型能实时估算脊柱负荷,并由AI控制器调节辅助力量,从而减轻约21%的腰椎负荷。有研究尝试整合上下肢模块以创造全身外骨骼装置,从而同时进行上肢和步态训练。该装置需要更高难度的传感器融合,例如,腿部IMU与足底压力传感器用于检测步态相位,陀螺仪用于监测躯干平衡,sEMG用于检测上肢意图。AI算法能协调各模块,保证动作的完成与安全。同时,当患者失去平衡时,系统优先稳定躯干,再恢复步态,以防止摔倒[95]。其强调在线学习与个体化参数自定义,以应对姿势控制中的不确定性与肌肉疲劳。值得注意的是,AI在提升康复剂量的同时也解决了训练强度与肌肉疲劳的平衡难题。虽然高强度和高重复性的训练是提升运动能力的关键,但盲目增加康复剂量可能导致肌肉骨骼损伤或疲劳。AI能通过实时分析sEMG信号的频谱漂移以及心率变异性等生理指标,动态评估患者的局部肌肉疲劳与全身代谢状态。一旦监测指标超过安全阈值,AI控制器将自动触发降级策略[97]。这种机制不仅避免了过度训练带来的二次损伤,还确保了患者在亚急性期能安全接受足量的训练强度。
在产业化进展方面,多款集成AI算法的外骨骼机器人已获得批准上市并进入标准临床路径。在国际上,美国Ekso Bionics公司开发的EksoNR外骨骼已上市用于脑卒中康复治疗,其内置的算法能够根据患者实时的步态偏差自动调节助力水平,实现了康复剂量的精准量化。日本Cyberdyne公司研发的HAL外骨骼则基于非侵入性生物电信号处理技术,在改善神经肌肉反馈方面积累了大量临床数据。
总体而言,AI算法的引入正在使外骨骼康复设备从固定轨迹辅助逐步进化为自适应闭环干预。在上肢康复中,IMU等多模态信号为AI提供了实时信息,使系统能够在意图识别、助力调节与轨迹预测上实现更高的精度与个体化适应能力。经典的随机森林等ML算法已能完成稳定的动作分类,但在跨人群与跨病程应用中性能下降明显; DL算法则通过端到端学习与轻量化部署,有效提升了识别精度和泛化性。同时,在下肢应用领域,AI驱动的步态相位识别和短时轨迹预测不仅提高了人机协同性,还通过按需助力与前馈补偿改善了步态对称性与稳定性。
2.4 AI赋能的VR/AR在脑卒中康复中的应用
VR与AR技术通过提供高度沉浸和可交互的多感官训练环境,展现出较大的应用潜力。然而,要使其疗效超越传统康复手段,关键在于引入AI算法以实现训练的自适应与个体化调节[98]。AI算法在此类系统中的应用主要围绕3个关键任务展开。首先是姿态感知与运动量化,训练任务利用深度相机、无标记点骨架追踪等计算机视觉技术,实时捕捉患者的关节角度变化、运动轨迹与速度曲线以精确识别代偿模式[99]。其次是训练的自适应与个体化,将Q-learning等RL算法嵌入VR任务,系统就能够根据患者的即时运动学表现,在线动态调整任务难度、目标位置与交互方式[100]。最后是运动质量控制与分级处方,借助SVM和RNN等时序与分类算法模型,系统能够基于骨架数据自动识别并量化常见的代偿动作,如躯干前倾、耸肩等,从而为实现实时的动作质量监控和远程治疗的质量控制提供算法基础[101]。
从工程实现的角度看,这些AI算法正被集成于日益成熟的软/硬件平台中。例如,基于混合现实的头戴设备(如HoloLens 2)已能实现无标记点的实时运动追踪,将标准化的示教轨迹以“3D隧道”形式投射在患者的真实视野中,并生成个体化容错范围,精准引导上肢精细运动的执行[102-103]。同时,推进康复训练的沉浸式VR内容模块化,并将轻量化网络算法模型部署到居家环境,能够降低对计算资源的依赖[100]。此外,通过将VR视觉刺激与足底气动触觉装置同步,可使患者在虚拟环境中行走时足底的气囊依据步态时相依次充放,实现对真实足底压力感的模拟,显著增强了步行训练的沉浸感与生理真实性[104]。
在临床验证层面,AI赋能的AR和VR系统对上肢功能等结局指标的改善效果显著。有研究在VR训练中引入Q-learning算法,根据患者表现动态调整训练目标,模拟结果显示该算法能有效适应患者能力并优化训练方案[100]; 另一项研究则利用动态的RL算法,结合面部表情、语音等多模态信息综合判断患者状态并调整训练强度[105]。一项基于Kinect的AR干预研究结果显示,经过20次训练后,脑卒中患者的肢体运动功能及心理状态均获得显著改善[106]。特别是在居家康复场景中,基于AI算法的VR手套在为期4周的训练后,显著改善了患者的上肢功能[107]。基于混合现实的手功能康复系统利用单一的计算机视觉便可追踪手指关节活动,实现了无需穿戴设备的居家自我训练,患者在训练后上肢功能显著改善,且疗效在随访期得以维持[99]。
总体来看,计算机视觉和DL等算法为姿态追踪与动作质量量化提供了客观指标,使远程居家康复具备可行性。RL算法的自适应机制则让训练任务真正贴合患者个体能力,推动康复模式由统一化向个体化转变。基于混合现实的头显、基于VR的手套及多模态触觉反馈等新兴设备,正在将AI算法嵌入完整的闭环流程,提升了沉浸感并实现了训练剂量控制。在临床实践中,已有前瞻性研究观察到上肢与手功能改善的积极信号,并证实了其居家应用的安全性。随着算法提升、客观运动学指标与传统量表的融合,以及多中心验证的开展,AI赋能的VR和AR系统有望成为脑卒中康复体系的重要组成部分,真正实现个体化、可量化的闭环康复范式。
3 AI驱动下的远程康复管理
脑卒中康复面临的一个核心挑战是出院至居家阶段康复衔接不畅的问题,这往往会导致康复剂量不足与功能恢复的停滞。AI驱动的远程康复管理为此提供了系统性的解决方案,旨在将专业的评估与训练延伸至家庭和社区,打破时空限制。这一新模式的实现依赖于两大技术支柱:其一是构建功能完善的远程康复平台,它不仅是连接患者与医生的桥梁,更是集成数据管理、个性化处方下达与交互式训练的核心枢纽; 其二则是部署能够客观捕捉患者居家训练情况的可穿戴与智能感知设备,它们是实现远程量化评估与质量监控的终端。AI算法在其中扮演着关键角色,负责处理从终端设备采集的多模态数据,提供实时的运动质量反馈,并为远程决策调整提供数据支持,最终形成一个连接院内与院外的个性化、闭环式康复管理体系[108]。
3.1 远程康复平台的构建
远程康复平台通过集成AI算法,实现对患者康复训练的智能监测与个体化指导。首先,在算法层面,平台通过集成计算机视觉或传感器数据,实现对训练动作的追踪与量化评估。AI模型不仅能监测患者的训练频率与时长评估其依从性,还能通过分析数据发现状态下滑的趋势并及时预警。其次,平台内置的ML算法能够根据患者的即时运动表现,自适应地调整任务难度与内容[109]。最后,平台内置的预测模型通过历史轨迹等数据进行前瞻性风险识别与预测,在一定程度上模拟人类医生的监督与决策,实现客观评估与主动干预,并缓解地理与社会经济差异带来的可及性问题[110]。
从工程实现的角度来看,现代远程康复平台多采用“边缘-云”协同架构。部署在家庭使用的可穿戴装置等边缘设备负责实时数据的采集与初步处理,并提供即时反馈; 云端则汇聚海量数据,用于训练和优化复杂的DL模型,实现了全局性的康复规划与效果评估。在脑卒中应用中,该架构已被证实能显著提升系统运行效率与康复训练效果[111]。另外,为防范算法偏倚以及保证数据的透明和可解释性,研发中引入了模型监管机制,确保AI决策符合伦理要求和患者隐私[112]。此外,5G通信技术凭借其高带宽和低时延特性,为高清视频评估和远程实时操控提供了技术保障,而AI大语言模型也开始被探索用于居家指导与纠错提示,这进一步提高了居家康复的安全性与交互体验[110]。一项多中心随机对照试验证明,AI辅助的居家认知康复训练在疗效上不劣于人类治疗师的面对面指导,且患者满意度更高[113]。同时,远程康复平台应用也证明了AI在家庭康复训练中的价值,其利用AI算法自动统计患者完成的练习次数并给予即时反馈,确保动作质量,同时由人类医生远程监控患者数据并调整方案[114]。另一项针对慢性脑卒中患者的试验中,集成了AI自适应助力算法的TIGER物联网手部康复设备通过持续监测患者握力等行为,动态调整助力程度来适应患者状态,能更有效地促进手部功能恢复[115]。
综上所述,AI驱动的远程康复平台在改善训练依从性、动作质量与部分功能终点方面可能具有优势; 其对医疗资源可及性的影响仍需通过更大样本、长期随访与成本-效益研究验证。
3.2 智能可穿戴设备的应用
智能可穿戴设备是实现远程康复数据闭环的感知基础,其将实验室级别的生物力学与生理学监测能力带入患者的日常生活。在算法上,不同设备各有侧重。智能腕表凭借其内置的加速度计与光电容积描记(photoplethysmography)传感器,通过LSTM等时序算法模型,实现了对日常活动的自动识别、对训练时段与强度的量化,以及对心率变异性等生理指标的监控,这为评估依从性与二级预防提供了客观依据[116]。目前,智能腕表端到云的数据链相当成熟,且已在老年脑卒中人群中验证了其准确性与可用性[117]。智能服饰将传感器与功能模块无感地织入衣物,实现了更高维度的运动捕捉与干预。例如,集成了IMU与多通道干电极的NeuroSkin智能训练服,其内置的AI步态模型可根据患者实时步态数据进行个体化校准,并在行走过程中精确同步地施加FES。多中心研究证实,该设备能显著提高患者的步行速度(平均增加0.35 m/s)与耐力(6MWD增加123 m),且安全可行[118]。另一项研究则将传感手套与软体机器人手套进行云-端互联,借助AI算法能够以低于50 ms的延迟识别健侧手的运动意图,并驱动患侧手的软体手套同步复现该动作,这一成果验证了这类集成系统用于远程镜像治疗的可行性[119]。
综上所述,智能可穿戴设备在AI算法的赋能下,正成为连接康复处方与真实世界执行之间不可或缺的桥梁。需要指出的是,远程康复管理从可行性验证过渡至常态化部署的核心挑战集中于以下几点:(1)远程传感器佩戴的准确性等因素可能会导致数据质量波动与漂移; (2)多模态数据传输的延时会影响实时反馈与闭环控制; (3)隐私安全与长期依从性问题决定了其推广的范围。
4 AI在卒中康复中应用的局限性和挑战
目前,AI在卒中康复中的应用仍面临多重限制。(1)证据质量与报告规范不足:研究样本量小、随访时间短、外部验证缺失且异质性大,导致结果难以复现与转化[120]。尽管已有面向早期临床评估的DECIDE-AI、面向预测模型的TRIPOD-AI以及面向试验方案的CONSORT-AI等指南,但多学科团队对这些清单条目的执行度仍不高[44]。(2)泛化能力与数据漂移:不同环境与人群导致输入分布改变,模型性能可能在部署后下滑,且往往缺乏持续、统计上有效的监测与随访机制。近年的方法学提出了无标签漂移检测、持续迁移学习与数据告警机制,但在医疗AI的监管与临床体系中仍处于早期实践阶段[121]。(3)安全与人因工程:AI驱动的自适应控制涉及阈值、延迟与前馈等参数的安全边界,必须用系统化的人因工程流程识别并优化相关风险。(4)临床有效性的证据仍不充分:很多研究以损伤层面的量表为主要终点,缺少对活动参与、生活质量、长期维持与成本-效益的评价[122]。同时,远程康复在老年、低教育水平、农村与低收入人群中的可用性与依从性,受数字化普及影响明显[123]。(5)经济因素是阻碍AI康复落地的现实壁垒:目前的高性能AI康复设备因其高昂的研发与制造成本导致终端价格居高不下,难以普及。更为关键的是,当前的医保体系尚未建立针对远程数字疗法或AI辅助评估的报销标准。
未来亟须解决以下关键问题:一是在研究发起时就对齐TRIPOD-AI和CONSORT-AI的全流程要求,以多中心外部验证、真实世界研究和长期随访为标配,并把生活质量与成本-效益纳入主要终点。二是构建可持续的AI运维,在平台侧引入数据健康记录仪、无标签监测、触发回退与再训练闭环,并明确允许模型的更新范围与监测指标。三是保证设备的安全性,需设定相位错配率、最大助力爬升、端到端延迟等量化安全指标,配合跌倒、越界检测与降级策略。四是推动设备间的标准化,需统一跨设备的通用运动学与质量指标、统一时间戳,协同评估、治疗与管理等多个环节。五是公平性问题,面向弱势群体需优化低成本终端与离线能力,还需推动基于AI算法的康复项目纳入医保支付目录,建立按疗效付费的新机制。
5 结语
AI正在重塑卒中康复的技术范式,从基于定性评估联合经验处方的线性流程,逐步迈向以多模态感知、个体化建模与闭环控制为核心的数据驱动系统。在评估环节,计算机视觉与可穿戴传感技术使功能量化能够远程进行,为基于客观指标的处方决策提供支撑; 在治疗环节,BCI、外骨骼与VR/AR技术通过意图解码、按需助力以及自适应任务调度,实现对训练强度、时机与路径的精细化配置; 在管理环节,边缘-云协同的远程平台凭借连续监测与风险预警,将院内与院外管理贯穿起来,实现一体化管控。尽管当前证据仍受样本量、外部验证与互操作性等方面的限制,但总体发展趋势已然清晰:以标准化研究与真实世界验证为着力点,以算法可持续更新与人因安全为底线,以互联互通的数据标准为桥梁,推动AI实现临床可部署、可维护与可评价的转化应用。
-
[1] FEIGIN V L, BRAININ M, NORRVING B, et al. World stroke organization: global stroke fact sheet 2025[J]. Int J Stroke, 2025, 20(2): 132-144. DOI: 10.1177/17474930241308142. [2] TU W J, WANG L D, YAN F, et al. China stroke surveillance report 2021[J]. Mil Med Res, 2023, 10(1): 33. DOI: 10.1186/s40779-023-00463-x. [3] TAPP A, GRISWOLD D, DRAY D, et al. High-intensity locomotor training during inpatient rehabilitation improves the discharge ambulation function of patients with stroke. A systematic review with meta-analysis[J]. Top Stroke Rehabil, 2024, 31(5): 431-445. DOI: 10.1080/10749357.2024.2304960. [4] ASAKAWA T, ZONG L, WANG L, et al. Unmet challenges for rehabilitation after stroke in China[J]. Lancet, 2017, 390(10090): 121-122. DOI: 10.1016/S0140-6736(17)31584-2. [5] KOPALLI S R, SHUKLA M, JAYAPRAKASH B, et al. Artificial intelligence in stroke rehabilitation: from acute care to long-term recovery[J]. Neuroscience, 2025, 572: 214-231. DOI: 10.1016/j.neuroscience.2025.03.017. [6] BOUKHENNOUFA I, ZHAI X, UTTI V, et al. Wearable sensors and machine learning in post-stroke rehabilitation assessment: a systematic review[J]. Biomed Signal Process Control, 2022, 71: 103197. DOI: 10.1016/j.bspc.2021.103197. [7] KLUG J, LECLERC G, DIRREN E, et al. Machine learning for early dynamic prediction of functional outcome after stroke[J]. Commun Med, 2024, 4: 232. DOI: 10.1038/s43856-024-00666-w. [8] NICORA G, PE S, SANTANGELO G, et al. Systematic review of AI/ML applications in multi-domain robotic rehabilitation: trends, gaps, and future directions[J]. J NeuroEngineering Rehabil, 2025, 22(1): 79. DOI: 10.1186/s12984-025-01605-z. [9] ABEDI A, COLELLA T J F, PAKOSH M, et al. Artificial intelligence-driven virtual rehabilitation for people living in the community: a scoping review[J]. NPJ Digit Med, 2024, 7(1): 25. DOI: 10.1038/s41746-024-00998-w. [10] CUI L, FAN Z, YANG Y, et al. Deep learning in ischemic stroke imaging analysis: a comprehensive review[J]. Biomed Res Int, 2022, 2022: 2456550. DOI: 10.1155/2022/2456550. [11] JIANG B, PHAM N, VAN STAALDUINEN E K, et al. Deep learning applications in imaging of acute ischemic stroke: a systematic review and narrative summary[J]. Radiology, 2025, 315(1): e240775. DOI: 10.1148/radiol.240775. [12] MALLON D, FALLON M, BLANA E, et al. Real-world evaluation of Brainomix e-Stroke software[J]. Stroke Vasc Neurol, 2024, 9(5): 497-504. DOI: 10.1136/svn-2023-002859. [13] GAUDE E, NOGUEIRA B, LADREDA MOCHALES M, et al. A novel combination of blood biomarkers and clinical stroke scales facilitates detection of large vessel occlusion ischemic strokes[J]. Diagnostics, 2021, 11(7): 1137. DOI: 10.3390/diagnostics11071137. [14] MISRA S, SINGH P, SENGUPTA S, et al. Subtyping strokes using blood-based protein biomarkers: a high-throughput proteomics and machine learning approach[J]. Eur J Clin Invest, 2025, 55(4): e14372. DOI: 10.1111/eci.14372. [15] WANG Z, ZHANG T, FAN J, et al. Clinical validation of automated depth camera-based measurement of the Fugl-Meyer assessment for upper extremity[J]. Clin Rehabil, 2024, 38(8): 1091-1100. DOI: 10.1177/02692155241251434. [16] FERNANDES M, WESTOVER M B, SINGHAL A B, et al. Automated extraction of stroke severity from unstructured electronic health records using natural language processing[J]. J Am Heart Assoc, 2024, 13(21): e036386. DOI: 10.1161/JAHA.124.036386. [17] EDWARDS N A, CACCESE J B, TRACY R E, et al. The validity and usability of markerless motion capture and inertial measurement units for quantifying dynamic movements[J]. Med Sci Sports Exerc, 2025, 57(3): 641-655. DOI: 10.1249/MSS.0000000000003579. [18] UNGER T, MOSLEHIAN A S, PEIFFER J D, et al. Differentiable biomechanics for markerless motion capture in upper limb stroke rehabilitation: a comparison with optical motion capture[J]. IEEE Trans Med Robot Bionics, 2025, PP(99): 1. DOI: 10.1109/TMRB.2025.3605962. [19] KIM W S, CHO S, BAEK D, et al. Upper extremity functional evaluation by Fugl-Meyer assessment scoring using depth-sensing camera in hemiplegic stroke patients[J]. PLoS One, 2016, 11(7): e0158640. DOI: 10.1371/journal.pone.0158640. [20] SONG X, CHEN S, JIA J, et al. Cellphone-based automated Fugl-Meyer assessment to evaluate upper extremity motor function after stroke[J]. IEEE Trans Neural Syst Rehabil Eng, 2019, 27(10): 2186-2195. DOI: 10.1109/TNSRE.2019.2939587. [21] AHMED T, RIKAKIS T. Automated ARAT scoring using multimodal video analysis, multi-view fusion, and hierarchical bayesian models: a clinician study[J/OL]. arXiv: 2505.01680 (2025-05-03)[2025-09-29]. https://doi.org/10.48550/arXiv.2505.01680. [22] SHENG B, CHEN X, CHENG J, et al. A novel scoring approach for the Wolf Motor Function Test in stroke survivors using motion-sensing technology and machine learning: a preliminary study[J]. Comput Methods Programs Biomed, 2024, 243: 107887. DOI: 10.1016/j.cmpb.2023.107887. [23] LU Z, ZHOU H, LYU H, et al. Berg balance scale scoring system for balance evaluation by leveraging attention-based deep learning with wearable IMU sensors[J]. Bioengineering (Basel), 2025, 12(4): 395. DOI: 10.3390/bioengineering12040395. [24] WANG Y, HU Z, CHEN K, et al. Automatic characterization of stroke patients' posturography based on probability density analysis[J]. Biomed Eng Online, 2023, 22(1): 8. DOI: 10.1186/s12938-023-01069-z. [25] WU Y C, HUANG Y J, HAN C C, et al. Development of an IMU-based post-stroke gait data acquisition and analysis system for the gait assessment and intervention tool[J]. Sensors, 2025, 25(7): 1994. DOI: 10.3390/s25071994. [26] ZHANG S, FAN L, YE J, et al. An intelligent rehabilitation assessment method for stroke patients based on lower limb exoskeleton robot[J]. IEEE Trans Neural Syst Rehabil Eng, 2023, 31: 3106-3117. DOI: 10.1109/TNSRE.2023.3298670. [27] ZHI Y X, LUKASIK M, LI M H, et al. Automatic detection of compensation during robotic stroke rehabilitation therapy[J]. IEEE J Transl Eng Health Med, 2017, 6: 2100107. DOI: 10.1109/JTEHM.2017.2780836. [28] ZHONG X. AI-assisted assessment and treatment of aphasia: a review[J]. Front Public Health, 2024, 12: 1401240. DOI: 10.3389/fpubh.2024.1401240. [29] METU J, KOTHA V, HILLIS A E. Evaluating fluency in aphasia: fluency scales, trichotomous judgements, or machine learning[J]. Aphasiology, 2024, 38(1): 168-180. DOI: 10.1080/02687038.2023.2171261. [30] DIAL H, PUGALENTHI L S, GNANATEJA G N, et al. Application of machine learning and temporal response function modeling of EEG data for differential diagnosis in primary progressive aphasia[J]. Sci Rep, 2025, 15(1): 29539. DOI: 10.1038/s41598-025-13000-8. [31] O'MALLEY R P D, MIRHEIDARI B, HARKNESS K, et al. Fully automated cognitive screening tool based on assessment of speech and language[J]. J Neurol Neurosurg Psychiatry, 2020: jnnp-2019-322517. DOI: 10.1136/jnnp-2019-322517. [32] SIMON B, BAHMAN M, KIRSTY H, et al. COGNOSPEAK: a feasibility pilot study of automated speech analysis to aid cognitive assessment post stroke[J]. J Neurol Neurosurg Psychiatry, 2024, 95(Suppl 2): A38. DOI: 10.1136/jnnp-2024-ABN.124. [33] SAAB R, BALACHANDAR A, MAHDI H, et al. Machine-learning assisted swallowing assessment: a deep learning-based quality improvement tool to screen for post-stroke dysphagia[J]. Front Neurosci, 2023, 17: 1302132. DOI: 10.3389/fnins.2023.1302132. [34] ZHAO N, ZHAO B, SHEN G, et al. A robust HD-sEMG sensor suitable for convenient acquisition of muscle activity in clinical post-stroke dysphagia[J]. J Neural Eng, 2023, 20(1): 016018. DOI: 10.1088/1741-2552/acab2f. [35] SHIN B, LEE S H, KWON K, et al. Automatic clinical assessment of swallowing behavior and diagnosis of silent aspiration using wireless multimodal wearable electronics[J]. Adv Sci (Weinh), 2024, 11(34): 2404211. DOI: 10.1002/advs.202404211. [36] BZDOK D, ALTMAN N, KRZYWINSKI M. Statistics versus machine learning[J]. Nat Methods, 2018, 15(4): 233-234. DOI: 10.1038/nmeth.4642. [37] HARARI Y, O'BRIEN M K, LIEBER R L, et al. Inpatient stroke rehabilitation: prediction of clinical outcomes using a machine-learning approach[J]. J Neuroeng Rehabil, 2020, 17(1): 71. DOI: 10.1186/s12984-020-00704-3. [38] SCRUTINIO D, LANZILLO B, GUIDA P, et al. Development and validation of a predictive model for functional outcome after stroke rehabilitation: the maugeri model[J]. Stroke, 2017, 48(12): 3308-3315. DOI: 10.1161/STROKEAHA.117.018058. [39] CAMPAGNINI S, SODERO A, BACCINI M, et al. Prediction of the functional outcome of intensive inpatient rehabilitation after stroke using machine learning methods[J]. Sci Rep, 2025, 15(1): 16083. DOI: 10.1038/s41598-025-00781-1. [40] TANG Z, SU W, LIU T, et al. Prediction of poststroke independent walking using machine learning: a retrospective study[J]. BMC Neurol, 2024, 24(1): 332. DOI: 10.1186/s12883-024-03849-z. [41] WHITE A, SARANTI M, D'AVILA GARCEZ A, et al. Predicting recovery following stroke: deep learning, multimodal data and feature selection using explainable AI[J]. Neuroimage Clin, 2024, 43: 103638. DOI: 10.1016/j.nicl.2024.103638. [42] TSIAKIRI A, PLAKIAS S, VLOTINOU P, et al. Predictive markers of post-stroke cognitive recovery and depression in ischemic stroke patients: a 6-month longitudinal study[J]. Eur J Investig Health Psychol Educ, 2024, 14(12): 3056-3072. DOI: 10.3390/ejihpe14120200. [43] LEE W H, LIM M H, SEO H G, et al. Development of a novel prognostic model to predict 6-month swallowing recovery after ischemic stroke[J]. Stroke, 2020, 51(2): 440-448. DOI: 10.1161/STROKEAHA.119.027439. [44] MOONS K G M, DAMEN J A A, KAUL T, et al. PROBAST+AI: an updated quality, risk of bias, and applicability assessment tool for prediction models using regression or artificial intelligence methods[J]. BMJ, 2025, 388: e082505. DOI: 10.1136/bmj-2024-082505. [45] MELO SIERRA N, HERNáNDEZ RINCóN E H, OSORIO BETANCOURT G A, et al. Use of artificial intelligence in the management of stroke: scoping review[J]. Front Radiol, 2025, 5: 1593397. DOI: 10.3389/fradi.2025.1593397. [46] MURRAY N M, UNBERATH M, HAGER G D, et al. Artificial intelligence to diagnose ischemic stroke and identify large vessel occlusions: a systematic review[J]. J Neurointerv Surg, 2020, 12(2): 156-164. DOI: 10.1136/neurintsurg-2019-015135. [47] ALIRR O I. Ischemic stroke lesion core segmentation from CT perfusion scans using attention ResUnet deep learning[J]. J Imaging Inform Med, 2025, 38(6): 3507-3516. DOI: 10.1007/s10278-025-01407-8. [48] NAGARATNAM K, NEUHAUS A, BRIGGS J H, et al. Artificial intelligence-based decision support software to improve the efficacy of acute stroke pathway in the NHS: an observational study[J]. Front Neurol, 2024, 14: 1329643. DOI: 10.3389/fneur.2023.1329643. [49] SARHAN K, AZZAM A Y, EL DIN MOAWAD M H, et al. Automated emergent large vessel occlusion detection using Viz. ai software and its impact on stroke workflow metrics and patient outcomes in stroke centers: a systematic review and meta-analysis[J]. Transl Stroke Res, 2025, 16(6): 2258-2271. DOI: 10.1007/s12975-025-01354-0. [50] GAO X, WANG Y, CHEN X, et al. Brain-computer interface: a brain-in-the-loop communication system[J]. Proc IEEE, 2025, 113(5): 478-511. DOI: 10.1109/JPROC.2025.3600389. [51] TONIN A, SEMPRINI M, KIPER P, et al. Brain-computer interfaces for stroke motor rehabilitation[J]. Bioengineering, 2025, 12(8): 820. DOI: 10.3390/bioengineering12080820. [52] DOHLE E, SWANSON E, JOVANOVIC L, et al. Toward the clinical translation of implantable brain-computer interfaces for motor impairment: research trends and outcome measures[J]. Adv Sci (Weinh), 2025, 12(32): e01912. DOI: 10.1002/advs.202501912. [53] METZGER S L, LITTLEJOHN K T, SILVA A B, et al. A high-performance neuroprosthesis for speech decoding and avatar control[J]. Nature, 2023, 620(7976): 1037-1046. DOI: 10.1038/s41586-023-06443-4. [54] WILLETT F R, KUNZ E M, FAN C, et al. A high-performance speech neuroprosthesis[J]. Nature, 2023, 620(7976): 1031-1036. DOI: 10.1038/s41586-023-06377-x. [55] SERRUYA M D, NAPOLI A, SATTERTHWAITE N, et al. Neuromotor prosthetic to treat stroke-related paresis: N-of-1 trial[J]. Commun Med, 2022, 2: 37. DOI: 10.1038/s43856-022-00105-8. [56] BRANNIGAN J F M, FRY A, OPIE N L, et al. Endovascular brain-computer interfaces in poststroke paralysis[J]. Stroke, 2024, 55(2): 474-483. DOI: 10.1161/STROKEAHA.123.037719. [57] OGNARD J, EL HAJJ G, VERMA O, et al. Advances in endovascular brain computer interface: systematic review and future implications[J]. J Neurosci Methods, 2025, 420: 110471. DOI: 10.1016/j.jneumeth.2025.110471. [58] MITCHELL P, LEE S C M, YOO P E, et al. Assessment of safety of a fully implanted endovascular brain-computer interface for severe paralysis in 4 patients: the stentrode with thought-controlled digital switch (SWITCH) study[J]. JAMA Neurol, 2023, 80(3): 270-278. DOI: 10.1001/jamaneurol.2022.4847. [59] DAS A, SINGH S, KIM J, et al. Enhanced EEG signal classification in brain computer interfaces using hybrid deep learning models[J]. Sci Rep, 2025, 15(1): 27161. DOI: 10.1038/s41598-025-07427-2. [60] XUE Z, ZHANG Y, LI H, et al. Instrumentation, measurement, and signal processing in electroencephalography-based brain-computer interfaces: situations and prospects[J]. IEEE Trans Instrum Meas, 2024, 73: 6504128. DOI: 10.1109/TIM.2024.3417598. [61] WANG J, BI L, FEI W. EEG-based motor BCIs for upper limb movement: current techniques and future insights[J]. IEEE Trans Neural Syst Rehabil Eng, 2023, 31: 4413-4427. DOI: 10.1109/TNSRE.2023.3330500. [62] CHU Y, ZHAO X, ZOU Y, et al. Decoding multiclass motor imagery EEG from the same upper limb by combining Riemannian geometry features and partial least squares regression[J]. J Neural Eng, 2020, 17(4): 046029. DOI: 10.1088/1741-2552/aba7cd. [63] TANTAWANICH P, PHUNRUANGSAKAO C, IZUMI S I, et al. A systematic review of bimanual motor coordination in brain-computer interface[J]. IEEE Trans Neural Syst Rehabil Eng, 2025, 33: 266-285. DOI: 10.1109/TNSRE.2024.3522168. [64] MA J, MA W, ZHANG J, et al. Partial prior transfer learning based on self-attention CNN for EEG decoding in stroke patients[J]. Sci Rep, 2024, 14: 28170. DOI: 10.1038/s41598-024-79202-8. [65] KAVIRI S M, VINJAMURI R. Integrating electroencephalography source localization and residual convolutional neural network for advanced stroke rehabilitation[J]. Bioengineering (Basel), 2024, 11(10): 967. DOI: 10.3390/bioengineering11100967. [66] WANG A, TIAN X, JIANG D, et al. Rehabilitation with brain-computer interface and upper limb motor function in ischemic stroke: a randomized controlled trial[J]. Med, 2024, 5(6): 559-569. e4. DOI: 10.1016/j.medj.2024.02.014. [67] ZHANG X, XIE L, LIU W, et al. Exoskeleton-guided passive movement elicits standardized EEG patterns for generalizable BCIs in stroke rehabilitation[J]. J NeuroEngineering Rehabil, 2025, 22(1): 97. DOI: 10.1186/s12984-025-01627-7. [68] CANTILLO-NEGRETE J, RODRíGUEZ-GARCíA M E, CARRILLO-MORA P, et al. The ReHand-BCI trial: a randomized controlled trial of a brain-computer interface for upper extremity stroke neurorehabilitation[J]. Front Neurosci, 2025, 19: 1579988. DOI: 10.3389/fnins.2025.1579988. [69] BANIQUED P D E, STANYER E C, AWAIS M, et al. Brain-computer interface robotics for hand rehabilitation after stroke: a systematic review[J]. J NeuroEngineering Rehabil, 2021, 18(1): 15. DOI: 10.1186/s12984-021-00820-8. [70] CHEN J, XIA Y, ZHOU X, et al. fNIRS-EEG BCIs for motor rehabilitation: a review[J]. Bioengineering (Basel), 2023, 10(12): 1393. DOI: 10.3390/bioengineering10121393. [71] SEBASTIáN-ROMAGOSA M, CHO W, ORTNER R, et al. Brain-computer interface treatment for gait rehabilitation in stroke patients[J]. Front Neurosci, 2023, 17: 1256077. DOI: 10.3389/fnins.2023.1256077. [72] LUO X. Effects of motor imagery-based brain-computer interface-controlled electrical stimulation on lower limb function in hemiplegic patients in the acute phase of stroke: a randomized controlled study[J]. Front Neurol, 2024, 15: 1394424. DOI: 10.3389/fneur.2024.1394424. [73] BELAL M, ALSHEIKH N, ALJARAH A, et al. Deep learning approaches for enhanced lower-limb exoskeleton control: a review[J]. IEEE Access, 2024, 12: 143883-143907. DOI: 10.1109/ACCESS.2024.3414175. [74] FERRERO L, SORIANO-SEGURA P, NAVARRO J, et al. Brain-machine interface based on deep learning to control asynchronously a lower-limb robotic exoskeleton: a case-of-study[J]. J NeuroEngineering Rehabil, 2024, 21(1): 48. DOI: 10.1186/s12984-024-01342-9. [75] LIU Y, GUI Z, YAN D, et al. Lower limb motor imagery EEG dataset based on the multi-paradigm and longitudinal-training of stroke patients[J]. Sci Data, 2025, 12(1): 314. DOI: 10.1038/s41597-025-04618-4. [76] MRACHACZ-KERSTING N, JIANG N, STEVENSON A J T, et al. Efficient neuroplasticity induction in chronic stroke patients by an associative brain-computer interface[J]. J Neurophysiol, 2016, 115(3): 1410-1421. DOI: 10.1152/jn.00918.2015. [77] FLINT R D, LI Y, WANG P T, et al. Noninvasively recorded high-gamma signals improve synchrony of force feedback in a novel neurorehabilitation brain-machine interface for brain injury[J]. J Neural Eng, 2022, 19(3): 036024. DOI: 10.1088/1741-2552/ac7004. [78] CHEN B, MA H, QIN L Y, et al. Recent developments and challenges of lower extremity exoskeletons[J]. J Orthop Transl, 2016, 5: 26-37. DOI: 10.1016/j.jot.2015.09.007. [79] COSER O, TAMANTINI C, SODA P, et al. AI-based methodologies for exoskeleton-assisted rehabilitation of the lower limb: a review[J]. Front Robot AI, 2024, 11: 1341580. DOI: 10.3389/frobt.2024.1341580. [80] 胡冬, 刘作军, 陈玲玲, 等. 基于支持向量机-隐马尔科夫模型的外骨骼穿戴者步速意图识别[J]. 生物医学工程学杂志, 2022, 39(1): 84-91. DOI: 10.7507/1001-5515.202011009. [81] ZHANG X, QU Y, ZHANG G, et al. Review of sEMG for exoskeleton robots: motion intention recognition techniques and applications[J]. Sensors, 2025, 25(8): 2448. DOI: 10.3390/s25082448. [82] DWIVEDI A, GROLL H, BECKERLE P. A systematic review of sensor fusion methods using peripheral bio-signals for human intention decoding[J]. Sensors, 2022, 22(17): 6319. DOI: 10.3390/s22176319. [83] LEON B, BASTERIS A, INFARINATO F, et al. Grasps recognition and evaluation of stroke patients for supporting rehabilitation therapy[J]. Biomed Res Int, 2014, 2014: 318016. DOI: 10.1155/2014/318016. [84] XIA K, CHANG X D, LIU C S, et al. Exploratory development of human-machine interaction strategies for post-stroke upper-limb rehabilitation[J]. J NeuroEngineering Rehabil, 2025, 22(1): 144. DOI: 10.1186/s12984-025-01680-2. [85] ZHAO Z, LI X, HAO L. Research on the control method of a rehabilitation exoskeleton robot for passive training on upper-limbs of stroke patients[C]//2018 IEEE 8th Annual International Conference on CYBER Technology in Automation, Control, and Intelligent Systems (CYBER). July 19-23, 2018, Tianjin, China. IEEE, 2019: 1106-1111. DOI: 10.1109/CYBER.2018.8688171. [86] VéLEZ-GUERRERO M A, CALLEJAS-CUERVO M, MAZZOLENI S. Artificial intelligence-based wearable robotic exoskeletons for upper limb rehabilitation: a review[J]. Sensors (Basel), 2021, 21(6): 2146. DOI: 10.3390/s21062146. [87] MURAKAMI Y, HONAGA K, KONO H, et al. New artificial intelligence-integrated electromyography-driven robot hand for upper extremity rehabilitation of patients with stroke: a randomized, controlled trial[J]. Neurorehabil Neural Repair, 2023, 37(5): 298-306. DOI: 10.1177/15459683231166939. [88] BARRIA P, RIQUELME M, REPPICH H, et al. Hand rehabilitation based on the RobHand exoskeleton in stroke patients: a case series study[J]. Front Robot AI, 2023, 10: 1146018. DOI: 10.3389/frobt.2023.1146018. [89] SU B, GUTIERREZ-FAREWIK E M. Gait trajectory and gait phase prediction based on an LSTM network[J]. Sensors (Basel), 2020, 20(24): 7127. DOI: 10.3390/s20247127. [90] GE R. XGBoost-based human activity recognition algorithm using wearable smart devices[J]. Appl Comput Eng, 2023, 2(1): 403-409. DOI: 10.54254/2755-2721/2/20220514. [91] NASEEM M T, SEO H, KIM N H, et al. Pathological gait classification using early and late fusion of foot pressure and skeleton data[J]. Appl Sci, 2024, 14(2): 558. DOI: 10.3390/app14020558. [92] CHEN C F, DU Z J, HE L, et al. A novel gait pattern recognition method based on LSTM-CNN for lower limb exoskeleton[J]. J Bionic Eng, 2021, 18(5): 1059-1072. DOI: 10.1007/s42235-021-00083-y. [93] SáNCHEZ MANCHOLA M D, PINTO BERNAL M J, MUNERA M, et al. Gait phase detection for lower-limb exoskeletons using foot motion data from a single inertial measurement unit in hemiparetic individuals[J]. Sensors (Basel), 2019, 19(13): 2988. DOI: 10.3390/s19132988. [94] LUO S, ANDROWIS G, ADAMOVICH S, et al. Robust walking control of a lower limb rehabilitation exoskeleton coupled with a musculoskeletal model via deep reinforcement learning[J]. J Neuroeng Rehabil, 2023, 20(1): 34. DOI: 10.1186/s12984-023-01147-2. [95] VAN DER KOOIJ H, VAN ASSELDONK E H F, SARTORI M, et al. AI in therapeutic and assistive exoskeletons and exosuits: influences on performance and autonomy[J]. Sci Robot, 2025, 10(104): eadt7329. DOI: 10.1126/scirobotics.adt7329. [96] MOYA-ESTEBAN A, REFAI M I, SRIDAR S, et al. Soft back exosuit controlled by neuro-mechanical modeling provides adaptive assistance while lifting unknown loads and reduces lumbosacral compression forces[J]. Wearable Technol, 2025, 6: e9. DOI: 10.1017/wtc.2025.3. [97] BEN ABDALLAH I, BOUTERAA Y, ALOTAIBI A. A hybrid EMG-EEG interface for robust intention detection and fatigue-adaptive control of an elbow rehabilitation robot[J]. Sci Rep, 2025, 15(1): 40895. DOI: 10.1038/s41598-025-24831-w. [98] LAVER K E, LANGE B, GEORGE S, et al. Virtual reality for stroke rehabilitation[J]. Cochrane Database Syst Rev, 2025, 2025(6): CD008349. DOI: 10.1002/14651858.CD008349.pub5. [99] HAM Y, YANG D S, CHOI Y, et al. Effectiveness of mixed reality-based rehabilitation on hands and fingers by individual finger-movement tracking in patients with stroke[J]. J Neuroeng Rehabil, 2024, 21(1): 140. DOI: 10.1186/s12984-024-01418-6. [100] PELOSI A D, ROTH N, YEHOSHUA T, et al. Personalized rehabilitation approach for reaching movement using reinforcement learning[J]. Sci Rep, 2024, 14: 17675. DOI: 10.1038/s41598-024-64514-6. [101] TAHSIN T, MUMENIN K M, AKTER H, et al. Machine learning-based stroke patient rehabilitation stage classification using Kinect data[J]. Appl Sci, 2024, 14(15): 6700. DOI: 10.3390/app14156700. [102] BERTOLASI J, GARCIA-HERNANDEZ N V, MEMEO M, et al. Evaluation of HoloLens 2 for hand tracking and kinematic features assessment[J]. Virtual Worlds, 2025, 4(3): 31. DOI: 10.3390/virtualworlds4030031. [103] LUCIANI B, PEDROCCHI A, TROPEA P, et al. Augmented reality for upper limb rehabilitation: real-time kinematic feedback with HoloLens 2[J]. Virtual Real, 2025, 29(2): 57. DOI: 10.1007/s10055-025-01124-1. [104] ZAKHAROV A V, BULANOV V A, KHIVINTSEVA E V, et al. Stroke affected lower limbs rehabilitation combining virtual reality with tactile feedback[J]. Front Robot AI, 2020, 7: 81. DOI: 10.3389/frobt.2020.00081. [105] TSIAKAS K, HUBER M, MAKEDON F. A multimodal adaptive session manager for physical rehabilitation exercising[C]//Proceedings of the 8th ACM International Conference on PErvasive Technologies Related to Assistive Environments. Corfu, Greece: Association for Computing Machinery, 2015: 1-8. DOI: 10.1145/2769493.2769507. [106] YANG Z Q, DU D, WEI X Y, et al. Augmented reality for stroke rehabilitation during COVID-19[J]. J Neuroeng Rehabil, 2022, 19(1): 136. DOI: 10.1186/s12984-022-01100-9. [107] ASE H, HONAGA K, TANI M, et al. Effects of home-based virtual reality upper extremity rehabilitation in persons with chronic stroke: a randomized controlled trial[J]. J Neuroeng Rehabil, 2025, 22(1): 20. DOI: 10.1186/s12984-025-01564-5. [108] SENADHEERA I, HETTIARACHCHI P, HASLAM B, et al. AI applications in adult stroke recovery and rehabilitation: a scoping review using AI[J]. Sensors, 2024, 24(20): 6585. DOI: 10.3390/s24206585. [109] SARKAR M, LEE T H, SAHOO P K. Smart healthcare: exploring the Internet of medical things with ambient intelligence[J]. Electronics, 2024, 13(12): 2309. DOI: 10.3390/electronics13122309. [110] CALABRò R S, MOJDEHDEHBAHER S. AI-driven telerehabilitation: benefits and challenges of a transformative healthcare approach[J]. AI, 2025, 6(3): 62. DOI: 10.3390/ai6030062. [111] LYU Z, SINGH A. Edge-cloud-based wearable computing for automation empowered virtual rehabilitation[J]. IEEE Trans Autom Sci Eng, 2023: 1-14. DOI: 10.1109/TASE.2023.3289908. [112] MENNELLA C, MANISCALCO U, DE PIETRO G, et al. Ethical and regulatory challenges of AI technologies in healthcare: a narrative review[J]. Heliyon, 2024, 10(4): e26297. DOI: 10.1016/j.heliyon.2024.e26297. [113] KIM S, PARK S W, JEONG T, et al. AI-driven cognitive telerehabilitation for stroke: a randomized controlled trial[J]. Front Neurol, 2025, 16: 1636017. DOI: 10.3389/fneur.2025.1636017. [114] CAPECCI M, CIMA R, BARBINI F A, et al. Telerehabilitation with ARC intellicare to cope with motor and respiratory disabilities: results about the process, usability, and clinical effect of the "ricominciare" pilot study[J]. Sensors, 2023, 23(16): 7238. DOI: 10.3390/s23167238. [115] KUO L C, YANG K C, LIN Y C, et al. Internet of Things (IoT) enables robot-assisted therapy as a home program for training upper limb functions in chronic stroke: a randomized control crossover study[J]. Arch Phys Med Rehabil, 2023, 104(3): 363-371. DOI: 10.1016/j.apmr.2022.08.976. [116] DING E Y, TRAN K V, LESSARD D, et al. Accuracy, usability, and adherence of smartwatches for atrial fibrillation detection in older adults after stroke: randomized controlled trial[J]. JMIR Cardio, 2023, 7: e45137. DOI: 10.2196/45137. [117] SEO N J, COUPLAND K, FINETTO C, et al. Wearable sensor to monitor quality of upper limb task practice for stroke survivors at home[J]. Sensors, 2024, 24(2): 554. DOI: 10.3390/s24020554. [118] METANI A, POPOVI-MANESKI L, SEGUIN P, et al. NeuroSkin®: AI-driven wearable functional electrical stimulation for post-stroke gait recovery-a multicenter feasibility study[J]. Sensors, 2025, 25(18): 5614. DOI: 10.3390/s25185614. [119] OZLEM K, GUMUS C, YILMAZ A F, et al. Cloud-based control system with sensing and actuating textile-based IoT gloves for telerehabilitation applications[J]. Adv Intell Syst, 2025, 7(8): 2400894. DOI: 10.1002/aisy.202400894. [120] VASEY B, NAGENDRAN M, CAMPBELL B, et al. Reporting guideline for the early-stage clinical evaluation of decision support systems driven by artificial intelligence: DECIDE-AI[J]. Nat Med, 2022, 28(5): 924-933. DOI: 10.1038/s41591-022-01772-9. [121] KOCH L M, BAUMGARTNER C F, BERENS P. Distribution shift detection for the postmarket surveillance of medical AI algorithms: a retrospective simulation study[J]. NPJ Digit Med, 2024, 7(1): 120. DOI: 10.1038/s41746-024-01085-w. [122] NIYOMYART A, RUKSAKULPIWAT S, BENJASIRISAN C, et al. Current status of barriers to mHealth access among patients with stroke and steps toward the digital health era: systematic review[J]. JMIR Mhealth Uhealth, 2024, 12: e54511. DOI: 10.2196/54511. [123] FALVEY J R, SUN N, MILLER M J, et al. Demystifying the digital divide: disparities in telerehabilitation readiness among older adults in the United States[J]. Arch Phys Med Rehabil, 2024, 105(7): 1255-1261. DOI: 10.1016/j.apmr.2024.03.009.