LSTM-Based ECG Classification for Continuous Monitoring on Personal Wearable Devices

代码地址:​​http://lis.ee.sharif.edu/pub/2020_jbhi_soh/​​​基于LSTM的ECG分类用于个人可穿戴设备的连续监测_深度学习
摘要:
提出了一种新的ECG分类算法,用于处理能力有限的可穿戴设备上的连续心脏监测。
方法:提出的解决方案采用了由小波变换和多个LSTM递归神经网络组成的新结构(图1)。
结果:实验评估显示,与以前的工作相比,ECG分类性能更好。在不同硬件平台上的测试表明,该算法满足可穿戴设备上连续实时执行的时序要求。
结论:与许多基于计算式深度学习的方法相比,本文提出的算法是轻量级的,因此,它为可穿戴设备带来了基于LSTM的准确ECG分类的连续监测。
意义:提出的算法既准确又轻量级。源代码可在线获取。

为什么要提出这种算法

以前的许多算法都是基于形态学特征和经典信号处理技术。由于ECG波形及其形态特征(如QRS波群和P波的形状)在不同情况下和不同患者的情况下显著不同,因此此类算法中使用的固定特征不足以准确区分所有患者的不同类型心律失常。

为了自动提取特征并提高心跳分类精度,最近许多研究者提出了基于深度学习的算法,包括深度卷积神经网络和循环神经网络(RNN)。

作者认为RNN系列的网络更适合捕捉序列数据的时间依赖性。因此提出了一种新的基于LSTM递归神经网络(RNNs)的心电图分类算法。

这种算法是什么
基于LSTM的ECG分类用于个人可穿戴设备的连续监测_可穿戴设备_02
这里RNN指的是,基础的RNN,LSTM,LSTM with peephole,GRU;作者经过实验对比这几种模块的性能,最终选择了LSTM。
如上图所示,该算法同时使用LSTM和经典特征,即(小波变换)。这些附加特征有助于更好地捕捉ECG波形特点。此外,该算法融合了来自小型LSTM模型的心律失常预测,而不是构建一个大型模型。参见图1中的模型α和β。执行多个较小的LSTM模型的总计算成本低于一个较大的LSTM模型。因此,与以前许多计算密集型的基于深度学习的方法相比,该算法在不显著增加计算成本的情况下提高了分类精度。因此,它为个人可穿戴设备带来了基于LSTMBA的准确ECG分类的连续监测。

(简单来说,该算法的流程就是,首先从源信号中分割心拍,得到Xecg,再从Xecg中计算Xrr特征,并且对Xecg下采样后进行小波变换得到Xw特征。最后将这3路信号分别组合送到两个模型中encode,再融合分类。Xrr和Xw作为附加特征用于提高分类精度以及降低计算复杂度。)

另外,这篇文章的训练方法也挺有意思的!
基于LSTM的ECG分类用于个人可穿戴设备的连续监测_深度学习_03
这种方法是针对每个患者单独训练一个模型。
简单来说就是针对某个患者X,将他的一段时间的带标记的心电数据和数据库中的数据组合得到一个患者X特定的数据集。然后将这个数据集用于训练模型。然后该模型用于该患者的之后的日常监护。
为什么要这样做呢?
作者解释说,因为不同患者的心电波形差异比较大,制作针对某个患者的数据集有利于提高模型精度。

这种算法怎么样

实验结果表明了该方法的有效性。报告ECG分类算法的准确性已被美国医疗仪器进步协会(AAMI)标准化[25]。我们提出的算法是使用符合该标准的先前工作中使用的相同ECG信号进行评估的。实验结果表明,与上述方法相比,该算法具有更好的分类性能。例如,在将室性异位搏动(VEB)和非室性异位搏动(SVEB)进行分类时,F1得分分别高出3.3%和15.5%。注意,SVEB检测被认为比VEB检测更困难。

并对该算法的计算要求进行了评估。在小型和低功耗硬件平台上的实验测量表明,该算法满足在此类平台上连续实时执行的时序要求。

基于LSTM的ECG分类用于个人可穿戴设备的连续监测_神经网络_04
消融实验:
基于LSTM的ECG分类用于个人可穿戴设备的连续监测_健康医疗_05
结论:

本文提出了一种新的基于LSTM的ECG分类算法,与以往的工作相比,该算法具有更好的分类性能。此外,与许多以前基于深度学习的算法相比,它具有较低的计算成本,并满足在处理能力有限的可穿戴设备上连续执行的时间要求。未来的方向包括探索其他技术以进一步提高分类性能,研究除小波外的其他特征,以及改进单导联心电图处理。

参考文献:
S. Saadatnejad, M. Oveisi, and M. Hashemi, “LSTM-Based ECG Classification for Continuous Monitoring on Personal Wearable Devices,” IEEE J Biomed Health Inform, vol. 24, no. 2, pp. 515–523, Feb. 2020.