::: tip 检测注意力水平的重要性 注意力被定义为在学习和记忆环境中关注关键信息的认知过程。专注是很重要的,因为它将有益于学习体验,并可能有助于积极的学习成果。大多数职业,如教师、操作员、医生和司机,需要高度的专注,才能高效地完成工作。 :::
使用具有卷积块
、注意机制
、长短时记忆
和全连接神经网络
的向量到向量(Vec2Vec)建模来学习原始EEG信号的高级特征并执行分类。
这项研究的大体分为三个步骤:
Troxler
衰落实验期间的大脑活动。创建了一个带有"开始按钮"的简单图形用户界面,用于在参与者单击按钮时同时触发EEG耳机和网络摄像头。EEG耳机和网络摄像头用于不同的目的。
::: tip 如何记录正确的EEG信号 该实验由网络摄像头监控,以跟踪参与者的视线。通过网络摄像头进行眼睛跟踪是为了确保收集的EEG数据有助于满足实验目标。将绘制热图,以查看参与者眼睛在屏幕上的位置。
例如: 如果在控制测试期间发现参与者的眼睛没有正确固定在目标刺激上,则该测试的原始EEG数据将不会被保留。 :::
用于记录参与者的EEG信号。该装置有5个电极通道,分别为AF3
、AF4
、Pz
、T7
和T8
。由于我们的研究是关于注意力分析,因此仅使用
对于EEG信号的采样频率,该设备可以记录高达128Hz
的信号,这意味着可以在一秒钟内采集128个时间点。由于每个测试样本的持续时间为60秒,因此将有7680个时间点。
基于网络摄像头的眼睛跟踪,它是一种适用于记录参与者眼睛注视数据的摄像机。网络摄像头的分辨率为1920×1080(全高清),每秒30帧。
下图显示了使用眼睛跟踪算法通过网络摄像头跟踪眼睛(绿色圆圈)。
为了跟踪参与者在测试期间的表现,使用热图来可视化感兴趣区域的眼球运动。热图是一个有用的数据分析软件,它使用视线数据作为输入,并将热到冷的颜色光谱应用于受到关注的区域。为了构造热图,使用了二维高斯函数。图显示了椭圆高斯函数的曲线。
二维高斯分布的数学计算: \(f(x, y)=\frac{1}{2 \pi \sigma^{2}} e^{-\frac{\left(x-\mu_{x}\right)^{2}+\left(y-\mu_{y}\right)^{2}}{2 \sigma^{2}}}\) 其中x和y是眼睛位置的屏幕坐标,σ是高斯函数的标准偏差,µx,µy是x和y坐标的平均值。
符号 | 含义 |
---|---|
$x,y$ | 眼睛位置的屏幕坐标 |
$σ$ | 高斯函数的标准偏差 |
$µ_x$ | x坐标的平均值 |
$µ_y$ | y坐标的平均值 |
为了有效地从脑电信号中提取特征并将这些信号分类为注意或不注意行为,提出了一种称为卷积注意记忆神经网络(CAMNN)的深度学习模型。
Vec2Vec分为4个部分,即
层 | 方法 |
---|---|
编码器 | ResNet34 |
注意层 | soft attention |
解码器 | LSTM |
全连接层 | 是具有一个隐藏层的网络 |
ResNet34的最大优点是它可以增加网络模型的深度和精度,同时避免负面结果。ResNet34的输入EEG信号使用单个输入信道
显示了ResNet34的参数,如内核大小、填充、步幅和输出大小。这些参数将被插入到操作中,该操作由卷积块、具有标识快捷方式的卷积层和具有投影快捷方式的卷积层组成。
卷积块是特征学习,它由
二维卷积由64个核组成,其中所有EEG信号将在训练过程中学习。这些内核将在输入图像矩阵上逐列水平跨步,以识别64个特征映射。
之后,这些特征映射将被输入到批量标准化(BN)中,以实现更高的学习率,从而加快训练过程。 批量标准化BN的公式: \(\begin{aligned} \mu_{B} &=\frac{1}{m} \sum_{i=1}^{m} x_{i} \\ \sigma_{B}^{2} &=\frac{1}{m} \sum_{i=1}^{m}\left(x_{i}-\mu_{B}\right)^{2} \\ \hat{x}_{i} &=\frac{x_{i}-\mu_{B}}{\sqrt{\sigma_{B}^{2}+\epsilon}} \\ y_{i} &=B N_{\gamma, \beta}\left(x_{i}\right) \end{aligned}\) 其中m是批次大小,x是激活值,µB是小批次平均值,σ2B是小批量方差,ˆxi是归一化激活,∈ 是方差变为零时使用的噪声参数,yi是可学习的尺度和移位参数。
该机制将使用卷积特征$(f_1、f_2、…、f_k)$和隐藏状态$h_{k−1}$ 作为输入来计算将用于解码器的加权注释向量。$h_{k−1}$是LSTM单元的输出,其用作存储输出数据信息的神经网络存储器。$f_k$和$h_k$的合计值: \(\begin{aligned} x_{k} &=f_{k}+h_{k-1} \\ r_{k}\left(x_{k}\right) &=\left\{\begin{array}{ll}0 & \text { for } x_{k}<0 \\ x_{k} & \text { for } x_{k} \geq 0\end{array}\right.\end{aligned}\) 其中xk是时间步骤k处的卷积特征和隐藏状态的和,rk(xk)是ReLu层之后的聚合值。接下来,如等式11所示的softmax函数用于计算聚合值S(rk)的关注权重。 \(S\left(r_{k}\right)=\frac{e^{r_{k}}}{\sum_{k} e^{r_{k}}}\) 最后,可以使用等式12计算注意力加权注释向量Wk。Wk表示根据隐藏状态的每个特征的相关信息。 \(W_{k}=\sum_{k} S_{k} f_{k}\)
具有一个隐藏层的完全连接网络用于获取解码器的输出,将其展平为单个值向量,并计算每个标签的概率(注意或不注意行为)。在每个层之后执行0.5的dropout。使用dropout是为了防止训练数据的过度拟合
\(\begin{aligned} \text { Accuracy } &=\frac{T P+T N}{T P+F N+T N+F P} \times 100 \% \\ \text { Precision } &=\frac{T P}{T P+F P} \\ \text { Recall } &=\frac{T P}{T P+F N} \\ \text { Specificity } &=\frac{T N}{T N+F P} \\ F 1 &=\frac{2 * \text { Precision } * \text { Recall }}{\text { Precision }+\text { Recall }} \end{aligned}\) 由于CAMN具有最高的精度和召回率,F1分数无疑具有最高值0.92,其次是深度ConvNets(0.8)、CNN(0.76)、EEGNet(0.75)、LSTM(0.67)和RNN(0.52)。较高的F1分数表明模型在数据集上具有较高的准确性。