Page 106 - 2025年第56卷第6期
P. 106
CEEMDAN的基本步骤及原理如下:
(t):
(1)向灌浆功率原始序列中添加标准差为 ε 0 的自适应白噪声 ω i
(t) (1)
y(t) =y(t) + ε 0 ω i
i
式中 y(t)为加入白噪声后的第 i个灌浆功率时间序列,i为添加的白噪声的次数。
i
(2)使用 EMD算法对构造的灌浆功率时间序列 y(t)进行 N次重复分解,可获得第一个模态分量
i
IMF(t)及其残差 r(t):
1 1
1 N
IMF(t) = ∑ IMF (t) (2)
1
1,i
N n =1
r(t) =y(t) - IMF(t) (3)
1 1
式中:IMF (t)为分解 y(t)所获得的分量;N为添加白噪声的最大次数。
i
1,i
的白噪声,将其重复分解获得第二个 IMF:
( 3)再次向 r(t)中添加标准差为 ε 1
1
1 N
IMF(t) = ∑ E[r(t)+ε 1 E( ω i (t))] (4)
1
1
1
2
N n =1
式中 E(·)为采用 EMD分解得到的 1阶分量。
1
(4)重复上述步骤直至无法分解为止,最终灌浆功率序列 y(t)被分解后的表达形式为:
K
y(t) = ∑ IMF(t) + r(t) (5)
k
k
k =1
式中 K为分解出的 IMF个数。
3.2 门控循环单元 门控循环单元(GRU)引入更新门与重置门机制来决定信息的传递与输出。更新
门控制着当前信息与先前的隐藏状态间的信息融合程度,数值上趋近于 1表示模型更倾向于保留先前
的隐藏状态,而拒绝当前信息;重置门决定了先前的隐藏状态如何影响当前的候选隐藏状态,数值上
越趋近于 1表示模型倾向于完全重置先前的隐藏状态而更多地依赖当前信息。GRU的门控机制参数量
更少、训练速度更快,结构单元如图 2所示,基本表达式如式(6)—(9)所示:
z = σ (W x+ Uh ) (6)
z t
t
z t - 1
r = σ (W x+ Uh ) (7)
t r t r t - 1
h′ = tanh (Wx+ U(r ⊙h )) (8)
t t t t - 1
h= (1 - z)h + zh′ (9)
t
t t
t
t - 1
式中:z为更新门;r为重置门;σ为 sigmoid激活函数;W 、U、W 、U、W、U为可训练的网络
t t z z r r
权重矩阵;h′为当前的记忆内容;⊙为 Hadamard积;h 为当前形成的最终记忆。
t t
3.3 注意力机制 模仿人类的注意力机制(AM)最初是在计算机视觉领域提出的,后被广泛应用于自
然语言处理、序列建模等领域 [36] 。AM通过计算序列中每个位置的注意力权重建立输入与输出数据之
间的依赖关系,以达到提高模型分类准确度或预测精度的目的。
3.3.1 多头自注意力机制 自注意力机制(Self - Attention,SA)是注意力机制的一种特殊形式,查询
Q、键 K和值 V具有相同的输入向量,这使得 SA能够在不引入其它外部信息的情况下,捕捉数据的
内部关联特征,提高模型的表达能力。多头自注意力机制(MHA)是 SA的改进版本,通过集成多个 SA
将输入序列和键值对组合映射到加权输出中,避免了模型过渡关注某部分而陷入局部最优。MHA的
结构如图 3所示,基本原理表示如式(10)(11)所示:
T
QK
( )
A (Q,K,V) =softmax V (10)
槡 d k
MultiHead(Q,K,V) =Concat(A,A,…,A ) (11)
2
h
1
式中:d为灌浆功率 IMFs的维度;k为键向量的长度;h为注意力头数;A 为第 i个注意力得分,i =
i
1 ,2,…,h;softmax表示激活函数;Concat表示将矩阵按列拼接。
— 7 9 —
4