Page 106 - 2025年第56卷第6期
P. 106

CEEMDAN的基本步骤及原理如下:
                                                                           (t):
                  (1)向灌浆功率原始序列中添加标准差为 ε 0                 的自适应白噪声 ω i
                                                                   (t)                                  (1)
                                                   y(t) =y(t) + ε 0 ω i
                                                    i
              式中 y(t)为加入白噪声后的第 i个灌浆功率时间序列,i为添加的白噪声的次数。
                    i
                  (2)使用 EMD算法对构造的灌浆功率时间序列 y(t)进行 N次重复分解,可获得第一个模态分量
                                                              i
              IMF(t)及其残差 r(t):
                  1             1
                                                           1  N
                                                IMF(t) =    ∑   IMF (t)                                 (2)
                                                    1
                                                                    1,i
                                                           N n =1
                                                   r(t) =y(t) - IMF(t)                                  (3)
                                                    1             1
              式中:IMF (t)为分解 y(t)所获得的分量;N为添加白噪声的最大次数。
                                     i
                        1,i
                                                   的白噪声,将其重复分解获得第二个 IMF:
                  ( 3)再次向 r(t)中添加标准差为 ε 1
                             1
                                                   1  N
                                         IMF(t) =    ∑  E[r(t)+ε 1   E( ω i (t))]                       (4)
                                                          1
                                                            1
                                                                      1
                                             2
                                                   N n =1
              式中 E(·)为采用 EMD分解得到的 1阶分量。
                    1
                  (4)重复上述步骤直至无法分解为止,最终灌浆功率序列 y(t)被分解后的表达形式为:
                                                        K
                                                 y(t) = ∑  IMF(t) + r(t)                                (5)
                                                                    k
                                                              k
                                                       k =1
              式中 K为分解出的 IMF个数。
              3.2 门控循环单元 门控循环单元(GRU)引入更新门与重置门机制来决定信息的传递与输出。更新
              门控制着当前信息与先前的隐藏状态间的信息融合程度,数值上趋近于 1表示模型更倾向于保留先前
              的隐藏状态,而拒绝当前信息;重置门决定了先前的隐藏状态如何影响当前的候选隐藏状态,数值上
              越趋近于 1表示模型倾向于完全重置先前的隐藏状态而更多地依赖当前信息。GRU的门控机制参数量
              更少、训练速度更快,结构单元如图 2所示,基本表达式如式(6)—(9)所示:
                                                    z = σ (W x+ Uh )                                    (6)
                                                           z t
                                                     t
                                                                z t - 1
                                                    r = σ (W x+ Uh )                                    (7)
                                                     t     r t  r t - 1
                                                h′ = tanh (Wx+ U(r ⊙h ))                                (8)
                                                 t         t     t   t - 1
                                                    h= (1 - z)h + zh′                                   (9)
                                                     t
                                                                   t t
                                                            t
                                                               t - 1
              式中:z为更新门;r为重置门;σ为 sigmoid激活函数;W 、U、W 、U、W、U为可训练的网络
                     t            t                                   z   z    r   r
              权重矩阵;h′为当前的记忆内容;⊙为 Hadamard积;h 为当前形成的最终记忆。
                          t                                     t
              3.3 注意力机制 模仿人类的注意力机制(AM)最初是在计算机视觉领域提出的,后被广泛应用于自
              然语言处理、序列建模等领域              [36] 。AM通过计算序列中每个位置的注意力权重建立输入与输出数据之
              间的依赖关系,以达到提高模型分类准确度或预测精度的目的。
              3.3.1 多头自注意力机制 自注意力机制(Self - Attention,SA)是注意力机制的一种特殊形式,查询
              Q、键 K和值 V具有相同的输入向量,这使得 SA能够在不引入其它外部信息的情况下,捕捉数据的
              内部关联特征,提高模型的表达能力。多头自注意力机制(MHA)是 SA的改进版本,通过集成多个 SA
              将输入序列和键值对组合映射到加权输出中,避免了模型过渡关注某部分而陷入局部最优。MHA的
              结构如图 3所示,基本原理表示如式(10)(11)所示:
                                                                    T
                                                                 QK
                                                                ( )
                                                  A (Q,K,V) =softmax    V                              (10)
                                                                 槡 d k
                                      MultiHead(Q,K,V) =Concat(A,A,…,A )                               (11)
                                                                        2
                                                                                 h
                                                                    1
              式中:d为灌浆功率 IMFs的维度;k为键向量的长度;h为注意力头数;A 为第 i个注意力得分,i =
                                                                                   i
              1 ,2,…,h;softmax表示激活函数;Concat表示将矩阵按列拼接。
                —  7 9  —
                     4
   101   102   103   104   105   106   107   108   109   110   111