Page 120 - 水利学报2025年第56卷第3期
P. 120
δ (t)为狄利克雷函数;j为虚数;为卷积符号;f(t)为原始输入信号。
VMD的优化问题可以通过引入二次惩罚因子 α和拉格朗日乘法算子 λ (t)将上述等式约束优化问
题等效为一个无约束优化问题。扩展后的拉格朗日函数表达式为:
( [
]
},λ (t)) =α t δt + j ) u(t) e - j ω k t 2 +
()
k
L({u(t)},{ ω k ∑ k
k π t 2
2
f(t)- ∑ u(t) +〈 λ (t),f(t)- ∑ u(t)〉 (10)
k
k
k 2 k
求解该约束问题可通过交替方向乘子法来求解,该方法可以找到增广拉格朗日函数的鞍点。基于
,进而完成 VMD的分析。
k
交替方向乘子法更新 u和 ω k
在进行 VMD操作时,需预先设定模态函数的数量 k,若 k太小会导致模态混合,过大则可能引
起过度分解。本次选用能量法 [21] 来确定模 态 层数 k值。根 据帕 塞瓦 尔 定 理,一个 信 号 在时域的总
能量等于信号在频域的总 能量,某 一频率 下相应 幅度 的平 方 代 表该 频 率 下 的 能 量,据 此 定 义 公 式
如下:
n 2
E = x(t)
i ∑ =1 i
i
k
E = E
i
sum,k ∑ =1 i (11)
E sum,k -E sum,k - 1
=
θ k,k - 1
E sum,k - 1
式中:E为模态数为 k时第 i个分量的能量;E sum,k 为模态数为 k时所有分量的能量之和;θ k,k - 1 为能量
i
差;n为样本个数。
从 VMD分解的最优理论结果来看,各分量的能量之和应等于原始信号。当残差序列处于正常分
解时,模态分量的能量和 E sum,k 趋于稳定,θ k,k - 1 亦趋于稳定。当过度分解或者欠分解时,E sum,k 将会显
会显著增大,
著偏离原始残差序列能量之和,此时 θ k,k - 1 则会发生突变。当残差序列过度分解时,θ k,k - 1
因此此时可将 k - 1层视为 VMD分解的最优模态层数。
3.4 LSTM 神经网络 经 VMD分解后的各残差序
列仍 具 有 较 强 的 非 线 性, 递 归 神 经 网 络 (recursive
neuralnetworks,RNN)能 有 效 学 习 时 间 序 列 的 非 线
性特性。LSTM(LongShort - Term Memory)作 为 一 种
改进后的 RNN,继承了 RNN的时间序列数据分析能
力,并有效解决 RNN的长期依赖问题。LSTM 原理
基于 “门” 结构,包括遗忘门、输入门、输出门和
细胞状态。其网络结构如图 2所示。
图 2 LSTM神经网络结构示意图
( 1)遗忘门决定了哪些信息应被遗忘或者保留,
其控制从前一刻的记忆细胞中转移多少渗压监测数据到当前时刻的记忆细胞中,经过遗忘门后的输出
值 f为:
t
f = σ (W ·[h ,x] + b) (12)
t f t - 1 t f
( 2)输入门用于更新细胞状态。首先有一个 “候选层” 生成候选值来更新细胞状态,然后输入门
决定在多大程度上使用这些候选值。经过输入门后得到的 i、 珟 C 为:
t t
i = σ (W ·[h ,x] + b) (13)
t
i
t - 1
i
t
珟 C = tanh (W ·[h ,x] + b) (14)
t c t - 1 t c
( 3)根据遗忘门和输入门的结果将旧细胞状态 C 更新为 C。将旧细胞状态 C 与 f相乘,遗忘
t
t - 1
t - 1
t
珟
不重要的信息,然后加上新的候选值 i ⊙C,得到当前细胞状态 C:
t t t
珟
C = f ⊙C + i ⊙C t (15)
t
t
t - 1
t
( 4)通过输出门得到输出门的值 o,根据该值和当前细胞状态 C,得到当前时刻的细胞输出 h:
t
t
t
— 4 0 —
2