Processing math: 0%

EI / SCOPUS / CSCD 收录

中文核心期刊

浅海内波环境下声速剖面的深度迁移时序预测

严娴, 李倩倩, 阳凡林, 彭东东, 隽智昊, 李琪

严娴, 李倩倩, 阳凡林, 彭东东, 隽智昊, 李琪. 浅海内波环境下声速剖面的深度迁移时序预测[J]. 声学学报, 2025, 50(1): 23-31. DOI: 10.12395/0371-0025.2023124
引用本文: 严娴, 李倩倩, 阳凡林, 彭东东, 隽智昊, 李琪. 浅海内波环境下声速剖面的深度迁移时序预测[J]. 声学学报, 2025, 50(1): 23-31. DOI: 10.12395/0371-0025.2023124
YAN Xian, LI Qianqian, YANG Fanlin, PENG Dongdong, JUAN Zhihao, LI Qi. Time-series prediction of shallow water sound speed profiles in the presence of internal waves based on deep transfer learning[J]. ACTA ACUSTICA, 2025, 50(1): 23-31. DOI: 10.12395/0371-0025.2023124
Citation: YAN Xian, LI Qianqian, YANG Fanlin, PENG Dongdong, JUAN Zhihao, LI Qi. Time-series prediction of shallow water sound speed profiles in the presence of internal waves based on deep transfer learning[J]. ACTA ACUSTICA, 2025, 50(1): 23-31. DOI: 10.12395/0371-0025.2023124
严娴, 李倩倩, 阳凡林, 彭东东, 隽智昊, 李琪. 浅海内波环境下声速剖面的深度迁移时序预测[J]. 声学学报, 2025, 50(1): 23-31. CSTR: 32049.14.11-2065.2023124
引用本文: 严娴, 李倩倩, 阳凡林, 彭东东, 隽智昊, 李琪. 浅海内波环境下声速剖面的深度迁移时序预测[J]. 声学学报, 2025, 50(1): 23-31. CSTR: 32049.14.11-2065.2023124
YAN Xian, LI Qianqian, YANG Fanlin, PENG Dongdong, JUAN Zhihao, LI Qi. Time-series prediction of shallow water sound speed profiles in the presence of internal waves based on deep transfer learning[J]. ACTA ACUSTICA, 2025, 50(1): 23-31. CSTR: 32049.14.11-2065.2023124
Citation: YAN Xian, LI Qianqian, YANG Fanlin, PENG Dongdong, JUAN Zhihao, LI Qi. Time-series prediction of shallow water sound speed profiles in the presence of internal waves based on deep transfer learning[J]. ACTA ACUSTICA, 2025, 50(1): 23-31. CSTR: 32049.14.11-2065.2023124

浅海内波环境下声速剖面的深度迁移时序预测

基金项目: 中国博士后科学基金项目(2020M670891)、山东省自然科学基金项目(ZR2022MA051, ZR2020MA090)和山东科技大学科研创新团队支持计划项目(2019TDJH103)资助
详细信息
    通讯作者:

    李倩倩, liqianqian@sdust.edu.cn

  • 中图分类号: 43.30, 43.60

  • PACS: 
    • 43.30  (水声学)
    • 43.60  (声学信号处理)

Time-series prediction of shallow water sound speed profiles in the presence of internal waves based on deep transfer learning

  • 摘要:

    海水声速随时空起伏变化, 水文资料稀缺海域声速剖面时序预测困难, 为此构建了基于迁移学习的长短时记忆神经网络模型, 并利用中国南海海域实测的两条温度链长时序观测数据对其进行验证。针对有无孤立子内波存在的两种场景, 基于迁移学习对预训练网络模型进行微调, 分析不同训练样本量下迁移网络的有效性。实验结果表明, 迁移网络在有无孤立子内波存在的两种场景下均可实现高精度高效声速剖面预测, 且预测性能明显优于未迁移的处理方法。

    Abstract:

    Due to the inhomogeneous and dynamic characteristics such as flows and internal waves, the sound speed field presents complex spatial-temporal fluctuations, making it difficult to predict the sound speed profile (SSP) time series without sufficient training data. A long short-term memory (LSTM) model based on transfer learning is constructed, and temperature profiles recorded by two thermistor chains in the South China Sea are used to validate the performance of the model. For the two scenarios with and without internal solitary waves, the pre-trained model is finetuned based on transfer learning, and the performance and effectiveness of the deep transfer networks under different amounts of training samples are analyzed. The experimental results show that the deep transfer network can simultaneously meet the requirements of high precision and high efficiency, and the prediction performance is significantly better than that of the non-transfer treatment.

  • 声速剖面是描述海水声学特性的基本物理参数, 其关系到水下目标定位识别以及水下通信等的准确性[1]。真实的海洋环境中, 海水声速随时间和空间起伏变化。声速剖面的变化按照时间尺度可分为大尺度的背景场变化以及小尺度的扰动场变化, 大尺度的变化主要影响声速剖面的稳态背景特性, 如温跃层的平均深度和厚度等; 而小尺度的变化通常指瞬时变化, 如内波引起的扰动等[2-3]。内波是引起声速扰动的主要原因之一, 尤其是孤立子内波会使海水声速剧烈变化, 严重影响水下声场分布[4-5]。内波等中尺度海洋现象具有复杂多变的时空特性, 内波环境下声速剖面的获取尤为困难。

    现场测量是获取声速剖面最直接的方式, 包括定点观测以及锚碇浮标阵观测等。现场测量主要通过使用各种温盐深传感器来实现, 通过测量不同深度处的海水温度和盐度, 再结合声速经验公式[6]计算出声速剖面。定点观测的典型装备有声速仪、投弃式温深测量仪(XBT)、温盐深仪(CTD)等[7]。锚碇浮标阵是利用垂直阵上布设的多个温度深度传感器(TD)进行长期连续的水文观测。然而, 现场测量方法不仅耗时耗力, 且获取的数据受时空采样精度的限制, 难以实现高精度的声速剖面时空建模。

    随着机器学习的发展, 利用预测或反演技术可以获得时空变化的声速剖面, 较好地解决了传统声速剖面观测方式的限制。Tangang等利用神经网络对太平洋的海表温度异常进行了长期的季节性预报[8]。Zhang等利用长短时记忆神经网络(LSTM)对海表温度进行预测, 将其描述为一个时间序列回归问题[9]。苏林等结合内波环境下声速剖面的统计特性, 基于LSTM神经网络实现了声速剖面时序预测[10]。王同等利用LSTM神经网络, 添加双层注意力机制构建多变量时间序列预测模型, 对浅海环境下时变的全海深声速剖面进行预测[11]。但是训练出性能良好的网络模型需要大量的样本数据, 小样本情境下训练模型泛化能力差, 因此小样本的海域无法实现网络模型的智能构建。

    迁移学习可有效解决小样本建模的困境。预训练–微调模型将迁移学习和神经网络结合, 首先在大数据集上训练得到一个具有强泛化能力的模型(预训练模型), 然后在下游任务进行微调[12]。雷波等在基于先验信息和仿真数据集的预训练模型基础上, 通过少量实验数据集对神经网络参数进行迁移学习, 在声速剖面失配时可获得稳健的定位结果[13]。殷仕明等提出了基于迁移学习的LSTM水文模型, 解决了少样本流域无法构建水文模型的难题[14]

    本文构建了基于迁移学习的长短时记忆神经网络模型, 并利用中国南海海域间隔约为14.7 km的两条温度链长时序观测数据进行验证。选取一条温度链充足的样本数据作为源域构建LSTM预训练模型, 以另一条温度链少量的样本数据微调, 研究对比了不同实验场景和样本数量下声速剖面时间序列的预测精度和计算效率。

    声速剖面可表示为深度和时间的矩阵形式, 但这需要大量的参数, 因此需要采用一定的数据降维技术来规范化声速剖面, 为此提出了经验正交函数(EOF)的表示方法[15]。经验正交函数方法又称主成分分析, 是将样本数据的主要信息浓缩在几个主要分量上。Leblanc等证明了EOF能够降低数据维度, 通常前5阶EOF就可以较为准确地重构任一声速剖面, 精度可以达到95%以上[16]。采用经验正交函数来表示海水声速剖面。对声速剖面在M个时间点采样, 并将其插值到N个深度标准层, 则M个声速剖面样本表示为

    {{\boldsymbol C}}_{N\times M}=\left[\begin{array}{cccc}{C}_{11}& {C}_{12}& \mathrm{...}& {C}_{1M}\\ {C}_{21}& {C}_{22}& \mathrm{...}& {C}_{2M}\\ \vdots & \vdots & \ddots &\vdots \\ {C}_{\boldsymbol{N}1}& {C}_{N2}& \mathrm{...}& {C}_{NM}\end{array}\right], (1)

    其中, 每一列代表一个声速剖面, 每一行代表某深度处的海水声速时间序列。

    对声速剖面矩阵 {{{\boldsymbol C}}_{N \times M}} 按行取平均, 获得平均声速{{{\overline {\boldsymbol{C}}}}_{N \times 1}}, {{{\boldsymbol C}}_{N \times M}} {{{\overline {\boldsymbol{C}}}}_{N \times 1}}的差值称为声速扰动{\Delta }{{{\boldsymbol C}}_{N \times M}}, 求声速扰动的协方差矩阵:

    {{\boldsymbol{R}}_{N \times N}} = \frac{1}{M}\Delta {{{\boldsymbol C}}_{N \times M}}\Delta {{\boldsymbol C}}_{N \times M}^{T}. (2)

    对其进行特征分解, 得

    {{\boldsymbol{R}}_{N \times N}}{{\boldsymbol{V}}_{N \times N}} = {{\boldsymbol{\lambda}}_{N \times N}}{{\boldsymbol{V}}_{N \times N}}, (3)

    其中, {{\boldsymbol{\lambda }}_{N \times N}}{{\boldsymbol{V}}_{N \times N}}分别表示特征值矩阵和特征向量矩阵(即EOF基函数)。

    将声速扰动\Delta {C_{N \times M}}投影到各个EOF基函数, 可得到所有的特征向量对应的EOF系数矩阵 {{\boldsymbol{\alpha}}_{N \times M}} :

    {{\boldsymbol{\alpha}}_{N \times M}} = {\boldsymbol{V}}_{N \times N}^{T}\Delta {{{\boldsymbol C}}_{N \times M}}. (4)

    每一个特征向量对应的特征值表示此特征向量的权重, 计算前k阶的累积贡献率:

    Q{\boldsymbol{ = }}\sum\limits_{{\boldsymbol{i}} = 1}^k {{\lambda _i}} /\sum\limits_{n = 1}^N {{\lambda _n}} . (5)

    Q \geqslant 0.95时, 认为前k阶经验正交函数可以表示当前海域内声速剖面的主要特征。因此, 前k阶经验正交函数即可重构样本中的任一声速剖面, 其中重构声速剖面矩阵可表示为

    {{{\widehat {\boldsymbol{C}}}}_{N \times M}} = \left[ {\begin{array}{*{20}{c}} {{{\overline C}_1}} \\ {{{\overline C}_2}} \\ \vdots \\ {{{\overline C}_N}} \end{array}} \right] + \left[ {\begin{array}{*{20}{c}} {{V_{11}}}&{{V_{12}}}& \cdots &{{V_{1k}}} \\ {{V_{21}}}&{{V_{22}}}& \cdots &{{V_{2k}}} \\ \vdots & \vdots & \cdots & \vdots \\ {{V_{N1}}}&{{V_{N2}}}& \cdots &{{V_{Nk}}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{\alpha _{1M}}} \\ {{\alpha _{2M}}} \\ \vdots \\ {{\alpha _{_{{\boldsymbol{k}}M}}}} \end{array}} \right], (6)

    其中, {\left[ {\begin{array}{*{20}{c}} {{{\overline C}_1}}&{{{\overline C}_2}}& \cdots &{{{\overline C}_N}} \end{array}} \right]^{\rm{T}}} 为平均声速剖面, 即背景声速剖面; 前k阶系数表示为

    {\left[ {\begin{array}{*{20}{c}} {{\alpha _{1M}}}&{{\alpha _{2M}}}& \cdots &{{\alpha _{kM}}} \end{array}} \right]^{\rm{T}}},

    \left[ {\begin{array}{*{20}{c}} {{V_{11}}}&{{V_{12}}}& \cdots &{{V_{1k}}} \\ {{V_{21}}}&{{V_{22}}}& \cdots &{{V_{2k}}} \\ \vdots & \vdots & \cdots & \vdots \\ {{V_{N1}}}&{{V_{N2}}}& \cdots &{{V_{Nk}}} \end{array}} \right]

    为前k阶EOF基函数矩阵。

    利用EOF方法表示声速剖面可以大大减少声速剖面的表征参数。对于声速剖面时序预测来说, 其主要流程为从目标海域的历史观测数据中提取背景声速剖面和EOF基函数, 则声速剖面预测问题就简化为前几阶EOF系数时间序列的回归预测问题。因此声速剖面预测误差由三项误差共同决定: 背景声速剖面的代表性误差、EOF基函数的代表性误差以及EOF系数的预测误差。

    传统的循环神经网络(RNN)在处理长时间序列问题时会出现梯度消失和梯度爆炸问题[17]。LSTM神经网络是对RNN的优化算法, 除隐含状态(即短期记忆状态)外, 又增加了一个细胞状态(即长期记忆状态)。LSTM神经网络之所以能够处理复杂的长时间序列问题, 是因为其可以通过门控开关舍弃、保持和更新信息, 既能够处理短期依赖问题, 又能够处理长期依赖问题。

    LSTM神经网络的训练模型和内部运算机制如图1和式(7)所示。首先, 遗忘门 {f_t} 结合t − 1时刻的隐含层状态值 {h_{t - 1}} 和当前时刻的输入 {\alpha _t} , 决定舍弃哪些旧信息。激活函数Sigmoid (即 \sigma )值域为(0, 1), 越接近0表示舍弃越多信息, 越接近1表示保留越多信息。其次, 输入门 {i_t} 和tanh决定从t − 1时刻的隐含层状态 {h_{t - 1}} t时刻的输入值 {\alpha _t} 中保存哪些新信息, 并得到细胞状态候选值 {\widetilde c_t} 。接下来, 结合遗忘门 {f_t} 和输入门 {i_t} 进行信息的舍弃和保存, 得到当前的细胞状态 {c_t} 。最后, 输出门 {o_t} 结合tanh决定 {h_{t - 1}} {\alpha _t} {c_t} 中哪些信息输出为t时刻的隐含状态 {h_t}

    图  1  LSTM神经网络训练模型
    \left\{ \begin{gathered} {f_t} = \sigma \left( {{W_f}\left[ {{h_{t - 1}},{\alpha _t}} \right] + {b_f}} \right), \\ {i_t} = \sigma \left( {{W_i}\left[ {{h_{t - 1}},{\alpha _t}} \right] + {b_i}} \right), \\ {{\widetilde c}_t} = \tanh \left( {{W_c}\left[ {{h_{t - 1}},{\alpha _t}} \right] + {b_c}} \right), \\ {c_t} = {f_t} \otimes {c_{t - 1}} + {i_t} \otimes {{\widetilde c}_t}, \\ {o_t} = \sigma \left( {{W_o}\left[ {{h_{t - 1}},{\alpha _t}} \right] + {b_o}} \right), \\ {h_t} = {o_t} \otimes \tanh \left( {{c_t}} \right), \\ \end{gathered} \right. (7)

    其中, \otimes 是按位运算(哈达玛乘积), Wb分别表示权重和偏置, 激活函数tanh将值缩放到区间(−1, 1)。

    以训练第1阶EOF系数为例, 长短期记忆的初始状态 {h_0} {c_0} 均为0, t时刻的EOF系数归一化后会与先前保留的长短期记忆状态一同输入到一个记忆块中, 输出t时刻的LSTM的隐含状态 {h_t} , 并将细胞状态 {c_t} 和隐含状态 {h_t} 传送至下一时刻。t时刻的记忆状态需要通过一个全连接层映射到EOF系数上, 然后进行交叉熵误差计算, 就可预测得到t+1时刻的EOF系数。训练完成后, 将训练集中t时刻的EOF系数预测值作为LSTM模型的初始输入, 即可预测测试集中的EOF系数。

    深度迁移学习的重要环节就是构建预训练–微调模型, 其流程如图2所示。具体步骤为, 首先利用源域丰富的样本数据对神经网络进行训练, 得到LSTM预训练模型, 并保存各项参数; 其次, 冻结LSTM层的参数, 利用目标域的部分小样本数据(训练集数据)对全连接层进行微调; 最后得到预训练−微调模型, 利用目标域的测试集数据测试网络模型的性能。在相同的任务上, 预训练模型与从头开始训练相比, 大大缩短了训练时间且加快了训练的收敛速度。

    图  2  LSTM预训练–微调流程

    本文分析处理了2015年秋季在中国南海海域获得的水文数据, 该实验获取了在S17站点处观测的一次温盐深(CTD)数据和锚定于S17 (20.60°N, 114.65°E)、H1 (20.73°N, 114.63°E)处的两条温度链数据, 两条温度链的距离约为14.7 km, CTD测量的声速剖面如图3所示。S17站点处温度链的覆盖深度为18~86 m; H1站点处温度链的覆盖深度为12~78 m。实验海域的盐度变化不大, 因此假定实验期间的海水盐度剖面可以用CTD一次测量的盐度剖面表示。利用式(8)的声速经验公式(Mackenzie)可以计算得到声速剖面随时间的分布[18]。实验区域的水深大致为110 m, 但是温度链测量数据无法覆盖整个海深。图3中红色虚线所在深度为两条温度链缺失数据对应的深度。红色虚线表示的剖面具有明显分层, 因此根据两条温度链的覆盖深度, 结合CTD所测声速剖面的梯度, 可将温度链覆盖范围之外的水层划分为图3所示的4个等梯度层。按照这4个声速梯度可以将两个站点的声速剖面延拓至全海深。

    图  3  CTD测量的声速剖面(d: 深度区间, g: 声速梯度)
    \begin{split} C =& 1448.96 + 4.591T - 5.304 \times {10^{ - 2}}{T^2} + \\&2.374 \times {10^{ - 4}}{T^2} + 1.340\left( {S - 35} \right) + \\& {\boldsymbol{ }}1.630 \times {10^{ - 2}}D + 1.675 \times {10^{ - 7}}{D^2} - \\&1.025 \times {10^{ - 2}}T\left( {S - 35} \right) - 7.139 \times {10^{ - 13}}T{D^3}, \end{split} (8)

    其中, C为海水声速, T表示海水温度, D代表海水深度, S表示海水盐度。

    图4为实验期间连续观测24 h的声速随时间和深度的变化, 可以看出存在明显的小振幅线性内波和少量大振幅的孤立子内波。为了证明本文方法的适应性, 分别测试这两种场景下声速剖面的时域预测性能。

    图  4  两个站点的声速剖面数据(场景1选取白色方框内的数据, 场景2选取黑色方框内的数据) (a) S17站点声速剖面; (b) H1站点声速剖面

    场景1中源域和目标域选取的声速数据较为平稳, 不包含孤立子内波, 如图4白色方框内的数据所示。具体为, 以S17站点9月13日19: 00到9月14日01:00共6 h的数据作为源域样本, 并以白色虚线为界将之划分为训练集和测试集(训练集和测试集的比例为4∶1, 声速剖面个数分别为576和144)。训练集用于建立预训练网络模型, 测试集用于检验预训练模型的性能。选取H1站点9月14日01:00到9月14日07:00共6 h的数据作为目标域数据。为分析目标域不同时长训练集对模型的微调效果, 分别设置白色虚线之前0.3, 0.6, 1.2 h的样本为训练集, 设置白色虚线之后共4.8 h的样本为测试集(声速剖面个数分别为36, 72, 144, 576)。

    利用源域训练集数据进行EOF分解, 图5为前15阶EOF模态的累积方差贡献率, 其中前三阶EOF模态的贡献率达到95%以上, 因此本文利用前三阶EOF模态重构场景1的声速剖面。由于目标域训练集样本量少, 提取到的EOF基函数及背景声速剖面可能不准确, 因此训练集的背景声速剖面及前三阶EOF基函数从源域和目标域训练集的所有样本中提取。以目标域中时长为0.3 h的训练集为例, 对训练集和测试集分别进行EOF分解, 结果如图6所示。从训练集和测试集中提取的背景声速剖面和前三阶EOF基函数都较为吻合, 利用式(9)计算得到相关系数分别为0.99, 0.90, 0.83, 0.60, 均为中高度相关。图7是目标域测试集声速剖面重构的均方根误差, 平均均方根误差为约为0.41 m/s。因此认为从源域和目标域训练集中提取背景声速剖面和EOF基函数, 并将之用于重构目标域测试集声速剖面不会造成显著的代表性误差。

    图  5  场景1前15阶EOF模态的累积方差贡献率
    图  6  场景1中从训练集和测试集提取的背景声速剖面及前三阶EOF基函数 (a) 背景声速剖面; (b) 第1阶EOF基函数; (c) 第2阶EOF基函数; (d) 第3阶EOF基函数
    图  7  场景1目标域声速剖面重构的均方根误差
    {\mathrm{corr}}({\boldsymbol{X}},{\boldsymbol{Y}}) = \frac{{{{\mathrm{cov}}} ({\boldsymbol{X}},{\boldsymbol{Y}})}}{{\sqrt {{{\mathrm{var}}} [{\boldsymbol{X}}]{{\mathrm{var}}} [{\boldsymbol{Y}}]} }}, (9)

    式中, {{\mathrm{cov}}} ({\boldsymbol{X}},{\boldsymbol{Y}}) XY的协方差, {{\mathrm{var}}} [{\boldsymbol{X}}] X的方差, {{\mathrm{var}}} [{\boldsymbol{Y}}] Y的方差。

    实际情况下, 孤立子内波往往伴随小振幅的线性内波或无内波的场景存在, 因此设置场景2, 即大部分样本为小振幅内波存在时的数据, 小部分样本为大振幅孤立子内波存在时的数据。场景2中数据选取情况如图3黑色方框所示, 可以看出孤立子内波使得有些时间段内声速起伏变化剧烈。其中以S17站点黑色框内9月17日07:00到9月14日13:00的数据作为源域样本数据, H1站点黑色框内9月14日13:00到9月14日19:00的数据作为目标域数据, 训练集和测试集数据的划分与场景1一致。利用源域训练集进行EOF分解, 图8为前15阶EOF模态的累积方差贡献率, 其中前两阶EOF模态的贡献率达到95%以上, 因此利用前两阶EOF模态重构场景2的声速剖面。

    图  8  场景2前15阶EOF模态的累积方差贡献率

    与场景1相同, 分别从源域和目标域训练集及目标域测试集中提取背景声速剖面及前两阶EOF基函数, 如图9所示, 可见从源域和目标域训练集提取的背景声速剖面及EOF基函数与目标域测试集吻合良好, 相关系数分别为0.99, 0.95, 0.72, 均为中高度相关。图10绘制了目标域测试集声速剖面重构的均方根误差, 平均均方根误差为约为0.70 m/s。

    图  9  场景2中从训练集和测试集提取的背景声速剖面及前两阶EOF基函数 (a) 背景声速剖面; (b) 第1阶EOF基函数; (c) 第2阶EOF基函数
    图  10  场景2目标域声速剖面重构的均方根误差

    建立性能良好的预训练模型是深度网络可迁移性的前提。利用S17站点的源域训练集数据训练LSTM模型, 并利用源域测试集数据验证网络性能。以场景1为例, 图11为源域测试集第1阶EOF系数的预测结果, 可以看出, 预测的EOF系数与实际值基本吻合。由式(10)计算二者的均方根误差, 平均均方根误差为1.55, 因此认为利用源域训练集数据构建的预训练模型性能良好。

    图  11  场景1源域测试集第1阶EOF系数预测结果
    {\mathrm{RMSE}} = \sqrt {\frac{1}{n}\sum\limits_{i = 1}^n {{{\left( {{{\widehat \alpha }_i} - {\alpha _i}} \right)}^2}} } , (10)

    其中, {\widehat \alpha _i} 指EOF系数的预测值, {\alpha _i} 指EOF系数的真实值, n为声速剖面个数。

    为验证迁移网络的预测性能, 设置三组对照实验。策略1为仅用目标域训练集数据训练LSTM神经网络; 策略2为以源域训练集数据训练LSTM神经网络, 并以目标域训练集数据微调网络, 即LSTM预训练−微调方法; 策略3为用源域和目标域训练集的全部样本训练LSTM神经网络。

    以目标域训练集为0.3 h的数据为例, 图12为三种策略下目标域测试集前三阶EOF系数的预测值。可以看出由于训练集数据不充足, 策略1预测得到的EOF系数误差很大, 而以策略2, 3预测得到的EOF系数与真实值吻合良好。图13为三种策略的声速预测误差, 三种策略均在跃层处有较大误差, 最大声速误差分别为4.82 m/s, 2.25 m/s, 2.37 m/s, 最大均方根误差分别为1.97 m/s, 1.17 m/s, 1.34 m/s。可见策略1在小样本场景下的预测效果不佳, 而策略2, 3预测精度相当。图14为不同目标域训练集样本量下, 测试集声速剖面预测的平均均方根误差。小样本情景下, 策略2, 3的精度提升更明显; 随着样本量的增多, 三种策略的预测误差接近; 其中目标域训练集样本量为1.2 h时, 三种策略的最大声速误差分别为3.21 m/s, 2.26 m/s, 2.14 m/s, 最大均方根误差分别为1.64 m/s, 1.15 m/s, 1.19 m/s。

    图  12  稳态环境下目标域测试集前三阶EOF系数的预测值 (a) 第1阶EOF系数; (b) 第2阶EOF系数; (c) 第3阶EOF系数
    图  13  稳态环境下目标域测试集声速的预测误差 (a) 策略1; (b) 策略2; (c) 策略3
    图  14  稳态环境下三种策略的声速剖面预测均方根误差 (a) 目标域训练集时长为0.3 h; (b) 目标域训练集时长为0.6 h; (c) 目标域训练集时长为1.2 h

    表1对比了场景1中三种策略下EOF预测系数误差及声速剖面的平均均方根误差及耗时, 可见以三种策略预测前三阶EOF系数的误差基本都随着目标域训练集样本量的增加而降低, 且策略1的精度提升更为明显。声速剖面预测结果也呈现同样的趋势, 这表明随着训练样本的增加, LSTM神经网络的泛化能力得以加强。对于策略2来说, 其在目标域训练样本量为0.3 h时就取得了较好的预测效果, 这表明迁移学习可以在小样本情景下取得较好的泛化能力。策略2, 3预测EOF系数的精度相当, 且策略3的预测值更为精确。但是策略3的声速预测误差却比策略2大, 这是因为声速剖面的预测误差由三项误差共同决定, EOF系数的预测精度并不是决定声速剖面预测精度的唯一因素。此外, 在训练样本量等同的情况下, 策略2, 3的预测精度相当, 但是策略2预测声速剖面的效率相比策略3提升了将近2倍。

    表  1  场景1下目标域测试集声速剖面的预测误差及耗时
    目标域训练集样本量 (h)
    0.30.61.2
    系数误差(EOF1/EOF2/EOF3)策略19.05/8.16/1.627.96/7.38/1.783.99/3.75/1.34
    策略22.69/1.41/0.831.94/1.10/0.861.52/1.02/0.79
    策略31.03/0.98/0.751.02/0.98/0.771.06/0.93/0.76
    声速误差 (m/s)策略11.230.890.80
    策略20.860.840.70
    策略30.940.840.71
    耗时 (s)策略193185279
    策略2464482500
    策略3139514871562
    下载: 导出CSV 
    | 显示表格

    同样以目标域训练集为0.3 h的数据为例, 图15为孤立子内波存在时目标域测试集前两阶EOF系数的预测值, 可以发现相比于策略1, 策略2, 3的预测结果与真实值更为吻合。图16为三种策略的声速预测误差, 最大声速误差分别为11.32 m/s, 3.10 m/s, 3.13 m/s, 最大均方根误差分别为5.31 m/s, 1.41 m/s, 1.49 m/s, 可见对于绝大多数声速剖面来说, 策略2, 3的预测精度相当, 且明显高于策略1。图17为目标域不同训练集样本量下, 测试集声速剖面预测的平均均方根误差, 可见3种情况下, 策略2, 3的预测精度均高于策略1。

    图  15  孤立子内波存在时目标域测试集前两阶EOF系数的预测值 (a) 第1阶EOF系数; (b) 第2阶EOF系数
    图  16  孤立子内波存在时目标域测试集声速的预测误差 (a) 策略1; (b) 策略2; (c) 策略3
    图  17  存在孤立子内波时不同时长训练集样本预测目标域测试集声速剖面的均方根误差 (a) 训练集时长0.3 h; (b) 训练集时长0.6 h; (c) 训练集时长1.2 h

    表2对比了场景2下目标域测试集声速剖面的预测误差及耗时, 可以看出三种策略下, EOF系数预测精度基本随着训练样本的增加而提高, 其结果与场景1一致。然而对于声速剖面预测结果来说, 其预测精度随训练集时长的增加无明显规律性。这是因为声速剖面的预测误差由三项误差共同决定, EOF系数的预测精度并不是决定声速剖面预测精度的唯一因素。由于孤立子内波的存在, 相比于场景1, 场景2中策略1需要更多的样本数据(1.2 h以上)才可能训练得到较好的网络模型, 而策略2减少了对目标域训练样本的依赖, 平均均方根误差约为1 m/s, 预测精度与策略3相当, 且计算效率相比策略3提升了将近1倍。场景2中, 策略2的计算效率提升低于场景1, 是因为需要预测的EOF系数的阶数少。重构声速剖面所需的EOF阶数越多, 策略2在计算效率上的优势越明显。

    表  2  场景2下目标域测试集声速剖面的预测误差及耗时
    训练时长 (h)
    0.30.61.2
    系数误差(EOF1/EOF2)策略125.91/4.6913.57/2.3911.09/3.54
    策略23.39/1.062.52/0.581.33/0.56
    策略31.11/0.460.99/0.461.24/0.47
    声速误差
    (m/s)
    策略12.051.421.53
    策略21.011.001.10
    策略31.011.001.10
    耗时
    (s)
    策略160124186
    策略2456462468
    策略39309861042
    下载: 导出CSV 
    | 显示表格

    声速剖面时序预测可以简化为前几阶EOF系数的回归预测问题。本研究建立了基于迁移学习的LSTM神经网络水文模型, 利用间隔14.7 km的两条温度链测量数据验证了所提方法的有效性。实验结果表明, LSTM预训练–微调方法利用一条温度链的测量数据作为源域进行预训练, 以另一条温度链的测量数据作为目标域微调预训练网络模型, 能够同时满足高精度和高效率预测声速剖面的需求。对比分析有无孤立子内波存在的两种实验场景下, 选取不同时长训练集样本时声速剖面的预测效果, 结果表明, 无孤立子内波场景中, 迁移网络在目标域训练集样本量低于0.3 h时将声速剖面预测精度提升约0.4 m/s; 有孤立子内波场景中, 预测精度提升约1 m/s。在训练样本量对等的情况下, 迁移网络在两种场景下的计算效率分别提高约2倍和1倍。因此, LSTM预训练–微调方法能够解决小样本建模的困境, 为小样本情景的网络建模提供可用的技术方法。

  • 图  1   LSTM神经网络训练模型

    图  2   LSTM预训练–微调流程

    图  3   CTD测量的声速剖面(d: 深度区间, g: 声速梯度)

    图  4   两个站点的声速剖面数据(场景1选取白色方框内的数据, 场景2选取黑色方框内的数据) (a) S17站点声速剖面; (b) H1站点声速剖面

    图  5   场景1前15阶EOF模态的累积方差贡献率

    图  6   场景1中从训练集和测试集提取的背景声速剖面及前三阶EOF基函数 (a) 背景声速剖面; (b) 第1阶EOF基函数; (c) 第2阶EOF基函数; (d) 第3阶EOF基函数

    图  7   场景1目标域声速剖面重构的均方根误差

    图  8   场景2前15阶EOF模态的累积方差贡献率

    图  9   场景2中从训练集和测试集提取的背景声速剖面及前两阶EOF基函数 (a) 背景声速剖面; (b) 第1阶EOF基函数; (c) 第2阶EOF基函数

    图  10   场景2目标域声速剖面重构的均方根误差

    图  11   场景1源域测试集第1阶EOF系数预测结果

    图  12   稳态环境下目标域测试集前三阶EOF系数的预测值 (a) 第1阶EOF系数; (b) 第2阶EOF系数; (c) 第3阶EOF系数

    图  13   稳态环境下目标域测试集声速的预测误差 (a) 策略1; (b) 策略2; (c) 策略3

    图  14   稳态环境下三种策略的声速剖面预测均方根误差 (a) 目标域训练集时长为0.3 h; (b) 目标域训练集时长为0.6 h; (c) 目标域训练集时长为1.2 h

    图  15   孤立子内波存在时目标域测试集前两阶EOF系数的预测值 (a) 第1阶EOF系数; (b) 第2阶EOF系数

    图  16   孤立子内波存在时目标域测试集声速的预测误差 (a) 策略1; (b) 策略2; (c) 策略3

    图  17   存在孤立子内波时不同时长训练集样本预测目标域测试集声速剖面的均方根误差 (a) 训练集时长0.3 h; (b) 训练集时长0.6 h; (c) 训练集时长1.2 h

    表  1   场景1下目标域测试集声速剖面的预测误差及耗时

    目标域训练集样本量 (h)
    0.30.61.2
    系数误差(EOF1/EOF2/EOF3)策略19.05/8.16/1.627.96/7.38/1.783.99/3.75/1.34
    策略22.69/1.41/0.831.94/1.10/0.861.52/1.02/0.79
    策略31.03/0.98/0.751.02/0.98/0.771.06/0.93/0.76
    声速误差 (m/s)策略11.230.890.80
    策略20.860.840.70
    策略30.940.840.71
    耗时 (s)策略193185279
    策略2464482500
    策略3139514871562
    下载: 导出CSV

    表  2   场景2下目标域测试集声速剖面的预测误差及耗时

    训练时长 (h)
    0.30.61.2
    系数误差(EOF1/EOF2)策略125.91/4.6913.57/2.3911.09/3.54
    策略23.39/1.062.52/0.581.33/0.56
    策略31.11/0.460.99/0.461.24/0.47
    声速误差
    (m/s)
    策略12.051.421.53
    策略21.011.001.10
    策略31.011.001.10
    耗时
    (s)
    策略160124186
    策略2456462468
    策略39309861042
    下载: 导出CSV
  • [1] 胡涛, 宋文华. 海洋内波对水下声场的影响. 物理, 2014; 43(10): 667−672 DOI: 10.7693/wl20141004
    [2]

    Qu K, Zhu F, Song W. A novel method for internal wave monitoring based on expansion of the sound speed profile. Acta Oceanol. Sin., 2019; 38(4): 183−189 DOI: 10.1007/s13131-019-1422-6

    [3] 屈科, 朴胜春, 朱凤芹. 一种基于内潮动力特征的浅海声速剖面构建新方法. 物理学报, 2019; 68(12): 142−152 DOI: 10.7498/aps.68.20181867
    [4]

    Rubenstein D. Observations of cnoidal internal waves and their effect on acoustic propagation in shallow water. IEEE J. Oceanic Eng., 1999; 24(3): 346−357 DOI: 10.1109/48.775296

    [5]

    Hu T, Guo S, Ma L, et al. Influence of internal wave on the space-time interference patterns of broadband acoustic field. J. Acoust. Soc. Am., 2016; 140(4): 3013−3014 DOI: 10.1121/1.4969350

    [6]

    Chen C T, Millero F J. Speed of sound in seawater at high pressures. J. Acoust. Soc. Am., 1977; 62(5): 1129−1135 DOI: 10.1121/1.381646

    [7] 任强, 徐安琪, 南峰, 等. 国产XBT在中尺度涡加密观测中的应用. 海洋测绘, 2022; 42(4): 36−39 DOI: 10.3969/j.issn.1671-3044.2022.04.009
    [8]

    Tangang F T, Hsieh W W, Tang B. Forecasting the equatorial Pacific sea surface temperatures by neural network models. Clim. Dyn., 1997; 13(2): 135−147 DOI: 10.1007/s003820050156

    [9]

    Zhang Q, Wang H, Dong J Y, et al. Prediction of sea surface temperature using long short-term memory. IEEE Geosci. Remote Sens. Lett., 2017; 14(10): 1745−1749 DOI: 10.1109/LGRS.2017.2733548

    [10] 苏林, 孙炳文, 胡涛, 等. 基于内波统计特性的声速剖面预测方法. 哈尔滨工程大学学报, 2021; 42(6): 859−865 DOI: 10.11990/jheu.202007034
    [11] 王同, 苏林, 任群言, 等. 基于注意力机制的全海深声速剖面预测方法. 电子与信息学报, 2022; 44(2): 726−736 DOI: 10.11999/JEIT210078
    [12]

    Kumar K, Savitha R, Mamun A. Ocean wave characteristics prediction and its load estimation on marine structures: A transfer learning approach. Mar. struct., 2018; 61: 202−219 DOI: 10.1016/j.marstruc.2018.05.007

    [13] 雷波, 何兆阳, 张瑞. 基于迁移学习的水下目标定位方法仿真研究. 物理学报, 2021; 70(22): 183−192 DOI: 10.7498/aps.70.20210277
    [14] 殷仕明, 徐炜, 熊一橙, 等. 基于迁移学习的长短时记忆神经网络水文模型. 水力发电学报, 2022; 41(6): 53−64 DOI: 10.11660/slfdxb.20220606
    [15]

    Taroudakis M, Papadakis J. A modal inversion scheme for ocean acoustic tomography. J. Comput. Acoust., 1993; 1(4): 395−421 DOI: 10.1142/S0218396X93000214

    [16]

    Leblanc L, Middleton F. An underwater acoustic sound velocity data model. J. Acoust. Soc. Am., 1980; 67(6): 2055−2062 DOI: 10.1121/1.384448

    [17]

    Hochreiter S, Schmidhuber J. Long short-term memory. Neural Comput., 1997; 9(8): 1735−1780 DOI: 10.1162/neco.1997.9.8.1735

    [18]

    Mackenzie K. Nine-term equation for sound speed in the oceans. J. Acoust. Soc. Am., 1981; 70(3): 807−812 DOI: 10.1121/1.386920

图(17)  /  表(2)
计量
  • 文章访问数:  183
  • HTML全文浏览量:  35
  • PDF下载量:  48
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-07-10
  • 修回日期:  2023-09-09
  • 网络出版日期:  2024-08-21
  • 刊出日期:  2025-01-10

目录

/

返回文章
返回