Home Journals Progress in Geophysics
Progress in Geophysics

Abbreviation (ISO4): Prog Geophy      Editor in chief:

About  /  Aim & scope  /  Editorial board  /  Indexed  /  Contact  / 

Random noise suppression for pre-stack seismic data based on self-supervised learning via iterative data refinement

  • ZhanZhan SHI , 1, 2 ,
  • Guo HUANG 1 ,
  • QingLi CHEN 1 ,
  • Su PANG 3, 4 ,
  • YuanJun WANG 2, 4
Expand
  • 1 School of Artificial Intelligence, Leshan Normal University, Leshan 614000, China
  • 2 School of Land and Resources, China West Normal University, Nanchong 637002, China
  • 3 The Engineering and Technical College, Chengdu University of Technology, Leshan 614000, China
  • 4 College of Geophysics, Chengdu University of Technology, Chengdu 610059, China

Received date: 2023-06-30

  Online published: 2024-12-19

Copyright

Copyright ©2024 Progress in Geophysics. All rights reserved.

Abstract

The requirement of a large amount of noisy-clean training dataset is one of the main bottlenecks restricting deep learning denoising. A self-supervised pre-stack seismic random noise suppression method based on iterative data refinement is proposed, which uses only noise samples to train the deep neural networks. The method firstly uses the multiple regression theory to estimate the random noise in the common offset gathers, and then superimposes the noise components to the noisy samples to construct the strong noise samples. Taking the skip network as the model, each iteration is divided into two steps: (1) Taking the strong noise samples as input, the weak noise samples are predicted by the last iteration optimization model; (2) Constructing the nosier-noise training dataset, the network model is optimized with a supervised learning strategy. The advantages of the algorithm are as follows: (1) The noise samples that are drawn from the distribution, which is approximately the same as the actual noise, are estimated by using the characteristics of the flat events of the common offset gathers; (2) With the increase of the number of iterations, the predicted weak noise samples are similar to the actual clean samples, it is feasible to learn a self-supervised network approximating the optimal parameters of a supervised model; (3) The iterative data refinement strategy achieves data augmentation, increases the number of samples, and avoids overfitting. Experiments on synthetic and realistic noise removal demonstrate that the iterative data refinement approach achieves state-of-the-art performance.

Cite this article

ZhanZhan SHI , Guo HUANG , QingLi CHEN , Su PANG , YuanJun WANG . Random noise suppression for pre-stack seismic data based on self-supervised learning via iterative data refinement[J]. Progress in Geophysics, 2024 , 39(5) : 1824 -1837 . DOI: 10.6038/pg2024HH0195

0 引言

压制随机噪声能够有效提高地震资料的信噪比,为后续处理、解释流程提供高保真地震数据(Zhang and Ulrych, 2003; Hlebnikov et al., 2021).近几十年,业内已经提出了多类随机噪声压制方法,如预测滤波(如f-x VMD去噪(Liu et al., 2021))、稀疏变换(如wavelet (孟娟等, 2021)、curvelet (王常波等, 2020)和seislet (Liu et al., 2015)变换等)、字典学习(Chen, 2020)、低秩和降秩算法(Anvari et al., 2021)等.这些算法成功应用的前提是信号和噪声在某种域中的分布特征不同,因此,去噪前需要已知信号和噪声分布的先验信息.
随着硬件瓶颈的突破,深度学习已经广泛应用到地震处理的各个流程,如波阻抗反演(Yang and Ma, 2019; Wu et al., 2020)、断层识别(An et al., 2021)、地震相分类(Zhang et al., 2020)和随机噪声压制(Yu et al., 2019; Zhao et al., 2022).深度学习随机噪声压制大多采用监督学习策略,训练样本的构造方式主要分为2类:(1)将地震随机噪声假设为加性Gaussian噪声,向纯净的合成地震记录或传统方法去噪结果中混入固定或随机方差的Gaussian噪声构造含噪声-纯净训练样本集(Yu et al., 2019); (2)以传统方法去噪结果为标签构造含噪声-弱噪声样本集.地震随机噪声由环境、地层介质和采集仪器设备等多个源产生,不同源产生的随机噪声分布不同,将地震随机噪声假设为Gaussian噪声,限制了去噪方法的通用性(Liu et al., 2018).且由合成地震记录或传统算法去噪结果构造的训练样本集的数据分布特征与待处理数据的分布特征存在差异,还需要通过迁移学习将训练模型迁移到目标域.如Saad和Chen (2020)提出迁移学习去噪算法,预训练阶段由合成地震记录构造成对训练样本,以监督学习策略训练深度降噪自编程机,迁移学习阶段利用自相似性损失函数迁移学习实际地震数据.此外,也可以采用无监督和自监督学习方法压制地震噪声,仅利用噪声样本参与训练,能够有效避免构造成对样本集问题.如Liu等(2021)将深度图像先验(Deep Image Prior, DIP)(Ulyanov et al., 2020)应用到地震随机噪声压制,该方法以单张样本为训练数据,处理多条测线需要重复训练网络模型.Meng等(2022)提出自监督去噪方法,利用J-不变函数对样本进行掩膜,网络输入和输出分别为含噪声样本和掩膜结果.Sun等(2022)将J-不变函数掩膜结果切分为源域和目标域数据集,利用自监督迁移学习机制训练去噪网络,提出了基于自监督迁移学习的地震随机噪声压制方法.
网络结构是影响深度学习去噪的一个重要因素.常用的地震去噪网络模型主要包括3类:(1)顺序线性网络模型,这类模型将多个层依次添加到顺序容器中,组成线性网络模型.如经典的卷积神经网络(Convolutional Neural Network, CNN)(周飞燕等, 2017; 杨冠雨等, 2020).与CNN去噪将含噪声样本映射为纯净样本不同,降噪卷积神经网络(Denoising CNN, DnCNN)(Zhang et al., 2017)使用更深的网络结构预测噪声成分,利用残差学习(residual learning)和批归一化(batch normalization)加速网络训练.为了拟合复杂数据分布特征,需要叠加更多卷积层,而网络层数增加会引起梯度消失问题.He等(2016)提出深度残差学习(deep residual learning)用残差模块(residual block)取代部分卷积层,能够有效避免梯度消失问题.深度残差网络(deep residual network, ResNet)已经成为构造超深层网络模型最重要的基础网络结构(backbone model);(2)沙漏型网络模型,这类模型主要包括自编程机(Saad and Chen, 2020)和U型神经网络(U-net)(Ronneberger et al., 2015)及其改进型.这类网络由串联的编码器和解码器组成,编码器逐层提取信号的空间语义特征,并分离噪声分量,该过程将高维噪声数据映射到纯净的低维的隐表示空间;而解码器由若干上采样层组成,将编码器抽取的高层语义特征重构为原尺寸的纯净样本.U-net网络结构采用通道拼接方式融合深浅层特征,存在语义鸿沟问题,学界提出了多种改进算法,如skip网络(Ulyanov et al., 2020)和MultiResUNet网络(Ibtehaz and Rahman, 2020)等;(3)生成对抗网络(Generative Adversarial Networks, GAN)(Goodfellow et al., 2014),该网络对抗训练生成器和鉴别器,能够有效拟合样本的分布特征.当用于地震去噪时,将生成器用作降噪网络,以噪声样本为输入,训练生成器网络产生能够欺骗鉴别器的去噪结果.而训练鉴别器的目标是将生成器生成结果判别为假(Wang et al., 2021).
针对地震噪声复杂分布特征和成对样本构造困难,提出基于迭代数据增强(Iterative Data Refinement, IDR)(Zhang et al., 2022)的自监督叠前地震随机噪声压制方法.由噪声建模和去噪2个子网络串联组成网络模型实现端到端去噪处理,其中由多元回归理论(multiple regression theory)构造噪声建模子网络,去噪子网络采用skip网络.算法首先抽取共偏移距道集训练样本,利用多元回归理论估计地震噪声,与含噪声样本叠加构造强噪声样本.在去噪子网络训练环节,每次迭代由强噪声样本和估计的弱噪声样本构造成对训练集优化网络模型.与传统方法的区别是:(1)针对复杂噪声分布特征,将地震去噪分解为噪声建模和去噪2个环节,无需假设噪声先验信息,实现数据驱动下的噪声自适应建模; (2)传统深度学习地震去噪方法未考虑地震道集特征,提出在共偏移距道集中抽取训练样本,利用共偏移距道集平缓同相轴特征,提高噪声估计和去噪能力; (3)原始IDR方法用于图像去噪,对训练样本混叠Gaussian噪声,而所提方法针对地震噪声复杂分布特征,提出利用多元回归理论预测地震噪声.

1 方法原理

构造成对的含噪声-纯净训练样本集是阻碍深度神经网络用于地震去噪的重要因素之一.如能有效建模实际样本的噪声分布特征,就可以通过采样噪声分布构造出接近于真实噪声的噪声样本.由噪声样本与实际含噪声地震样本叠加就能构造出强噪声-弱噪声样本集,再利用IDR训练去噪子网络,从而实现自监督噪声压制.本节分为3个小节,分别论述基于IDR的自监督去噪方法、地震噪声分布特征和基于多元回归的噪声估计方法.

1.1 自监督去噪方法原理

深度神经网络去噪方法分为监督学习去噪和非监督学习去噪2类,其中监督学习方法研究更为深入,且去噪性能优于非监督学习.但训练监督学习网络f(θ)依赖成对的含噪声-纯净样本集{yi, xi}(其中yi为含噪声地震样本,xi表示纯净地震样本).最小化自监督目标函数等价于求解网络参数θ的最大似然估计:
式中,p(yi, xi)为噪声和纯净样本的联合概率,分别为期望和条件期望,yx分别为含噪声和纯净样本.
然而深度学习处理实际地震数据面临问题是仅存在含噪声地震信号,无法直接训练监督学习网络模型.当有效信号的期望和方差远大于随机噪声的期望和方差(即满足和Var(x)≥Var(n),算子Var(·)表示方差,n为地震噪声)时,含噪声样本的期望近似等于纯净样本的期望.若对含噪声样本中混入同分布随机噪声,构造新的强噪声样本z,则其期望满足(式中ns为模拟噪声样本,并满足和Var[ns]≈Var[n]).假设去噪网络能够部分压制地震随机噪声,分离出随机噪声近似满足和Var[nd]≈Var[n](式中nd为分离出随机噪声),则去噪结果x*=xnd满足[x].利用全期望公式可以得到:
将式(2)带入式(1)得到:
可以看出由zx*构造强噪声-弱噪声训练集{zi, xi*}训练去噪网络近似等价于用噪声-纯净样本集{yi, xi}训练网络.
但如下节所述地震噪声由多个源产生,具有复杂的分布特征,不满足Gaussian噪声假设,因而不能简单地向训练样本中混入Gaussian噪声构造强噪声-弱噪声训练集.原因是向样本中混入的Gaussian噪声分布特征与实际噪声分布不同,模型的去噪性能必然降低.同时,处理实际数据时存在外推问题,造成处理结果不确定性偏高,降低去噪结果的可信度.
针对地震去噪问题,构造一种串联去噪模型,网络模型由噪声建模子网络和去噪子网络组成.考虑到沉积岩覆盖区,地下地层近似水平.同时共偏移距道集中各道信号偏移距相同,消除了偏移距变化的影响.因此,与共炮点道集、共接收点道集和共中心点道集相比,共偏移距道集中地震同相轴具有平缓的结构特征,各道地震信号反射波到达时间近似一致(如图 1所示).地层介质横向缓变,道集中相邻道信号具有较高的相干度,而道间随机噪声不相干.受文献Bioucas-Dias和Nascimento (2008)启发,采用多元回归理论分离共偏移距道集样本的随机噪声,第2节数值模拟部分将通过实验验证多元回归理论虽不能完全分离地震随机噪声,但预测噪声分布特征与实际噪声分布近似相同,满足上述去噪模型对样本集的要求.
图1 地震道集示意图(上图:射线路径; 下图:模拟地震道集)

(a)共炮点道集;(b)共接收点道集;(c)共偏移距道集.

Figure 1 Schematic figure illustrating the seismic gathers (top: ray path geometry; bottom: synthetic seismic gathers)

(a) Common-shot gather; (b) Common-receiver gather; (c) Common-offset gather.

将预测噪声与原始含噪声样本进行叠加就能构造强噪声样本集,参与去噪子网络训练.第1次迭代以原始含噪声样本为标签,构造强噪声-弱噪声样本集;当迭代次数k>1时,由上一次迭代优化模型预测降噪样本为标签,构造成对样本集.随着迭代次数增加,预测的降噪样本更加接近纯净样本,强噪声-弱噪声样本集训练的网络模型参数收敛于由含噪声-纯净样本集训练的监督学习网络模型.
整个IDR自监督去噪算法流程可以归纳为:
(1) 抽取共偏移距道集;
(2) 由含噪声地震数据构造含噪声样本,利用多元回归理论预测样本噪声分量;
(3) 迭代优化去噪子网络.当迭代次数k=1时,以强噪声样本为特征和原始含噪声样本为标签,构造强噪声-弱噪声样本集;当迭代次数k>1时,由上一次迭代优化模型预测降噪样本为标签,构造新的成对样本集.

1.2 地震噪声

传统的地震去噪方法假设随机噪声为加性Gaussian噪声,含噪声地震信号可以表示为y=s+n(ysn分别为含噪声信号、纯净信号和Gaussian噪声).实际地震资料中随机噪声不仅包括Gaussian噪声,还包括由近地表的非均匀性引起的成像噪声和散射噪声等非Gaussian噪声.可将含噪声信号建模为:
式中,n1=n11+n12+⋯和n2=n21+n22+⋯分别表示模拟增益和数字增益之前受到的噪声干扰,nq为量化噪声,KaKd分别为模拟增益和数字增益.可以看出地震信号中噪声由多个源产生,受到的增益也不相同.因此,不能简单将地震噪声假设为加性Gaussian噪声.

1.3 基于多元回归的噪声估计方法

如1.1节所述,共偏移距道集具有平缓的同相轴结构特征,各道反射波到达时间近似相同,波形一致或缓变.由共偏移距道集抽取含噪声样本,样本中各道信号具有较高的道间相关性,噪声不相干.每道数据的有效信号分量可近似由其他道信号线性表示,噪声分量为表示残差:
式中,yi为样本中第i道信号;Yi为样本去除第i道构成的新矩阵,其列数比yi少1;βi为表示系数;ni为第i道残差分量.利用最小二乘法估计最佳的表示系数为:
式中,上标T和-1分别表示矩阵的转置和逆矩阵.逐道对样本中各信号道进行线性表示,求取表示残差就能分离出地震噪声:
式中,为多元回归算法估计噪声分量.
在共偏移距道集中采用多元回归理论估计样本噪声仅利用有效信号的道间相干性假设条件,无需对噪声模型进行假设,实现了地震噪声的盲估计.需要说明的是基于多元回归的噪声估计方法假设地震同相轴近似水平.当同相轴倾角过大等复杂情况下,可通过插值等波场重建方法增加地震道,从而构造满足平缓同相轴假设条件的训练样本.数值模拟部分通过实验验证该方法虽不能充分分离信号噪声,但所估计噪声与实际噪声分布相同,满足所提IDR自监督去噪算法要求.

2 数值模拟

构造层状地质模型,以中间放炮双边接收观测系统模拟叠前地震道集.观测系统参数为:道间距25 m,64道接收,排列长度为25 m×(64-1)=1575 m,共激发64炮.实际地震数据中,各道信号噪声条件不同,因此,向合成地震记录中每道混入不同强度的随机噪声(加噪后,含噪声地震道信噪比为1~10 dB)构造含噪声地震道集.图 2展示正演模拟共炮点道集和抽取的共偏移距道集.共炮点道集中不同地层反射波均为双曲线同相轴,各道反射波到达时间不同,而共偏移距道集中各层反射波具有平缓的同相轴结构,双程走时近似相同.以该数据集为例,首先验证基于多元回归的共偏移距道集噪声估计方法的有效性,然后分别在共偏移距道集和共炮点道集中对比不同去噪算法.
图2 模拟地震数据

(a)纯净共炮点道集;(b)纯净共偏移距道集;(c)加噪共炮点道集;(d)加噪共偏移距道集.

Fig 2 Synthetic seismic data set

(a) Clean common-shot gather; (b) Clean common-offset gather; (c) Noisy common-shot gather; (d) Noisy common-offset gather.

2.1 噪声估计方法验证

分别在共偏移距道集和共炮点道集抽取训练样本(样本尺寸64×64采样点,2种道集分别抽取训练样本18000个),利用多元回归算法估计样本噪声.共炮点道集中各地层反射波均为双曲线同相轴,不同地层反射波倾角各不相同.抽取的含噪声样本纹理特征复杂,样本中各道信号存在时差,降低道间相干性(图 3a).而共偏移距道集中反射波具有平缓的同相轴结构,抽取的含噪声样本中道间时差小,相干度高(图 3d),满足多元回归算法假设条件.对比2种道集抽取的噪声样本(图 3be)的功率谱可以看出,共偏移距道集样本估计噪声功率谱与实际噪声功率谱一致(图 3f),而共炮点道集样本计算的噪声功率谱与实际功率谱存在明显差异(如图 3c中箭头所示).说明在共偏移距道集中能够有效估计与实际噪声同分布的噪声分量.
图3 2种道集估计噪声样本和噪声功率谱对比

(a)共炮点道集含噪声样本;(b)多元回归算法预测样本(a)的噪声分量;(c)共炮点道集样本噪声分量(b)的功率谱; (d)共偏移距道集含噪声样本;(e)多元回归算法预测样本(d)的噪声分量;(f)共炮点道集样本噪声分量(e)的功率谱.

Fig 3 Comparison of the noise samples and noise power spectrum estimated by the 2 gathers

(a) Noise sample extracted from the common-shot gather; (b) Noise component of sample (a) predicted by multiple regression; (c) Power spectrum of the noise component (b); (d) Noise sample extracted from the common-offset gather; (e) Noise component of sample (b) predicted by multiple regression; (f) Power spectrum of the noise component (e).

由估算的噪声样本重构叠前噪声道集,可见共炮点道集样本估计的噪声分量中残留明显的连续同相轴(如图 4a中箭头所示),而共偏移距道集样本估计的噪声分量符合随机噪声分布特征,且剖面无连续同相轴泄露(图 4b).分别计算2种道集预测的噪声分量与实际噪声的能量,可以看出共炮点道集样本估计噪声的能量远高于实际噪声能量(图 5a),说明共炮点道集样本不符合多元回归理论假设条件,将有效信号预测为地震噪声(图 3b中泄露连续同相轴).而共偏移距道集抽取的样本基本符合多元回归理论假设条件,所估计的噪声能量与实际噪声能量仅存在较小的差异(图 5b).说明利用多元回归理论,虽不能充分去除随机噪声,其估计的噪声分量与实际噪声分布相同,能够用于构造强噪声-弱噪声样本集参与去噪子网络的训练.
图4 2种噪声道集对比分析

(a)共炮点道集;(b)共偏移距道集.

Fig 4 Comparison and analysis of 2 kinds of noise gathers

(a) Common-shot gather; (b) Common-offset gather.

图5 2种道集估算噪声能量对比

(a)损失函数曲线;(b)相对误差曲线;(c)峰值信噪比曲线;(d)结构相似性曲线.

Fig 5 Comparison of estimated noise energy of 2 gathers

(a) Common-shot gather; (b) Common-offset gather.

2.2 自监督去噪方法验证

为了验证所提的IDR自监督学习去噪方法的有效性,分别在共炮点道集和共偏移距道集抽取训练样本构造成对样本集.分别对IDR、Noiser2Noise (Moran et al., 2020)、Noise2Self (Batson and Royer, 2019) 3种自监督学习和监督学习算法进行对比.实验平台为Dell Precision 7780移动工作站,CPU为Core(TM) i7-12850HX,32 GB内存,GPU为NVIDIA GeForce RTX 3080 Ti Laptop.采用含噪声样本和纯净样本训练监督学习,Noiser2Noise和Noise2Self 2种自监督去噪方法使用含噪声样本和估计噪声构造训练集,分别采用估计噪声和Gaussian噪声(噪声功率计算公式为,其中,Pn噪声功率,Pnoisy为含噪声样本功率,实验中NdB分别取100、50和5)训练IDR算法.各组实验均采用skip网络模型,学习率为5.0e-4,批大小为64,25次迭代,利用ADAM算法优化网络模型,最小化均方根损失函数,以去噪结果的相对误差、峰值信噪比和结构相似性3种参数衡量不同模型的去噪能力.实验结果如表 1所示,可见:(1)共偏移距道集样本具有简单的纹理结构,各算法在共偏移距道集中应用效果优于共炮点道集;(2)采用估计噪声构造训练样本,IDR算法各项指标优于Noiser2Noise和Noise2Self 2种算法,性能更加接近监督学习去噪;(3)通过叠加估计噪声训练IDR算法模型,计算结果明显好于Gaussian噪声.说明了在共偏移距道集中利用多元回归理论估计噪声参与去噪模型训练能够取得较好的应用效果.
表1 去噪方法对比分析

Table 1 Comparison and analysis of denoising methods

道集类型 方法 噪声类型 损失函数 相对误差/% 峰值信噪比/dB 结构相似性
*最后5个样点的平均值.
共偏移距道集 IDR 估计噪声 2.98e-08 9.10% 67.6 0.999
NdB=100 1.92e-07 24.1% 57.3 0.995
NdB=50 4.44e-07 51.9% 55.8 0.976
NdB=5 2.04e-08 103% 47.6 0.925
监督学习 估计噪声 8.21e-08 4.71% 74.4 0.999
Noise2Self 估计噪声 4.36e-07 19.39%* 60.47* 0.995*
Noiser2Noise 估计噪声 1.80e-07 13.9% 63.4 0.998
共炮点道集 IDR 估计噪声 2.54e-07 30.6% 56.7 0.991
NdB=100 1.49e-07 61.5% 48.8 0.962
NdB=50 2.35e-07 49.2% 50.7 0.959
NdB=5 2.16e-08 102% 44.5 0.938
监督学习 估计噪声 2.81e-07 8.78% 66.2 0.999
Noise2Self 估计噪声 1.91e-06 33.7% 54.7 0.995
Noiser2Noise 估计噪声 2.37e-07 37.4% 53.3 0.993
训练神经网络的目的是有效压制随机噪声.以损失函数和相对误差、峰值信噪比及结构相似性3种参数为性能指标,对共偏移距道集样本训练过程进行对比(图 6).4种算法模型都具有较好的收敛性(图 6a),随着迭代次数增加,4种模型预测结果与纯净样本之间的相对误差逐渐减小,峰值信噪比和结构相似性逐渐增加.IDR算法3种性能指标均高于Noiser2Noise和Nise2self去噪,进一步验证了所提方法具有明显优势.
图6 4种算法收敛性对比

Fig 6 Comparison of convergence of the 4 algorithms

(a) The loss functions of the 4 algorithms; (b) Relative error; (c) Peak signal to noise ratio; (d) Structural similarity.

训练样本与待处理数据分布特征可能存在差异,网络的泛化能力是评价网络性能的重要指标.由共偏移距道集抽取测试样本集,对损失函数(图 7a)、相对误差(图 7b)、峰值信噪比(图 7c)和结构相似性(图 7d)4种性能指标进行对比.可见,测试集上,基于IDR自监督去噪方法4种性能指标接近监督学习.与训练过程对比,4种指标均未发生明显降低.说明所提共偏移距道集IDR方法具有较好的泛化能力和去噪能力,训练过程未发生过拟合.而Noiser2Noise和Nise2self 2种自监督去噪算法的损失函数和相对误差明显高于新方法和监督学习,峰值信噪比和结构自相似性低于其他2种模型.
图7 测试集4种性能指标对比分析

(a)损失函数曲线;(b)相对误差曲线;(c)峰值信噪比曲线;(d)结构相似性曲线.

Fig 7 Comparison and analysis of the four performance indicators in the testing dataset

(a) The loss functions of the 4 algorithms; (b) Relative error; (c) Peak signal to noise ratio; (d) Structural similarity.

由共偏移距道集IDR去噪结果重构共偏移距道集(图 8a)与纯净道集(图 2b)对比可见,IDR自监督去噪能有效压制信号噪声,处理后剖面无明显噪声残留,滤波残差剖面无明显连续同相轴泄露,说明该方法能够保持有效信号不被破坏.将共偏移距道集处理结果和滤波残差反变换回共炮点道集(图 8bd)也能得到相同结论.
图8 共偏移距道集IDR去噪结果和滤波残差

(a)共偏移距道集去噪结果;(b)去噪结果抽取共炮点道集;(c)共偏移距道集处理残差;(d)共炮点道集残差.

Fig 8 IDR denoising results and filter residuals of the common offset gathers

(a) The denoising results of the common-offset gather; (b) Denoised common-shot gather is drawn from the denoising results of the common-offset gather; (c) The residual corresponding to (a); (d) The residual corresponding to (b).

实验中可以调整的参数主要有批大小、学习率、样本数量和样本尺寸.其中,样本数量和样本尺寸是决定深度网络模型性能的关键参数.在32×32和64×64 2种样本尺寸下,使用不同数量训练样本,对神经网络模型的性能进行定量对比如表 2所示.可以看出,随着训练样本尺寸增加,网络模型中间变量参数量(Forward/backward pass size)显著增加,网络模型性能得到提升,表现为损失函数、相对误差降低,峰值信噪比和和结构相似性提高.其次,对于同一深度学习问题,而参数配置不同这种情况下,尤其是自监督学习问题,损失函数可以作为参数选择的依据.但需要注意的是增加训练样本尺寸和样本数量,训练网络模型时长会显著增加,实际应用中应该根据实际情况折中选择.
表2 不同参数配置下神经网络性能对比

Table 2 Comparison of the performance of the deep neural network with different parameter configuration

训练样本尺寸 中间变量参数量/MB 样本数量 损失函数 相对误差/% 峰值信噪比/dB 结构相似性 训练时长/s
32×32 1.42 4500 6.06e-08 12.1 65.8 0.996 63.1
9000 3.81e-08 12.45 64.74 0.996 124.95
18000 6.13e-08 11.80 66.0 0.999 345.4
64×64 5.69 4500 6.33 e-08 11.9 64.8 0.998 194.9
9000 3.15e-08 10.99 66.8 0.999 352.19
18000 2.98e-08 9.10 67.6 0.999 700.1

3 应用实例

以北海Viking地堑某二维测线为例,对提出的IDR自监督去噪方法进行试算.图 10af分别展示原始共炮点道集和共偏移距道集,可见共炮点道集由双曲线同相轴组成,剖面纹理结构复杂;而共偏移距道集不同地层反射波均为近似水平的平缓同相轴,剖面纹理结构简单,各道信号到达时间近似相同,具有较好的道间相干性,满足多元回归理论假设前提.实验首先将数据变换到共偏移距道集,由共偏移距道集抽取训练样本,样本大小为64×64采样点.再利用多元回归算法估计样本的噪声分量,参与网络训练.从图 9可见,样本中局部同相轴近似水平,预测噪声分量符合基本符合随机噪声分布特征,无残留连续同相轴,说明共偏移距道集中能够有效估计信号噪声.
图9 共偏移距道集样本噪声估计

(a)原始共炮点道集;(b)IDR去噪结果;(c)IDR去噪结果抽取共炮点道集;(d)Noise2Self去噪结果抽取共炮点道集;(e)小波变换去噪结果抽取共炮点道集;(f)原始共偏移距道集;(g)IDR滤波残差;(h)(c)对应的残差剖面;(i)Noise2Self残差剖面;(j)小波变换残差剖面.

Fig 9 Noise estimation of common offset gathers

图10 实际地震资料共偏移距道集去噪处理

Fig 10 Actual seismic data denoising processing in the common-offset gathers

(a) Original common-shot gather; (b) Denoising result of IDR; (c) Denoised common-shot gather is drawn from the denoising results of the common-offset gather; (d) Denoising result of Noise2Self which is performed in the common-offset gather; (e) Denoising result of wavelet transform; (f) Original common- offset gather; (g) The residual of IDR; (h) The residual corresponding to (c); (i) The residual of Noise2Self; (j) The residual of wavelet transform.

表3 实际数据不同参数配置下损失函数对比

Table 3 Comparison of loss functions under different parameter configurations for actual data

样本尺寸 32×32 64×64
样本数量 4500 9000 18000 4500 9000 18000
损失函数 1.27e-4 1.15e-4 1.06e-4 1.04-4 9.46e-05 6.97e-05
训练时长/s 60.3 122.4 247.7 174.3 349.6 1014.8
利用共偏移距道集样本训练IDR网络模型,对数据进行降噪处理,与原始共偏移距道集(图 10f)对比可见,去噪后共偏移距道集噪声水平降低(图 10b),信噪比和同相轴连续性提高,残差剖面无明显连续同相轴残留(图 10g).将处理结果和滤波残差反变换回共炮点道集(图 10ch)也可以看出所提算法具有明显优势.为了进一步突出算法优势,在共偏移距道集中试算Nise2self模型和小波变换去噪2种方法,去噪后再将处理结果和滤波残差反变换回共炮点道集.可见,Nise2self和小波变换都能有效压制随机噪声,但这2种方法对有效信号的保持能力不足,Nise2self算法滤波残差中残留连续水平虚假异常(图 10i),小波变换去噪残差剖面泄露明显的连续同相轴,进一步验证IDR自监督去噪模型的优势.

4 结论

(1) 训练深度学习地震去噪模型依赖大规模的含噪声-纯净样本集.当已知噪声分布时,可向含噪声样本中混入实际地震噪声构造强噪声-弱噪声样本集参与训练,模型参数能够收敛到含噪声-纯净样本训练结果.
(2) 有效建模地震噪声是IDR自监督去噪方法成功应用的前提.地震噪声为复杂的非Gaussian噪声,而在实际应用中,不能简单地向训练样本中混入Gaussian噪声构造成对样本集.共偏移距道集具有平缓的同相轴结构特征,满足多元回归理论的道间相似性假设.可利用多元回归算法估计共偏移距道集样本噪声分量.
(3) 通过合成地震记录和实际数据对所提模型进行试算,验证所提方法能够有效压制地震随机噪声,同时保持有效信号不被破坏.

感谢审稿专家提出的修改意见和编辑部的大力支持!

An Y , Guo J L , Ye Q . Deep convolutional neural network for automatic fault recognition from 3D seismic datasets. Computers & Geosciences, 2021, 153: 104776.

DOI

Anvari R , Kahoo A R , Monfared M S . Random noise attenuation in seismic data using hankel sparse low-rank approximation. Computers & Geosciences, 2021, 153: 104802.

DOI

Bioucas-Dias J M , Nascimento J M P . Hyperspectral subspace identification. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46(8 2435-2445.

DOI

Chen Y K . Fast dictionary learning for noise attenuation of multidimensional seismic data. Geophysical Journal International, 2020, 222(3): 1717-1727.

DOI

Hlebnikov V , Elboth T , Vinje V . Noise types and their attenuation in towed marine seismic: a tutorial. Geophysics, 2021, 86(2): W1-W19.

DOI

Ibtehaz N , Rahman M S . MultiresUNet: rethinking the U-Net architecture for multimodal biomedical image segmentation. Neural Networks, 2020, 121: 74-87.

DOI

Liu Q , Fu L H , Zhang M . Deep-seismic-prior-based reconstruction of seismic data using convolutional neural networks. Geophysics, 2021, 86(2): V131-V142.

DOI

Liu Y , Fomel S , Liu C . Signal and noise separation in prestack seismic data using velocity-dependent seislet transform. Geophysics, 2015, 80(6): WD117-WD128.

DOI

Meng F L , Fan Q Y , Li Y . Self-supervised learning for seismic data reconstruction and denoising. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 7502805.

DOI

Meng J , Han Z M , Gao Q . Seismic surface wave suppression algorithm based on Wavelet Spectrum Energy Curve-Empirical Wavelet Transform (WSEC-EWT). Progress in Geophysics, 2021, 36(4): 1581-1589.

DOI

Saad O M , Chen Y K . Deep denoising autoencoder for seismic random noise attenuation. Geophysics, 2020, 85(4): V367-V376.

DOI

Sun H M , Yang F S , Ma J W . Seismic random noise attenuation via self-supervised transfer learning. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 8025805.

DOI

Ulyanov D , Vedaldi A , Lempitsky V . Deep image prior. International Journal of Computer Vision, 2020, 128(7): 1867-1888.

DOI

Wang C B , Tian K , Liu L B . Ground-roll attenuation method based on the seismic wavelet supported and sparse constraint in Curvelet domain. Progress in Geophysics, 2020, 35(1): 181-187.

DOI

Wang H Z , Li Y , Dong X T . Generative adversarial network for desert seismic data denoising. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(8): 7062-7075.

DOI

Wu B Y , Meng D L , Wang L L . Seismic impedance inversion using fully convolutional residual network and transfer learning. IEEE Geoscience and Remote Sensing Letters, 2020, 17(12): 2140-2144.

DOI

Yang F S , Ma J W . Deep-learning inversion: a next-generation seismic velocity model building method. Geophysics, 2019, 84(4): R583-R599.

DOI

Yang G Y , Wang L , Meng F S . Seismic data reconstruction via deep convolution neural network. Progress in Geophysics, 2020, 35(4): 1497-1506.

DOI

Yu S W , Ma J W , Wang W L . Deep learning for denoising. Geophysics, 2019, 84(6): V333-V350.

DOI

Zhang K , Zuo W M , Chen Y J . Beyond a Gaussian denoiser: residual learning of deep CNN for image denoising. IEEE Transactions on Image Processing, 2017, 26(7): 3142-3155.

DOI

Zhang R F , Ulrych T J . Physical wavelet frame denoising. Geophysics, 2003, 68(1): 225-231.

DOI

Zhang Y X , Liu Y , Zhang H R . Seismic facies analysis based on deep learning. IEEE Geoscience and Remote Sensing Letters, 2020, 17(7): 1119-1123.

DOI

Zhao H X , Bai T T , Wang Z Q . A natural images pre-trained deep learning method for seismic random noise attenuation. Remote Sensing, 2022, 14(2): 263.

DOI

Zhou F Y , Jin L P , Dong J . Review of convolutional neural network. Chinese Journal of Computers, 2017, 40(6): 1229-1251

, 智明 , . 基于小波谱能量曲线ewt的面波压制算法. 地球物理学进展, 2021, 36(4): 1581-1589.

DOI

常波 , , 立彬 . 基于地震子波支撑和Curvelet域稀疏约束的面波衰减方法. 地球物理学进展, 2020, 35(1): 181-187.

DOI

冠雨 , , 凡顺 . 基于深度卷积神经网络的地震数据重建. 地球物理学进展, 2020, 35(4): 1497-1506.

DOI

飞燕 , 林鹏 , . 卷积神经网络研究综述. 计算机学报, 2017, 40(6): 1229-1251

Outlines

/