视频监控的数据驱动背景模型
李志慧1, 夏英集1, 曲昭伟1, 任景琛2
1.吉林大学 交通学院,长春 130022
2.北京师范大学 统计学院,北京 100875
通讯作者:曲昭伟(1962-),男,教授,博士生导师.研究方向:交通控制.E-mail:quzw@jlu.edu.cn

作者简介:李志慧(1977-),男,副教授,博士.研究方向:交通视频检测与处理.E-mail:lizhih@jlu.edu.cn

摘要

针对现有背景模型假设引起的失效问题,根据数据驱动思想,建立了一种基于数据驱动的背景模型表示方法。该方法通过全格式动态线性化的无模型自适应控制方法,引入系统的伪梯度向量,结合多步历史数据,建立背景表达和选择性更新策略,获取视频背景。实验过程通过不同场景视频序列和经典背景模型方法进行对比,实验结果表明:本文算法具有背景更新效果较好、计算量适中、鲁棒性强等优点,且克服了机理模型中对模型假设的依赖及模型失效等问题。因此,本文基于数据驱动的背景模型算法可为在线视频检测系统的背景抽取提供有力的技术支持和参考。

关键词: 计算机应用; 背景更新; 无模型自适应控制; 背景差分; 视频监控
中图分类号:U495;TP391.4 文献标志码:A 文章编号:1671-5497(2017)04-1286-09
Data-driven background model in video surveillance
LI Zhi-hui1, XIA Ying-ji1, QU Zhao-wei1, REN Jing-chen2
1.College of Transportation, Jilin University, Changchun 130022, China
2.School of Statistics, Beijing Normal University, Beijing 100875,China
Abstract

The current modeling assumption may induce background distortion. To solve this problem, a new background model based on data-driven theory is proposed. Model-free adaptive control method is used to express the value of the online video sequence. The slow process of background illumination change is regarded as a nonlinear time-varying system, and is expressed via dynamic linearization using pseudo-gradient vector. Then, the expression is iterated with the combination of historical data and selective background update method to complete the background model iteration process. Experiments are carried out based on different video cases. Results show that the model can get better foreground and more stable background than Kalman filter and Gaussian-mixture model. Furthermore, the data-driven method of the proposed model overcomes the disadvantages of the mechanism models, and its computational efficiency and robustness make it applicable to online video processing and detection of moving objects.

Keyword: computer application; background update; model-free adaptive control; background subtraction; video surveillance
0 引 言

背景模型对运动目标的检测起着至关重要的作用。国内外关于背景模型的研究可归纳为:中值滤波法[1], 该方法通过建立动态视频滑动窗口存储多帧数据再取其中值来估计背景, 但其所需存储数据多; Kalman滤波法[2, 3]与Wiener滤波法[4], 该方法利用线性低通滤波器, 通过对于协方差的迭代来估计背景, 得到的背景噪点较多, 且估计效果依赖于参数的选取; 基于混合高斯模型(Gaussian mixture model, GMM)法[5, 6, 7, 8], 该方法用多个高斯模型描述背景的变化过程, 但算法复杂度较高、迭代缓慢; 自组织背景模型[9, 10], 该方法利用人工神经网络对复杂场景进行建模, 但其寻优过程运算量过大、实时性较差; 视觉背景提取模型[11, 12], 该方法为每个像素点建立随机样本模型并在空间邻域进行传播, 其计算速度较快, 但所建立模型的参数固定、缺乏自适应能力, 且其邻域扩散的策略难以区分缓慢移动的物体。

上述方法虽然在特定场景的应用中均取得了较好的实验效果, 但均依赖于具体特定的模型假设。真实背景由于受光照、检测器噪声、环境等多因素影响, 特定的背景模型难以刻画真实背景。若背景难以满足模型假设, 则导致模型失效等问题。数据驱动方法不包含受控过程的数学模型信息, 仅利用系统的输入及输出数据及经过处理得到的信息来实现控制, 将数学模型的逻辑复杂度转移到数据中来, 从而达到用更加精简的控制律法, 得到稳定性、鲁棒性更好的结果。本文建立了一种基于数据驱动的背景模型表示方法, 该方法利用无模型自适应控制(Model free adaptive control, MFAC)[13]的思想, 构建了背景的表达和更新过程。通过不同视频序列和相关方法的对比实验表明, 该方法得到的背景变化更加稳定, 抗扰能力更强。

1 背景模型

本文借助数据驱动理论中已得到广泛验证的MFAC控制理论[14, 15, 16, 17, 18, 19], 通过全格式动态线性化的控制方法, 并引入系统的伪梯度向量, 结合多步历史数据, 对背景进行表达; 再结合选择性更新策略, 得到实时更新的背景模型。

1.1 背景表达

MFAC理论是侯忠生教授于1994年提出的一种基于数据驱动理论的控制方法[20, 21], 该方法仅利用系统的在线的输入输出数据, 建立等价的动态线性化模型对非线性受控系统进行估计, 仅利用多步在线历史数据以及对视频背景变化的参数自适应和结构自适应来完成对背景变化的学习与控制, 不追求特定的估计指标, 不会产生模型失效的问题; 通过控制系统的伪阶数设定采用的历史数据量, 效果及稳定性优于单步学习滤波器; 且与其他数据驱动方法相比, 需要调整的参数少、参与在线运算的数据量适中, 迭代简单, 有利于对在线系统的实时估计。本文将MFAC理论引入背景建模中, 建立图像背景的表达。根据获取到的背景变化信息, 对背景的更新过程进行控制。

{B(x, y, 1), B(x, y, 2), , B(x, y, t)}表示背景图像中像素点 (x, y)的值关于时间 t的离散序列, 该序列可看作一个离散时间的非线性单输入单输出系统, 则该序列的图像背景可以表达为:

B(x, y, t)=f(B(x, y, t-1), , B(x, y, t-ny), u(x, y, t-1), u(x, y, t-nu))(1)

式中: B(x, y, i)代表点 (x, y)i时刻的背景值; u(x, y, j)代表背景中像素点 (x, y)j时刻的系统输入值; nynu分别表示系统的未知阶数; f·为未知的非线性函数。

由于在图像处理中, 各像素点的值为有界整数, 满足广义Lipschitz条件[21, 22], 故可将背景光照变化的过程表达为如下全格式动态线性化模型:

MFAC(x, y, t)=B(x, y, t-1)+φT(x, y, t-1)H(x, y, t-1)(2)

式中: MFAC(x, y, t)表示背景图像中像素点 (x, y)t时刻利用全格式动态线性化方法得到的估计值; B(x, y, t-1)为前一时刻的背景值; H(x, y, t-1)为该像素点此时对应的系统输入向量; φ(x, y, t-1)为系统的伪梯度向量。

系统输入向量 H(x, y, t-1)的定义如下:

H(x, y, t-1)=Δu(x, y, t-1), Δu(x, y, t-2), Δu(x, y, t-Lu), ΔB(x, y, t-1), ΔB(x, y, t-2), ΔB(x, y, t-Ly)]T3

式中: LuLy为系统的伪阶数; Δu(x, y, t-1)ΔB(x, y, t-1)分别表示像素点 (x, y)t-1时刻系统输入的变化量与背景值的变化量。

伪梯度向量 φ(x, y, t-1)的定义如下:

φ(x, y, t-1)=[φ1(x, y, t-1), φ2(x, y, t-1), φLu(x, y, t-1), φLu+1(x, y, t-1), φLu+Ly(x, y, t-1)]T4

式中: φi(x, y, t-1)表示像素点 (x, y)在时刻 t-1时的伪梯度向量的第 i个分量。

利用全格式动态线性化的方法, 可以将难以处理的背景光照变化的非线性过程等价地转化为一个带有时变标量的线性时变系统。即可以采用如下MFAC控制方案:

Δu(x, y, t-1)=ρtφ^(x, y, t-1)λ+φ^(x, y, t-1)2×(I(x, y, t)-B(x, y, t-1))(5)

φ^(x, y, t-1)=φ^(x, y, t-2)+ηtH(x, y, t-2)μ+H(x, y, t-2)2×(Δy(x, y, t-1)-φ^(x, y, t-2)H(x, y, t-2))(6)

φ^(x, y, t-1)=φ^(1), φ^(x, y, t-1)εH(x, y, t-1)ε7

式中: λμ为权重因子; ρtηt为步长序列, 其中 ρtLu+Ly维行向量; ε为充分小的正数; φ^(x, y, t-1)为像素点 (x, y)t-1时刻伪梯度向量的估计值; I(x, y, t)为在 t时刻摄像机获取的图像中对应该点的值。

上述式(5)式(7)即为本方法的三条控制律。其中, 式(5)为对于背景的输入控制迭代, 用系统中虚拟的输入来修正光强变化和检测误差等非线性因素的干扰, 使获取的背景更加真实、稳定; 式(6)为对伪梯度的估计算法, 得到的伪梯度向量为一个慢时变参数, 可以体现出光照的缓慢变化情况与其在前几个时刻取值的内在关联性与影响规律; 式(7)为对伪梯度的重置算法, 使得本方法具有更强的时变参数跟踪能力。

1.2 背景更新策略

在对视频中的背景进行建模时, 需要考虑背景的值随着光照的变化而产生变化。本文采用式(8)所示的形式进行背景更新:

B(x, y, t)=MFAC(x, y, t), M=0B(x, y, t-1), M=18

式中: t为时间序列; B(x, y, t)代表图像中的像素点 (x, y)在时刻 t时的背景值; MFAC(x, y, t)为采用MFAC方法对于该像素点 t时刻的估计值。 M=1表示当前像素点存在前景物体, M=0表示当前像素点无前景物体。前景物体通过式(9)进行判别:

Ft=It-Bt-19

式中: Ft代表前景图像, 可以采用目标分割算法[23, 24, 25, 26]结合运动跟踪算法[27, 28, 29]得到; It代表当前帧; Bt-1代表前一时刻的背景。对于背景的初始值 B0, 可根据背景初始化方法[30, 31, 32, 33, 34]得到。

1.3 参数选择

基于全格式MFAC方法的4个控制变量分别为权重因子 λ, μ和步长序列 ρt, ηt文献[35]中指出, 参数 λρt决定了控制器的响应性能与系统的超调量。当 λ增大时, 系统快速性变差, 但无超调; 将其从大到小进行小幅调整时, 其响应时间明显变短, 但容易产生超调。对于 ρt的调整效果与 λ相反, 但当 λ过小时, 超调量变化不大; 而 ρt过大时, 其快速性改善不大, 且会带来大幅超调与强烈震荡。本文选取 ρt各分量约为0.1, λ1, μ(0.1, 50), ηt(0.1, 50)

当系统的伪阶数增加时, 得到的视频背景稳定性进一步增加, 实际工程实践中常取2至4阶; 出于计算复杂度的考虑, 本文选取伪阶数为3。伪梯度向量的初始值应结合视频中光照变化快慢决定, 本文选取伪梯度向量各分量约为0.16。

2 实验分析
2.1 实验设备及参数

试验依托的设备为PC机, 配置为:Intel Core I5, 3.20 GHz, 内存4.00 GB, 利用MATLAB对视频图像验证分析。

2.2 单点时间序列模型效果分析

2.2.1 谐波的效果分析

由于难以获取图像的背景真值, 本文引入谐波函数 y=10sin(0.002t)+3cos(0.003t)为真值, 加入2 dB信噪比, 均值为零的高斯白噪声。通过对本文算法与Kalman滤波器[3]、GMM[7]这两个经典背景模型算法对比分析其算法适应性和鲁棒性, 其实验对比分析结果如图1和图2所示, 误差分析结果表1所示。

图1 Kalman、GMM及本文方法的时间序列分析对比图Fig.1 Comparison of time sequence analysis of Kalman, GMM, and proposed method

图2 Kalman、GMM及本文方法的误差对比图Fig.2 Comparison of error evaluation of Kalman, GMM, and proposed method

表1 Kalman、GMM及本文方法的性能对比与评价 Table 1 Comparison and statistic evaluation of Kalman, GMM, and proposed method

由图1和图2知, 本文方法相比于Kalman滤波器与GMM模型能较好地逼近函数真值且具有较好的鲁棒性; 由图2和表1知, 本文算法误差均小于Kalman滤波器与GMM模型算法。在耗时方面, 本方法运算速度介于GMM模型与Kalman滤波器之间。在波形的稳定性方面, 本方法相比于Kalman滤波器与GMM模型算法更加平稳, 与真值的变化情况更为接近。

2.2.2 单像素点时间序列效果分析

为了有效地测试本文算法单像素点的背景的抽取能力, 选取5000帧光照条件变化缓慢的视频序列, 选取坐标(267, 84)的像素点, 分别利用本文算法、Kalman滤波器与GMM模型获取其背景, 实验对比结果如图3所示。

图3 单点时间序列背景抽取对比图Fig.3 Evaluation of background subtraction of time sequence on single pixel

由图3可见, 本文算法较Kalman滤波器与GMM模型算法更为稳定, 鲁棒性更强。

2.3 多场景视频分析

实验过程选取了不同场景视频序列, 通过本文算法、Kalman滤波器、GMM模型进行对比验证分析, 其对比实验结果如表2和图3与图4所示。

表2 样例视频段测试结果对比 Table 2 Comparison of experiment results of sample video data set

图4 视频段定量对比分析结果图Fig.4 Comparison and quantitative analysis of sample video data set

对视频段的背景评价中, 定量分析指标选取为召回率(Recall), 精度(Precision)以及正确分类率(PCC):

Recal=TP/(TP+FN)(10)Precison=TP/(TP+FP)(11)PCC=(TP+TN)(TP+TN+FP+FN)(12)

式中: TP代表被准确识别的背景像素点个数; TN代表被准确识别的前景点个数; FP代表被错误识别成背景的前景点个数; FN代表被错误识别成前景的背景点个数。

表2给出了视频序列“ PETS2006” 中第300帧、第700帧第950帧和第1200帧的本文算法、Kalman滤波器、GMM模型的前景、背景抽取对比效果以及人工识别出的前景的比较。由表2可以看出本文算法能够较好地获取前景物体和良好的背景抽取能力。图4给出了这一视频序列300至1200帧的定量分析结果。由此图可知, 本文算法在召回率、精度及正确分类率三个方面效果良好, 均超过了98%, 结果优于Kalman滤波器及GMM模型。

表3给出了环境、光照、前景个体数量等不同因素影响下, 采用本文算法、Kalman滤波器、GMM模型处理视频序列的前景、背景抽取对比效果。由表3可以看出:①相比于Kalman滤波器, 本文算法得到的背景值更加稳定, 不会因图像像素值的突变产生过多的前景噪点或将噪声“ 学习” 入背景中; ②相比于GMM模型, 不会因前景物体较多或运动缓慢、长时间停留等原因而使得背景模糊不清、产生“ 鬼影” 现象; ③在光照缓慢变化时可以根据历史数据驱动而准确地学习其变化的规律, 在较长的时间后仍能保持获取到的背景的稳定性。

表3 不同视频段测试效果对比 Table 3 Comparison of experiment results of different video data sets

由此可见, 本文算法具有优于Kalman滤波器、GMM模型的背景抽取能力和较好的鲁棒性。

3 结束语

本文建立了一种基于数据驱动的背景模型表示方法。该方法根据MFAC的思想, 通过对视频中像素点值的历史数据进行动态线性化处理, 结合选择性更新策略, 建立了背景模型。经过多场景视频序列的分析与对比表明, 本文算法具有良好的背景抽取能力和较好的鲁棒性, 可为交通视频监控、视频检测等多应用场景下的背景抽取提供参考和技术支持。

The authors have declared that no competing interests exist.

参考文献
[1] Cutler R, Davis L. View-based detection and analysis of periodic motion[C]//Fourteenth International Conference on Pattern Recognition, Brisbane, 1998: 495-500. [本文引用:1]
[2] Messelodi S, Modena C M, Segata N, et al. A Kalman filter based background updating algorithm robust to sharp illumination changes[J]. Lecture Notes in Computer Science, 2005, 3617: 163-170. [本文引用:1]
[3] Ridder C, Munkelt O, Kirchner H. Adaptive background estimation and foreground detection using Kalman-filtering[C]//Proceedings of the International Conference on Recent Advances in Mechatronics, Istanbul, 1995: 193-199. [本文引用:2]
[4] Chen J Y, Luo X L. The restoration of motion blurred images based on the background modeling[J]. Applied Mechanics & Materials, 2014, 687-691: 3591-3595. [本文引用:1]
[5] Chan A B, Mahadevan V, Vasconcelos N. Generalized Stauffer-Grimson background subtraction for dynamic scenes[J]. Machine Vision and Applications, 2011, 22(5): 751-766. [本文引用:1]
[6] Power P W, Schoonees J A. Understand ing background mixture models for foreground segmentation[C]//Proceedings Image and Vision Computing, New Zealand , 2002: 267-271. [本文引用:1]
[7] Stauffer C, Grimson W E L. Adaptive background mixture models for real-time tracking[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Colorado, 1999: 247-252. [本文引用:2]
[8] Wen W, Jiang T, Gou Y F. Moving object detection based on improved background updating method for Gaussian mixture model[J]. Advanced Materials Research, 2014, 1049-1050: 1561-1565. [本文引用:1]
[9] Maddalena L, Petrosino A. A self-organizing approach to background subtraction for visual surveillance applications[J]. IEEE Transactions on Image Processing, 2008, 17(7): 1168-1177. [本文引用:1]
[10] Maddalena L, Petrosino A. A fuzzy spatial coherence-based approach to background/foreground separation for moving object detection[J]. Neural Computing and Applications, 2009, 19(2): 179-186. [本文引用:1]
[11] Barnich O, Van Droogenbroeck M. ViBe: A Universal background subtraction algorithm for video sequences[J]. IEEE Transactions on Image Processing, 2011, 20(6): 1709-1724. [本文引用:1]
[12] Barnich O, Van Droogenbroeck M, VIBE: a powerful rand om technique to estimate the background in video sequences[C]//2009 IEEE International Conference on Acoustics, Speech, And Signal Processing, New York, 2009: 945-948. [本文引用:1]
[13] 侯忠生, 许建新. 数据驱动控制理论及方法的回顾和展望[J]. 自动化学报, 2009, 35(6): 650-667.
Hou Zhong-sheng, Xu Jian-xin. On data-driven control theory: the state of the art and perspective[J]. Acta Automatica Sinica, 2009, 35(6): 650-667. [本文引用:1]
[14] Chao L, Yi Z, Kun M, et al. Wide-area power system stabiliser based on model-free adaptive control[J]. IET Control Theory & Applications, 2015, 9(13): 1996-2007. [本文引用:1]
[15] 侯忠生, 董航瑞, 金尚泰. 基于坐标补偿的自动泊车系统无模型自适应控制[J]. 自动化学报, 2015, (4): 823-831.
Hou Zhong-sheng, Dong Hang-rui, Jin Shang-tai. Model-free adaptive control with coordinates compensation for automatic car parking systems. Acta Automatica Sinica, 2015, 41(4): 823-831. [本文引用:1]
[16] Zhu Yuan-ming, Hou Zhong-sheng. Controller dynamic linearisation-based model-free adaptive control framework for a class of non-linear system[J]. IET Control Theory & Applications, 2015, 9(7): 1162-1172. [本文引用:1]
[17] Kadri M B. Rejecting multiplicative input disturbance using fuzzy model-free adaptive control[J]. Arabian Journal for Science and Engineering, 2014, 39(3): 2381-2392. [本文引用:1]
[18] Xu D, Jiang B, Shi P. A novel model-free adaptive control design for multivariable industrial processes[J]. IEEE Transactions on Industrial Electronics, 2014, 61(11): 6391-6398. [本文引用:1]
[19] Hou Zhong-sheng, Zhu Yuan-ming. Controller-dynamic-linearization-based model free adaptive control for discrete-time nonlinear systems[J]. IEEE Transactions on Industrial Informatics, 2013, 9(4): 2301-2309. [本文引用:1]
[20] 侯忠生. 无模型自适应控制的现状与展望[J]. 控制理论与应用, 2006, 23(4): 586-592.
Hou Zhong-sheng. On model-free adaptive control: the state of the art and perspective[J]. Control Theory & Applications, 2006, 23(4): 586-592. [本文引用:1]
[21] 侯忠生. 再论无模型自适应控制[J]. 系统科学与数学, 2014, 34(10): 1182-1191.
Hou Zhong-sheng. Highlight and perspective on model free adaptive control[J]. Journal of Systems Science and Complexity, 2014, 34(10): 1182-1191. [本文引用:2]
[22] 金尚泰. 无模型学习自适应控制的若干问题研究及其应用[D]. 北京: 电子信息工程学院, 北京交通大学, 2008.
Jin Shang-tai. On model free learning adaptive control and applications[D]. Beijing: School of Electronic and Information Engineering, Beijing Jiaotong University, 2008. [本文引用:1]
[23] 崔智高, 李艾华, 冯国彦. 动态背景下融合运动线索和颜色信息的视频目标分割算法[J]. 光电子: 激光, 2014(8): 1548-1557.
Cui Zhi-gao, Li Ai-hua, Feng Guo-yan. A video object segmentation algorithm for dynamic bacjground combining motion cue with color information[J]. Journal of Optoelectronics: Laser, 2014(8): 1548-1557. [本文引用:1]
[24] 方宇强, 戴斌, 宋金泽, . 一种改进的基于活动轮廓和光流的运动目标分割方法[J]. 中南大学学报: 自然科学版, 2011, 42(4): 1035-1042.
Fang Yu-qiang, Dai Bin, Song Jin-ze, et al. An improved moving objects segmentation method based on optical flow technique and active contour model[J]. Journal of Central South University (Science and Technology), 2011, 42(4): 1035-1042. [本文引用:1]
[25] 胡祝华, 赵瑶池, 程杰仁, . 基于改进DRLSE的运动目标分割方法[J]. 浙江大学学报: 工学版, 2014, 48(8): 1488-1495.
Hu Zhu-hua, Zhao Yao-chi, Cheng Jie-ren, et al. Moving object segmentation method based on improved DRLSE[J]. Journal of Zhejiang University(Engineering Science), 2014, 48(8): 1488-1495. [本文引用:1]
[26] 孙乐, 戴明, 李刚, . H. 264压缩域中mean-shift聚类运动目标分割算法[J]. 光电子: 激光, 2013(11): 2205-2211.
Sun Le, Dai Ming, Li Gang, et al. An algorithm of mean-shift clustering-based moving object segmentation in H. 264 compression domain[J]. Journal of Optoelectronics: Laser, 2013(11): 2205-2211. [本文引用:1]
[27] 李静宇, 刘艳滢, 田睿, . 视频监控系统中的概率模型单目标跟踪框架[J]. 光学精密工程, 2015, 23(7): 2093-2099.
Li Jing-yu, Liu Yan-ying, Tian Rui, et al. Probabilistic model single target tracking framework for video surveillance system[J]. Optics and Precision Engineering, 2015, 23(7): 2093-2099. [本文引用:1]
[28] 张诚, 马华东, 傅慧源. 基于时空关联图模型的视频监控目标跟踪[J]. 北京航空航天大学学报, 2015, 41(4): 713-720.
Zhang Cheng, Ma Hua-dong, Fu Hui-yuan. Object tracking in surveillance videos using spatial-temporal correlation graph model[J]. Journal of Beijing University of Aeronautics and Astronautics, 2015, 41(4): 713-720. [本文引用:1]
[29] 朱周, 路小波. 考虑遮挡的视频车辆跟踪[J]. 东南大学学报: 英文版, 2015, 31(2): 266-271.
Zhu Zhou, Lu Xiao-bo. Video-based vehicle tracking considering occlusion[J]. Journal of Southeast University (English Edition), 2015, 31(2): 266-271. [本文引用:1]
[30] Chen C C, Aggarwal J K, Ieee: An adaptive background model initialization algorithm with objects moving at different depths[C]//IEEE International Conference on Image Processing, New York, 2008: 2664-2667. [本文引用:1]
[31] Colombari A, Fusiello A. patch-based background initialization in heavily cluttered video[J]. IEEE Transactions on Image Processing, 2010, 19(4): 926-933. [本文引用:1]
[32] Hsiao H H, Leou J J. Background initialization and foreground segmentation for bootstrapping video sequences[J]. Eurasip Journal on Image and Video Processing, 2013: 12. [本文引用:1]
[33] Maddalena L, Petrosino A: Towards benchmarking scene background initialization[C]//ICIAP: New Trends in Image Analysis and Processing, Genova, 2015: 469-476. [本文引用:1]
[34] 李志慧, 张长海, 曲昭伟, . 交通流视频检测中背景初始化算法[J]. 吉林大学学报: 工学版, 2008, 38(1): 148-151.
Li Zhi-hui, Zhang Chang-hai, Qu Zhao-wei, Wei Wei, Wang Dian-hai. Background initialization algorithm in traffic flow video detection[J]. Journal of Jilin University (Engineering and Technology Edition), 2008, 38(1): 148-151. [本文引用:1]
[35] 赖浩喆. 潜油电泵无模型自适应控制[D]. 沈阳: 沈阳工业大学电气工程学院, 2015.
Lai Hao-zhe. Electrical submersible pump control based on model free adaptive control[D]. Shenyang: School of Electrical Engineering, Shenyang University of Technology, 2015. [本文引用:1]