每周文章分享-72

admin 2022年9月10日11:02:25安全闲碎评论0 views3224字阅读10分44秒阅读模式
每周文章分享-72

每周文章分享


2022.09.05-2022.09.11

每周文章分享-72


标题: Efficient Velocity Estimation and Location Prediction in Underwater Acoustic Sensor Networks

期刊: IEEE Internet of Things Journal, vol. 9, no. 4, pp. 2984-2998, 15 Feb.15, 2022.

作者: Shanshan Song; Jun Liu; Jiani Guo; Chuang Zhang; Tingting Yang; Junhong Cui

分享人: 河海大学——侯云


01


研究背景

每周文章分享-72

BACKGROUND


研究背景


水下声传感器网络(UASNs)已广泛应用于海洋环境监测、军事侦察、水文调查、采矿开采等。位置信息对于UASNs执行任务至关重要。传统的提供AUV位置信息的方法在复杂的水下环境中仍然存在三大挑战:第一个是速度测量设备的依赖性,在复杂的水下环境中,速度测量设备过于昂贵且效率低下。第二个是附加要求的限制,例如下图所示的声学基础设施LBL(long baseline)。第三个是多定位手段的定位融合,这可能会引入建模误差和状态估计误差。因此,如何设计一种高效、有效的算法来获取位置信息仍然是UASN中AUV的关键未解决问题。

每周文章分享-72

图1 测量LBL设备和AUV之间的相对范围

02


关键技术

TECHNOLOGY


关键技术


本文使用AUV辅助速度估计算法来估计准确的速度,采用精心设计的前导和物理层中的一组自相关器来估计位移。然后,利用多普勒频移和惯性传感器的测量来估计速度,设计了一个位置预测模型来提供准确的位置,从而减少了通信负载和建模误差,最后采用信念传播(BP)算法融合了来自惯性传感器测量的位置信息和外部相对范围的合作信息,以获得用于位置预测的训练数据。并利用基于神经网络的模型,最终实现精确的AUV位置预测。

03


算法介绍

ALGORITHMS


算法介绍


本文提出的VELP (velocity estimation and location prediction) 算法利用 AUV 辅助速度估计算法和位置预测模型来应对上述挑战。VELP的整个框架如图所示。

每周文章分享-72

图2 VELP算法框架

两个虚线框是VELP的关键点。本文利用上面的虚线框来表示 AUV 辅助的速度估计。AUV 可以借助其他 AUV 估计多普勒比例因子以获得 AUV 辅助速度。然后,考虑洋流的卡尔曼滤波器基于加速度计的速度和AUV辅助的速度进行速度补偿,可为DR提供高精度的速度。但是,通过 DR 算法计算的位置具有累积的位置误差。因此,本文采用基于神经网络的位置预测模型来减少这个误差,即下面的虚线框。该模型的关键思想是使用神经网络来预测 AUV 的位置,BP 算法通过 AUV 之间的外部距离测量为神经网络提供训练数据,可以通过具有基本通信功能的 AUV 获得。

A. 加速度计的速度测量:惯性传感器测量方法通过IMU采集加速度和方向。使用加速度计算局部坐标系中AUV的速度。如图3所示,AUV沿着一个局部坐标系的方向航行,将AUV参考坐标变换公式为Tr(αt,ρt):

每周文章分享-72

每周文章分享-72

图3 AUV的本地坐标和参考坐标

B. AUV辅助速度估计:

1) 多普勒尺度因子估计:通过估计多普勒尺度因子,得到由AUV的迁移率引起的多普勒频移,可以提供AUV之间准确的相对速度。采用特定设计的前导符和物理层中的一组自相关器来估计多普勒尺度因子。为了同步的目的,前导由两个相同的OFDM符号和一个循环前缀(CP)组成。这些符号是有波形的。前导码的结构如下图所示。

每周文章分享-72

图4 多普勒比例因子估计的前导

每一个都有不同的周期性相匹配。从自相关器库中得到的相关指标可以估计多普勒尺度为

每周文章分享-72

2) AUV辅助的速度采集:从多普勒相对速度获得的速度为AUV辅助速度,多普勒相对速度标量与航行速度的关系为下式:

每周文章分享-72

3) 考虑洋流的卡尔曼滤波器:本文采用考虑洋流卡尔曼滤波器来最小化通信的能量消耗。由于洋流对速度估计有很大的影响,本文将洋流的速度加入到IMU的速度中,作为一个更精确的速度状态矢量。AUV的速度状态向量可以表示为

每周文章分享-72

C. 信念传播-基于神经网络的位置预测

每个AUV可以得到每个邻居的相对范围作为外部测量信息。BP算法可以通过其邻居的帮助,将这些外部信息与DR融合,而不是所有的AUV。VELP收集多个信息,为不断获得准确的AUV位置,在文中通过多种位置融合方法来预测位置。用于位置预测的神经网络模型如下图所示,该模型有一个输入层、隐藏层和一个输出层。输入层是由DR提供的惯性传感器测量得到的位置。输出层为预测的位置。

每周文章分享-72

图5 位置预测用神经网络的设计

04


实验结果

EXPERIMENTS


实验结果


1. 仿真参数设置

洋流设置:洋流数据是随机选择在中国的厦门(24◦27N118◦0)中,其中包括洋流的时间、速度和流向。基本设置:在1000×1000×1000m3区域随机部署10个AUV,仿真在10000 个通道的蒙特卡罗集上进行了测试。最初,假设AUV的x轴和y轴速度分别为1m/s。俯仰角为0◦,航向角为45◦。在模拟中,AUV行驶了2000s。神经网络设置:使用惯性传感器测量的20000 组位置作为输入,利用平滑样条曲线将BP在2000s的400组位置扩展到20000 组。训练集和测试集分别由LTP和PTP中的15000 组和5000组组成。

2. 结果与分析

AUV辅助速度采集的结果:我们评估了AUV辅助速度估计算法的速度和位置误差。首先,从加速度计模拟x轴和y轴速度,AUV辅助速度,和真实速度进行比较。如图所示首先将结果与加速度计、AUV辅助速度和真实速进行比较。很容易地发现AUV辅助速度比AUV轴上的速度更接近真实速度,y轴AUV辅助速度和真实速度几乎重合,AUV辅助速度的位置误差明显小于加速度计的速度,速度误差在定位时被放大了。因此,速度的精度是AUV定位的关键。

每周文章分享-72

图6 加速度计、多普勒速度和真值

考虑洋流的卡尔曼滤波器的结果:模拟了来自加速度计的真实速度和速度之间的x轴和y轴误差,仅用卡尔曼滤波器补偿速度,用卡尔曼滤波器和洋流补偿速度,分别在图7(a)和(b).中表示为加速度计、卡尔曼电流、卡尔曼电流和真实值卡尔曼电流是速度。我们只显示从0到500秒的结果。

每周文章分享-72

图7 考虑洋流的卡尔曼滤波器的结果

信念传播的结果:通过不同数量的隐节点和隐层来训练神经网络。在图8中显示了它们的位置误差。图(a)和图(b)中两个节点的位置误差在1600s前小于6个节点,而2、4、等节点的位置误差在1600s后均大于6个节点。图(c)一层和三层的x轴位置误差均大于两层。这意味着两层的性能更好。图(d),其中一层的y轴位置误差明显小于第2层和第3层。

每周文章分享-72

每周文章分享-72

图8 具有不同隐藏节点和层数的神经网络的位置误差

位置预测结果:为了将神经网络与其他基准方法进行比较,选择了卡尔曼滤波器来融合多均值进行auv位置采集,这是一种常用的多源融合方法。我们模拟了图9(a)中x轴位置和图9(b).中y轴位置的结果.在图9中,我们可以发现神经网络的x轴位置误差非常小,在2000s时为5.8m。而加速度计的x轴位置误差(655.9m)最大,是神经网络的100多倍。与神经网络相比,卡尔曼的x轴位置误差仍然明显较大,在2000s时为65.6m。验证了该神经网络比普通卡尔曼滤波器具有更好的位置预测性能。

每周文章分享-72

图9 加速度计、卡尔曼和神经网络的位置误差

05


总结

CONCLUSION


总结


VELP的主要思想是利用AUV辅助的速度估计和位置预测,以低成本实现AUV的高精度定位。AUV辅助速度估计算法避免了测量噪声,减少了惯性传感器测量的累积误差,取代了DVL。此外,VELP采用考虑洋流的卡尔曼滤波器,以获得惯性传感器测量的恒定准确速度。



END



每周文章分享-72

扫描二维码关注我们




==河海大学网络与安全实验室==

微信搜索:Hohai_Network

联系QQ:1084561742

责任编辑:何宇


原文始发于微信公众号(网络与安全实验室):每周文章分享-72

特别标注: 本站(CN-SEC.COM)所有文章仅供技术研究,若将其信息做其他用途,由用户承担全部法律及连带责任,本站不承担任何法律及连带责任,请遵守中华人民共和国安全法.
  • 我的微信
  • 微信扫一扫
  • weinxin
  • 我的微信公众号
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2022年9月10日11:02:25
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                  每周文章分享-72 http://cn-sec.com/archives/1290295.html

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: