NIAOT OpenIR
计算机视觉姿态估计法 在望远镜运行智能监测系统中的应用研究
刘世伟
Subtype硕士
Thesis Advisor李晓燕
2024-06
Degree Grantor中国科学院大学
Place of Conferral北京
Keyword计算机视觉 姿态估计 望远镜 注意力机制 YOLOv8
Abstract

天文望远镜的运行和维护需要耗费大量的人力来监测望远镜运行状态,如何通过计算机视觉技术,解析望远镜的监测视频和图像,辅助望远镜的运行监测,提高望远镜运维的质量和效率,是本课题的主要研究目标。

正常情况下,望远镜两轴转动的角度可以由编码器来反馈,但在一些异常情况下,编码器读数不能够正确地反映望远镜指向。例如,只提供差分定位测量的增量式编码器未进行初始化操作;或者编码器因为灰尘、油污或振动而产生计数异常;或者解码卡发生异常等。若未能及时地发现异常,很可能导致望远镜指向错误的天区,使得指向误差过大,目标不在视场内。若同时发生限位保护失灵,则可能导致主镜朝下,发生脱落,造成重大安全事故。用计算机视觉代替人工,进行望远镜的姿态不间断的监测,是本课题的主要研究内容。

本研究内容与结果如下:
(1)采用和比较了基于几何法和基于分类法的两类姿态估计方法。
(2)基于几何法的姿态估计方法,提出了一种基于YOLOv8(You Only Look Once)的关键点姿态估计算法。通过利用YOLOv8模型检测图像中的二维关键点,再应用三维姿态估计算法EPNP(Efficient Perspective-n-Point)确定这些点的空间位置。为提高精度,本研究在YOLOv8的Backbone和Neck层之间引入了SE注意力机制,增强重要特征并过滤干扰信息。改进后的算法在验证集上的结果表明,二维关键点检测精度和三维姿态估计精度均有所提升,其中关键点检测精度比改进前提高了2.21%,RA和DEC轴的平均绝对误差分别下降了10.3%和13.5%。 
(3)基于分类法的姿态估计方法,提出了一种基于多尺度卷积神经网络的姿态估计方法TPEN(Telescope Pose Estimate Network)。本算法构建了多尺度空洞卷积神经网络,以解决特征提取不足的问题;引入了CA(Coordinate Attention)模块以减少模型参数,利用CA注意力机制突出了全局空间中的关键特征,提高模型信息提取效率。采用了多阶段特征融合策略,丰富输出特征图的信息,提高模型预测的精度;实验结果表明,该方法的平均绝对误差(MAE)在各类比较中均优于其他模型,在实际测试中MAE值为0.59°,有效提升了姿态估计的准确性。
(4)使用PyQT与QT Designer开发了基于TPEN方法的望远镜姿态智能监测系统。系统自动对采集图像进行数据增强,并输入到TPEN模型中进行姿态估计,通过可视化界面显示当前姿态估计读数。系统提供手动和自动两种模式,手动模式用于单次姿态估计,自动模式用于连续姿态监测。本系统在南极中山站310mm全自动望远镜上开展了应用,与传统人工通过摄像头监测望远镜状态相比,具有监测不间断、全自动运行、精度高、速度快等优点,具有较高的实用意义。

Subject Area天文技术与方法
Language中文
Document Type学位论文
Identifierhttp://ir.niaot.ac.cn/handle/114a32/2155
Collection中国科学院南京天文光学技术研究所知识成果
学位论文
Recommended Citation
GB/T 7714
刘世伟. 计算机视觉姿态估计法 在望远镜运行智能监测系统中的应用研究[D]. 北京. 中国科学院大学,2024.
Files in This Item:
There are no files associated with this item.
Related Services
Recommend this item
Bookmark
Usage statistics
Export to Endnote
Google Scholar
Similar articles in Google Scholar
[刘世伟]'s Articles
Baidu academic
Similar articles in Baidu academic
[刘世伟]'s Articles
Bing Scholar
Similar articles in Bing Scholar
[刘世伟]'s Articles
Terms of Use
No data!
Social Bookmark/Share
All comments (0)
No comment.
 

Items in the repository are protected by copyright, with all rights reserved, unless otherwise indicated.