NIAOT OpenIR
基于机器视觉的光学元件精密测量
李世林
学位类型硕士
导师戴松新 胡中文
2022-06
学位授予单位中国科学院大学
学位授予地点北京
关键词机器视觉 精密测量 校正 亚像素 图像拼接 边缘检测
摘要

随着机器人控制技术与计算机视觉不断发展、研究人员对测量精度与测量稳定性要求提高,机器视觉因其无接触、高精度、能适应大视场测量的特点逐渐应用于高精度测量中。本文结合中国科学院南京天文光学技术研究所承担的无缝光谱仪研制任务中光栅的精密测量与精准定位问题,针对透明光学元件的大视场、高精度测量,设计了基于机器视觉的精密测量系统。 
视觉测量应用于大视场下的透明光学元件测量,主要的研究内容包括相机标定与系统误差校正、特征点提取与图像拼接方法、边缘检测算法等。本文设计并实现了透明光学元件的精密测量视觉系统,研究了系统误差校正方案、提出了一种重复特征下的图像配准方法、对比了不同的边缘检测算法并加以改进,最后通过实验验证了该方案的可行性。 
图像获取环节,首先研究了视觉系统成像的坐标系变换关系、引入畸变参数并通过相机标定得到镜头畸变校正结果。为获得大视场下透明光学元件的高分辨率图像,对图像坐标系U,V轴与世界坐标系WX、WY轴的旋转角、CCD平面与世界坐标系Z=0平面的旋转角进行模型分析并提出了针对旋转角的校正方案。该方案的校正结果在满足精密测量要求的同时,较传统的相机外参数标定方法具有易于实现、操作简单的优势。针对透明光学元件图像拼接时特征点不明显的问题,通过添加重复性特征实现透明元件特征匹配。 
图像拼接环节,根据透明光学元件的拼接难点提出基于滑动窗口预匹配与亚像素特征点匹配的图像配准算法,算法测试中图像拼接平均误差达到0.05pixel,精度较国内相关研究明显提升。在棋盘格标定板图像拼接的实验中,在移动精度仅为0.02mm的条件下,获得了平均误差为0.12pixel的图像拼接结果。通过与SIFT算法的对比,验证了本文算法在重复特征的图像拼接中的优势以及特征点匹配精度上的提高。 
边缘检测环节,本文研究了Zernike正交矩算法、Canny-Zernike矩方法。针对Zernike矩方法对噪声较为敏感而容易检测出大量伪边缘的情况进行边缘判定条件的改进,在对测试光栅的边缘检测中,满足实时检测系统的条件下,得到更少的虚假边缘、更准确的亚像素边缘点、保留更完整的边缘细节。 
最后,利用该机器视觉系统进行测量实验,标定过程中坐标轴旋转角校正后小于0.1°,CCD与世界坐标系Z=0平面的旋转角校正后约1°;校正后获得了精确的尺度因子与图像预匹配结果。通过标定板实验与K9玻璃元件实验得到该系统图像拼接的误差结果与边缘检测后的测量结果,验证了本文提出的图像拼接算法与边缘检测算法的准确性。测试光栅测量实验中,单次测量平均误差为0.017mm,不确定度333m,实验结果表明,该视觉测量系统测量结果具有很好的精确度,可满足透明光学元件的精密测量要求。

学科领域天文技术与方法
语种中文
文献类型学位论文
条目标识符http://ir.niaot.ac.cn/handle/114a32/1969
专题中国科学院南京天文光学技术研究所知识成果
学位论文
推荐引用方式
GB/T 7714
李世林. 基于机器视觉的光学元件精密测量[D]. 北京. 中国科学院大学,2022.
条目包含的文件
条目无相关文件。
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[李世林]的文章
百度学术
百度学术中相似的文章
[李世林]的文章
必应学术
必应学术中相似的文章
[李世林]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。