一种基于正交条纹投影的快速深度分割方法
本发明公开了一种基于正交条纹投影的快速深度分割方法,包括以下步骤,步骤S1:搭建条纹投影三维物体深度分割系统;步骤S2:利用深度学习网络模型训练得到目标物体图像对应的截断相位φX1(x,y)、φY1(x,y);步骤S3:为了消除相位不敏感区域误分割引入的误差,对φX1(x,y)、φY1(x,y)整体相移π个单位后,将新相位信息拓展到[0,2π]以得到新截断相位φX2(x,y)、φY2(x,y),从而得到不同相位信息下的两类截断相位;步骤S4:利用阈值分割提取目标物体的粗分割线后,通过形态学运算优化得到四个细分割线EX1(x,y)、EX2(x,y)、EY1(x,y)、EY2(x,y);步骤S5:...
Saved in:
| Format | Patent |
|---|---|
| Language | Chinese |
| Published |
06.08.2024
|
| Subjects | |
| Online Access | Get full text |
Cover
| Summary: | 本发明公开了一种基于正交条纹投影的快速深度分割方法,包括以下步骤,步骤S1:搭建条纹投影三维物体深度分割系统;步骤S2:利用深度学习网络模型训练得到目标物体图像对应的截断相位φX1(x,y)、φY1(x,y);步骤S3:为了消除相位不敏感区域误分割引入的误差,对φX1(x,y)、φY1(x,y)整体相移π个单位后,将新相位信息拓展到[0,2π]以得到新截断相位φX2(x,y)、φY2(x,y),从而得到不同相位信息下的两类截断相位;步骤S4:利用阈值分割提取目标物体的粗分割线后,通过形态学运算优化得到四个细分割线EX1(x,y)、EX2(x,y)、EY1(x,y)、EY2(x,y);步骤S5:对EX1(x,y)、EX2(x,y)、EY1(x,y)、EY2(x,y)采用或与运算即可得到最终的深度分割结果D(x,y),并利用边界描述标记优化结果展示。本发明仅使用一幅正交条纹图即可实现快速深度分割,具有成本低、计算速度快、分割精确度高、适用性广等优点。
The invention discloses a rapid depth segmentation method based on orthogonal fringe projection, and the method comprises the following steps: S1, building a fringe projection three-dimensional object depth segmentation system; s2, training by using a deep learning network model to obtain truncation phases phi X1 (x, y) and phi Y1 (x, y) corresponding to the target object image; s3, in order to eliminate errors introduced by wrong segmentation of the phase insensitive area, after integral phase shifting is conducted on phi X1 (x, y) and phi Y1 (x, y) by pi units, new phase information is |
|---|---|
| Bibliography: | Application Number: CN202210556472 |