期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于场景对象注意与深度图融合的深度估计 被引量:1
1
作者 温静 杨洁 《计算机工程》 CAS CSCD 北大核心 2023年第2期222-230,共9页
现有单目深度估计算法主要从单幅图像中获取立体信息,存在相邻深度边缘细节模糊、明显的对象缺失问题。提出一种基于场景对象注意机制与加权深度图融合的单目深度估计算法。通过特征矩阵相乘的方式计算特征图任意两个位置之间的相似特... 现有单目深度估计算法主要从单幅图像中获取立体信息,存在相邻深度边缘细节模糊、明显的对象缺失问题。提出一种基于场景对象注意机制与加权深度图融合的单目深度估计算法。通过特征矩阵相乘的方式计算特征图任意两个位置之间的相似特征向量,以快速捕获长距离依赖关系,增强用于估计相似深度区域的上下文信息,从而解决自然场景中对象深度信息不完整的问题。基于多尺度特征图融合的优点,设计加权深度图融合模块,为具有不同深度信息的多视觉粒度的深度图赋予不同的权值并进行融合,融合后的深度图包含深度信息和丰富的场景对象信息,有效地解决细节模糊问题。在KITTI数据集上的实验结果表明,该算法对目标图像预估时σ<1.25的准确率为0.879,绝对相对误差、平方相对误差和对数均方根误差分别为0.110、0.765和0.185,预测得到的深度图具有更加完整的场景对象轮廓和精确的深度信息。 展开更多
关键词 场景对象注意 加权深度图融合 上下文信息 深度估计 三维重建
下载PDF
基于置信度的深度图融合 被引量:2
2
作者 刘怡光 董鹏飞 +1 位作者 李杰 都双丽 《四川大学学报(工程科学版)》 EI CAS CSCD 北大核心 2016年第4期101-106,共6页
由于匹配信息弱或噪声影响,深度计算精度难以保证,故深度图融合是多目立体视觉3维重建中的关键部分。为此,提出一种基于置信度的抗噪融合算法。该方法首先对每幅深度图进行修正,利用一致性检测剔除大多数错误点并填补某些空洞。其次,通... 由于匹配信息弱或噪声影响,深度计算精度难以保证,故深度图融合是多目立体视觉3维重建中的关键部分。为此,提出一种基于置信度的抗噪融合算法。该方法首先对每幅深度图进行修正,利用一致性检测剔除大多数错误点并填补某些空洞。其次,通过保留那些在自身邻域内具有最高置信度的3维点以删除冗余。最后,将深度图反投影到3维空间,采用迭代最小二乘法进一步优化3维点并剔除离群点。通过在标准测试数据集上与其他算法比较,验证了该方法的有效性。 展开更多
关键词 多目立体视觉 3维重建 深度图融合 置信度 迭代最小二乘法
下载PDF
多视角深度图融合方法综述
3
作者 温宇强 李德华 《计算机与数字工程》 2003年第4期20-25,共6页
利用深度图对物体三维表面建模是一种快速而准确的方法 ,本文对前人和同行发现的深度图建模的多视角深度图融合方法进行了回顾和详细讨论 ,主要从深度图融合的两个主要步骤 :数据配准与表面拼合 ,对方法进行了说明。
关键词 计算机视觉 三维信息 多视角深度图融合方法 建模
下载PDF
基于物方体素约束的深度图融合方法
4
作者 张帅哲 刘振东 +3 位作者 刘新 蔡昊琳 屈文虎 张栋 《北京测绘》 2022年第11期1443-1448,共6页
稠密重建是多视立体视觉三维重建技术中的关键环节,主要包括密集匹配以及深度融合两步。目前深度融合生成的密集点云仍然存在密度大、质量参差不齐等问题。为此,本文提出一种基于物方体素约束的深度图融合方法。在该方法中,首先根据影... 稠密重建是多视立体视觉三维重建技术中的关键环节,主要包括密集匹配以及深度融合两步。目前深度融合生成的密集点云仍然存在密度大、质量参差不齐等问题。为此,本文提出一种基于物方体素约束的深度图融合方法。在该方法中,首先根据影像的地面分辨率自适应地确定体素网格尺寸;其次利用场景的几何特征约束计算融合点坐标;然后基于物方体素约束筛选融合点;最后利用无人机采集的滕州市某镇驻地倾斜影像数据以及ETH3D公开数据集进行验证。实验结果表明,本文方法能够有效降低密集点云密度并保证点云质量。 展开更多
关键词 多视立体匹配 深度图融合 物方体素 几何特征约束 权重函数
下载PDF
一种基于置信度的深度图融合方法
5
作者 董鹏飞 《现代计算机(中旬刊)》 2016年第12期66-69,共4页
在三维重建过程中,由于受到噪声影响,计算出的深度图精度无法保证。针对此问题,提出一种基于置信度的抗噪融合方法。首先对每幅深度图来进行修正,并利用一致性原理来剔除错误点并填补某些空洞。然后通过保留在自身邻域内具有最高置信度... 在三维重建过程中,由于受到噪声影响,计算出的深度图精度无法保证。针对此问题,提出一种基于置信度的抗噪融合方法。首先对每幅深度图来进行修正,并利用一致性原理来剔除错误点并填补某些空洞。然后通过保留在自身邻域内具有最高置信度的三维点,以删除冗余。最后将深度图反投影到三维空间,采用迭代最小二乘法优化三维点并剔除离群点。通过在测试数据集上与其他算法比较,验证此方法的有效性。 展开更多
关键词 多目立体视觉 三维重建 深度图融合
下载PDF
基于多RGBD摄像机的动态场景实时三维重建系统 被引量:5
6
作者 段勇 裴明涛 《北京理工大学学报》 EI CAS CSCD 北大核心 2014年第11期1157-1162,共6页
使用多台基于FPGA嵌入立体计算的RGBD摄像机搭建动态场景实时三维重建系统.RGBD摄像机能够以视频速度输出场景的彩色(RGB)图像及对应的稠密视差(disparity)图像,由视差图像可进一步得到场景的深度图.多台RGBD摄像机运行在统一的外部时... 使用多台基于FPGA嵌入立体计算的RGBD摄像机搭建动态场景实时三维重建系统.RGBD摄像机能够以视频速度输出场景的彩色(RGB)图像及对应的稠密视差(disparity)图像,由视差图像可进一步得到场景的深度图.多台RGBD摄像机运行在统一的外部时钟和控制信号下,可实现对目标场景数据的同步采集.为了提高各视点所获取的场景深度图质量,根据多RGBD摄像机系统视点分布较为稀疏的特点,使用概率密度函数估计的方法进行多视点深度图的融合.融合后的深度图由PC集群进行处理,可实时生成所拍摄场景的三维空间点云.实验结果表明,本文系统可以有效地重建包含多个运动目标的大型动态场景. 展开更多
关键词 立体视觉 多视点实时三维重建 深度图融合
下载PDF
Test method of laser paint removal based on multi-modal feature fusion
7
作者 HUANG Hai-peng HAO Ben-tian +2 位作者 YE De-jun GAO Hao LI Liang 《Journal of Central South University》 SCIE EI CAS CSCD 2022年第10期3385-3398,共14页
Laser cleaning is a highly nonlinear physical process for solving poor single-modal(e.g., acoustic or vision)detection performance and low inter-information utilization. In this study, a multi-modal feature fusion net... Laser cleaning is a highly nonlinear physical process for solving poor single-modal(e.g., acoustic or vision)detection performance and low inter-information utilization. In this study, a multi-modal feature fusion network model was constructed based on a laser paint removal experiment. The alignment of heterogeneous data under different modals was solved by combining the piecewise aggregate approximation and gramian angular field. Moreover, the attention mechanism was introduced to optimize the dual-path network and dense connection network, enabling the sampling characteristics to be extracted and integrated. Consequently, the multi-modal discriminant detection of laser paint removal was realized. According to the experimental results, the verification accuracy of the constructed model on the experimental dataset was 99.17%, which is 5.77% higher than the optimal single-modal detection results of the laser paint removal. The feature extraction network was optimized by the attention mechanism, and the model accuracy was increased by 3.3%. Results verify the improved classification performance of the constructed multi-modal feature fusion model in detecting laser paint removal, the effective integration of acoustic data and visual image data, and the accurate detection of laser paint removal. 展开更多
关键词 laser cleaning multi-modal fusion image processing deep learning
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部