1.本发明涉及一种无人车在烟雾遮挡环境下的目标检测方法,属于无人车辆感知领域。
背景技术:
2.无人驾驶技术作为当今车辆的前沿技术受到各国学者的广泛关注,无人车辆的感知技术是无人驾驶车辆最重要的技术之一。随着近些年对城市自动驾驶领域投入大量研究资金和研究精力,无人车辆的感知技术研究也取得丰硕成果,现有的无人车辆感知系统配备激光雷达、毫米波雷达和可见光相机等传感器。
3.然而,在野外战场环境中,无人驾驶车辆面临很多挑战,主要表现为无人驾驶车辆处于烟雾环境时,感知系统配备的一些传感器容易失效:激光雷达和可见光相机在处于烟雾遮挡环境时受干扰较大,无法提供准确的目标信息,对感知系统的感知能力造成很大的影响;毫米波雷达虽然不受烟雾干扰,但毫米波雷达的输出存在大量无效目标,导致无人车辆的感知系统无法判别真实目标的位置和速度。
4.因此,无人车辆在烟雾遮挡环境下的感知技术仍然是无人驾驶技术的难点和热点,亟需提高环境感知系统在烟雾环境下的适应能力和抗干扰能力。
技术实现要素:
5.本发明的目的是提出一种无人车在烟雾遮挡环境下的目标检测方法,解决无人驾驶车辆在烟雾环境下对目标检测能力弱的问题。
6.本发明是通过下述具体技术方案实现的:
7.本发明基于红外相机和毫米波雷达联合标定,通过毫米波雷达有效性检验方法滤除大量无效目标,通过安全边界的图像感兴趣区域提取方法缩小图像检测范围,融合红外图像检测方法得到无人车辆前方目标的位置和速度;
8.本发明的一种无人车在烟雾遮挡环境下的目标检测方法,包括如下步骤:
9.步骤一、红外相机和毫米波雷达联合标定,具体包括以下子步骤:
10.步骤1.1建立红外相机图像和毫米波雷达检测平面坐标系的投影关系:
11.红外相机坐标系为o
c-xcyczc,红外相机安装在坐标原点oc处,红外相机的像素坐标系o
0-uv与平面xcocyc平行;
12.毫米波雷达的坐标系为o
r-xryrzr,毫米波雷达位于坐标原点or处,毫米波雷达检测目标点ri在毫米波雷达的坐标系下的位置为(xi,yi,zi),由于毫米波雷达检测目标没有高度的数据,所以毫米波雷达检测目标的位置为(xi,yi)。
13.红外相机坐标系与毫米波雷达的坐标系坐标转换关系如式(1)所示:
14.15.其中,ω为尺度因子,h为单应矩阵,表示两个平面之间的坐标变换关系,是一个3
×
3矩阵,(ui,vi)为毫米波雷达目标在红外相机像素坐标系中的位置坐标;
16.步骤1.2对红外相机和毫米波雷达同时检测的目标进行标注,生成标注数据;
17.步骤1.3根据步骤1.2生成的标注数据,确定单应矩阵h;
18.作为优选,采用随机采样一致性方法(radom sample consensus,ransac),确定单应矩阵h的初始值,优选列文伯格-马夸尔特方法(levenberg-marquardt,lm)对单应矩阵h优化;
19.步骤二、提取有效毫米波雷达目标,具体包括以下子步骤:
20.步骤2.1对毫米波雷达检测的目标进行初步筛选,滤除空信号,初步选择有效目标;
21.被测目标数少于检测目标数时,出现空信号,空信号的相对速度、相对距离和相对角度的数值为系统默认值,在获取的雷达目标信息中,符合雷达目标信息的相对速度、相对距离和相对角度的数值为系统默认值时,则筛选为空信号,并进行滤除;
22.步骤2.2将毫米波雷达检测到的目标进行周期性筛选,滤除由于杂波干扰而导致的干扰信号;
23.由于周围环境杂波干扰,毫米波雷达检测到一些不连续的干扰信号,这种信号存在的时间极短,且对应位置没有实际物体存在;
24.毫米波雷达检测时,有效目标的身份标识能够稳定保持较长时间无变化,而干扰目标的身份标识在短时间内会出现较多次数的跳变,结合毫米波雷达输出的目标历史信息,通过式(2)对检测目标的有效性进行判别;
[0025][0026]
其中n为采样周期序号,n∈(1,2,3,
…
),di、θi以及vi分别为第i个检测目标的相对距离、相对角度以及相对速度,d
thresh
、θ
thresh
以及v
thresh
分别为在采样周期间隔内的距离、相对角度以及相对速度变化的阈值;
[0027]
只要检测目标符合式(2)中的一个条件,就判定为无效目标,并将该检测目标从毫米波雷达的检测目标中移除;
[0028]
步骤2.3对密集的毫米波雷达检测目标进行聚类,提高检测的速度和精度:
[0029]
当毫米波雷达前方探测的物体较近时,这个物体会产生多个回波,反馈的输出结果是多个目标;
[0030]
优选采用改进的具有噪声的基于密度的聚类方法(density-based spatial clustering of application with noise,dbscan),如式(3)所示,加入检测目标的距离约束,避免设置全局统一的参数,从而提高聚类的准确度;
[0031][0032]
其中d为目标点在毫米波雷达坐标系下的距离,minpts为邻域密度阈值固定值,minptsi为第i个点的邻域密度阈值,d为领域密度值的最大变化范围;
[0033]
改进dbscan方法将高密度的区域划分为簇,输出簇为毫米波雷达检测目标;
[0034]
步骤三、考虑安全因素的图像感兴趣区域提取,具体包括以下子步骤:
[0035]
步骤3.1确定图像感兴趣区域的中心点:
[0036]
通过步骤一确定的红外相机成像平面和毫米波雷达检测平面的对应关系,将毫米波雷达点在红外图像的投影点作为感兴趣区域的中心点;
[0037]
步骤3.2确定基础矩形框:
[0038]
根据国标中关于道路车辆外廓尺寸中关于汽车外形宽高比的推荐要求,根据相似性原理投影到红外图像坐标系中,得到红外图像中的基础矩形框;
[0039]
步骤3.3提取图像感兴趣区域:
[0040]
提取所有基础矩形框的边缘点,组成新的矩形,考虑矩形框不能涵括车辆所有部分的情况,为了减少漏检,设置安全因素s,0<s<1,将新矩形向长宽方向分别扩展s,形成感兴趣区域;
[0041]
步骤四、模型构建以及训练:
[0042]
步骤4.1构建模型:
[0043]
通过替换yolov4(you only look once)的cspdarknet53主干特征提取网络为mobilenetv2网络,减少网络参数,提升网络的训练和检测速度;
[0044]
步骤4.2模型训练准备:
[0045]
在训练阶段,对红外图像进行增广,对红外图像进行高斯模糊、锐化处理,用于模拟不同环境和不同成像质量下的情况;
[0046]
进一步的,增广方法为:对红外图像进行几何变换,用于模拟相机以不同视角成像情况;
[0047]
更进一步的,对红外图像进行的几何变换包括:平移、旋转以及镜像,用于模拟相机以不同距离、进入方向的情况;
[0048]
步骤4.3模型训练:
[0049]
在训练阶段,使用迁移学习方法对网络进行训练,使用可见光图像集作为预训练数据对mobilenetv2网络训练,得到初步的权重参数,使用少量的红外图像对训练权重进行调整,得到最终的训练权重;
[0050]
步骤五、感兴趣区域检测;
[0051]
在检测阶段,根据步骤四构建并训练完成的模型对输入的感兴趣红外图像提取特征并预测,然后针对所有检测框,结合毫米波雷达的位置和速度信息,最后生成检测目标的位置和速度信息。
[0052]
有益效果:
[0053]
1、本发明公开的一种无人车在烟雾遮挡环境下的目标检测方法,通过单应矩阵描述毫米波雷达检测平面和红外相机成像平面的关系,并通过优化单应矩阵,提高红外相机和毫米波雷达的标定精度;
[0054]
2、本发明公开的一种无人车在烟雾遮挡环境下的目标检测方法,通过对毫米波雷达目标的有效性进行检验,减少融合数据处理量,并使用基于距离自适应方法,提取有效车辆目标,提高检测方法的鲁棒性;
[0055]
3、本发明公开的一种无人车在烟雾遮挡环境下的目标检测方法,通过引入
mobilenetv2主干网络对yolov4网络进行优化,减少训练参数,同时加快检测速度,采用迁移学习方法,解决红外图像不足问题,并且提高检测方法的性能;
[0056]
4、本发明公开的一种无人车在烟雾遮挡环境下的目标检测方法,最终实现在烟雾环境下的目标精确检测,增强无人车的感知能力。
附图说明
[0057]
图1是本发明实施例的实施场景示意图;
[0058]
图2是本发明实施例的整体流程图;
[0059]
图3是本发明实施例的检测方法的坐标系定义图;
[0060]
图4是本发明实施例的提取毫米波雷达有效目标示意图;
[0061]
图5是本发明实施例的红外图像检测使用的网络结构示意图;
[0062]
图6是本发明实施例的红外图像变换效果示意图;
[0063]
其中图6(a)为原始红外图像,图6(b)为平移变换后的红外图像,图6(c)为旋转变换后的红外图像,图6(d)为镜像后的红外图像,图6(e)为模糊化处理后的红外图像,图6(f)为亮度变换后的红外图像;
[0064]
图7是本发明实施例的模型训练流程示意图;
[0065]
图8是本发明实施例的红外和毫米波雷达融合检测结果示意图;
[0066]
其中图8(a)为原始的可见光图像,图8(b)为红外图像以及检测结果。
具体实施方式
[0067]
为了更好的说明本发明的目的和优点,下面结合附图和实例对发明内容做进一步说明。
[0068]
实施例1:
[0069]
当一辆无人车辆行驶在如图1所示的烟雾环境时,烟雾的遮挡会导致无人车辆感知系统配备的可见光相机和激光雷达失效。为了检测出无人车辆前方的目标,并避开目标,实施例中应用本发明的一种无人车在烟雾遮挡环境下的目标检测方法,对前方出现的目标进行检测;
[0070]
如图2所示,本实施例公开的一种无人车在烟雾遮挡环境的目标检测方法,主要流程包括联合标定、提取毫米波雷达有效目标、提取图像感兴趣区域、数据增强、模型训练、结果输出,具体包括如下步骤:
[0071]
步骤一、红外相机和毫米波雷达联合标定,具体包括以下子步骤:
[0072]
步骤1.1建立红外相机图像和毫米波雷达检测平面坐标系的投影关系:
[0073]
如图3所示,红外相机坐标系为o
c-xcyczc,红外相机安装在坐标原点oc处,红外相机的像素坐标系o
0-uv与平面xcocyc平行;
[0074]
如图3所示,毫米波雷达的坐标系为o
r-xr,yrzr,毫米波雷达位于坐标原点or处,毫米波雷达检测目标点ri在毫米波雷达的坐标系下的位置为(xi,yi,zi),由于毫米波雷达检测目标没有高度的数据,所以毫米波雷达检测目标的位置为(xi,yi)。
[0075]
如图3所示,毫米波雷达只在o
r-xryr平面检测,输出的障碍物目标的2d坐标,即zi=0,毫米波雷达目标在红外相机的像素坐标系点ci位置为(ui,vi),红外相机坐标系与毫米
波雷达的坐标系坐标转换关系如式(1)所示:
[0076][0077]
其中,ω为尺度因子,h为单应矩阵,表示两个平面之间的坐标变换关系,是一个3
×
3矩阵,如式(2)所示,(ui,vi)为毫米波雷达目标在红外相机像素坐标系中的位置坐标;
[0078][0079]
其中h
11
、h
12
、h
13
…
为单应矩阵h的内部元素;
[0080]
步骤1.2对红外相机和毫米波雷达同时检测的目标进行标注,生成标注数据;
[0081]
步骤1.3根据步骤1.2生成的标注数据,确定单应矩阵h;
[0082]
实施例中,首先定义参数向量其中r
i,p
是毫米波雷达点坐标的估计值,h是单应矩阵h元素组成的向量;
[0083]
进一步的,将参数向量p映射为
[0084]
其中,
[0085]
定义将jacobi矩阵简化为式(3)所示:
[0086][0087]
之后,采用随机采样一致性方法(radom sample consensus,ransac),确定单应矩阵h的初始值。
[0088]
进一步的,通过lm方法优化单应矩阵h,即,jδ=ε,其中δ是增量[δ
a δ
b1 δ
b2
ꢀ…ꢀ
δ
bn
]
t
矩阵,ε是误差[ε1ꢀ…ꢀ
εn]
t
矩阵;
[0089]
其中,εi=d
⊥
(ri,h-1ci
)+d
⊥
(ci,hri),其中d
⊥
(x1,x2)表示x1,x2两点之间的欧式距离;
[0090]
之后实现对单应矩阵h优化;
[0091]
步骤二、提取有效毫米波雷达目标,具体包括以下子步骤:
[0092]
步骤2.1对毫米波雷达检测的目标进行初步筛选,滤除空信号,初步选择有效目标;
[0093]
被测目标数少于检测目标数时,出现空信号,空信号的相对速度、相对距离和相对角度的数值为系统默认值,在获取的雷达目标信息中,符合雷达目标信息的相对速度、相对距离和相对角度的数值为系统默认值时,则筛选为空信号,并进行滤除;
[0094]
步骤2.2将毫米波雷达检测到的目标进行周期性筛选,滤除由于杂波干扰而导致
的干扰信号;
[0095]
由于周围环境杂波干扰,毫米波雷达检测到一些不连续的干扰信号,这种信号存在的时间极短,且对应位置没有实际物体存在;
[0096]
毫米波雷达检测时,有效目标的身份标识能够稳定保持较长时间无变化,而干扰目标的身份标识在短时间内会出现较多次数的跳变,结合毫米波雷达输出的目标历史信息,通过式(4)对检测目标的有效性进行判别;
[0097][0098]
其中n为采样周期序号,n∈(1,2,3,
…
),di、θi以及vi分别为第i个检测目标的相对距离、相对角度以及相对速度,d
thresh
、θ
thresh
以及v
thresh
分别为在采样周期间隔内的距离、相对角度以及相对速度变化的阈值;
[0099]
只要检测目标符合式(4)中的一个条件,就判定为无效目标,并将该检测目标从毫米波雷达的检测目标中移除;
[0100]
步骤2.3对密集的毫米波雷达检测目标进行聚类,提高检测的速度和精度:
[0101]
当毫米波雷达前方探测的物体较近时,这个物体会产生多个回波,反馈的输出结果是多个目标;
[0102]
优选采用改进的具有噪声的基于密度的聚类方法(density-based spatial clustering of application with noise,dbscan),如式(5)所示,加入检测目标的距离约束,避免设置全局统一的参数,从而提高聚类的准确度;
[0103][0104]
其中d为目标点在毫米波雷达坐标系下的距离,minpts为邻域密度阈值固定值,minptsi为第i个点的邻域密度阈值,d为领域密度值的最大变化范围;
[0105]
实施例中d=50,minpts=4;
[0106]
改进dbscan方法将高密度的区域划分为簇,输出簇为毫米波雷达检测目标,如图4所示;
[0107]
步骤三、考虑安全因素的图像感兴趣区域提取,具体包括以下子步骤:
[0108]
步骤3.1确定图像感兴趣区域的中心点:
[0109]
通过步骤一确定的红外相机成像平面和毫米波雷达检测平面的对应关系,将毫米波雷达点在红外图像的投影点作为感兴趣区域的中心点;
[0110]
步骤3.2确定基础矩形框:
[0111]
根据国标中关于道路车辆外廓尺寸中关于汽车外形宽高比的推荐要求,车辆宽度和高度的限制分别为2.55m和4m,参照宽高尺寸绘制矩形,根据相似性原理投影到红外图像坐标系中,得到红外图像中的基础矩形框;
[0112]
步骤3.3提取图像感兴趣区域:
[0113]
提取所有基础矩形框的边缘点,组成新的矩形,考虑矩形框不能涵括车辆所有部分的情况,为了减少漏检,设置安全因素s,0<s<1,将新矩形向长宽方向分别扩展s,形成
感兴趣区域;
[0114]
步骤四、模型构建以及训练:
[0115]
步骤4.1构建模型:
[0116]
如图5所示,通过替换yolov4(you only look once)的cspdarknet53主干特征提取网络为mobilenetv2网络,mobilenetv2主要组成部分为深度可分离卷积和残差,mobilenetv2主干网络输出三个不同尺度和维度的数据,最小尺度层的数据通过金字塔池化结构(spatial pyramid pooling,spp)进行最大池化,通过将三层的数据输入到特征聚合网络(path aggregation network,panet)模块中,进一步提取图像特征,最终通过yolo检测头模块输出检测结果;
[0117]
步骤4.2模型训练准备:
[0118]
在训练阶段,对红外图像进行增广,对红外图像进行高斯模糊、锐化处理,用于模拟不同环境和不同成像质量下的情况;
[0119]
进一步的,增广方法为:对红外图像进行几何变换,用于模拟相机以不同视角成像情况;
[0120]
更进一步的,对红外图像进行的几何变换包括:平移、旋转以及镜像,用于模拟相机以不同距离、进入方向的情况;
[0121]
如图6所示,分别为原始红外图像以及对红外图像进行平移、旋转、镜像、高斯模糊以及锐化处理后的红外图像;
[0122]
步骤4.3模型训练:
[0123]
实施例中,基于公开数据集和采集的红外图像,创建6:2:2数据分割,分别用于训练、验证和测试;
[0124]
如图7所示,在训练阶段,使用迁移学习方法对网络进行训练,使用可见光图像集作为预训练数据对mobilenetv2网络训练,得到初步的权重参数,使用少量的红外图像对训练权重进行调整;
[0125]
为了加快模型的训练速度和得到更好的训练效果,采用冻结训练策略,首先冻结前161层网络,以16张图片为一个批次进行处理,最大迭代次数为50;
[0126]
在网络训练阶段,采用异步梯度下降,设置初始学习率为0.001,当检测到损失值下降过慢时,学习率将按照衰减系数0.0005减小;
[0127]
在一轮训练之后,得到初步的权值,解冻所有网络,以8张图片为一个批次进行训练,最大迭代次数50;
[0128]
第二轮的训练也使用异步梯度下降策略,若通过减少学习率不能使损失函数减少,则认为训练完成,得到最终的训练权重。
[0129]
步骤五、感兴趣区域检测;
[0130]
在检测阶段,根据步骤四构建并训练完成的模型对输入的感兴趣红外图像提取特征并预测,然后针对所有检测框,结合毫米波雷达的位置和速度信息,最后生成检测目标的位置和速度信息;
[0131]
实施例的检测结果如图8所示,图8(a)为可见光相机拍摄的画面,图8(b)为红外相机和毫米波雷达融合检测结果;
[0132]
从图8(a)可以看出,如图8(a)所示,在烟雾遮挡环境下,可见光相机已经无法判断
无人驾驶车辆前方是否存在目标,而应用本发明的方法能够检测出目标,并获取目标的位置和相对速度信息,如图8(b)所示。
[0133]
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
技术特征:
1.一种无人车在烟雾遮挡环境下的目标检测方法,其特征在于:基于红外相机和毫米波雷达联合标定,通过毫米波雷达有效性检验方法滤除大量无效目标,通过安全边界的图像感兴趣区域提取方法缩小图像检测范围,融合红外图像检测方法得到无人车辆前方目标的位置和速度。2.如权利要求1的一种无人车在烟雾遮挡环境下的目标检测方法,其特征在于:包括如下步骤:步骤一、红外相机和毫米波雷达联合标定,具体包括以下子步骤:步骤1.1建立红外相机图像和毫米波雷达检测平面坐标系的投影关系:红外相机坐标系为o
c-x
c
y
c
z
c
,红外相机安装在坐标原点o
c
处,红外相机的像素坐标系o
0-uv与平面x
c
o
c
y
c
平行;毫米波雷达的坐标系为o
r-x
rr
z
r
,毫米波雷达位于坐标原点o
r
处,毫米波雷达检测目标点r
i
在毫米波雷达的坐标系下的位置为(x
i
,y
i
,z
i
),由于毫米波雷达检测目标没有高度的数据,所以毫米波雷达检测目标的位置为(x
i
,y
i
);红外相机坐标系与毫米波雷达的坐标系坐标转换关系如式(1)所示:其中,ω为尺度因子,h为单应矩阵,表示两个平面之间的坐标变换关系,是一个3
×
3矩阵,(u
i
,v
i
)为毫米波雷达目标在红外相机像素坐标系中的位置坐标;步骤1.2对红外相机和毫米波雷达同时检测的目标进行标注,生成标注数据;步骤1.3根据步骤1.2生成的标注数据,确定单应矩阵h;步骤二、提取有效毫米波雷达目标,具体包括以下子步骤:步骤2.1对毫米波雷达检测的目标进行初步筛选,滤除空信号,初步选择有效目标;被测目标数少于检测目标数时,出现空信号,空信号的相对速度、相对距离和相对角度的数值为系统默认值,在获取的雷达目标信息中,符合雷达目标信息的相对速度、相对距离和相对角度的数值为系统默认值时,则筛选为空信号,并进行滤除;步骤2.2将毫米波雷达检测到的目标进行周期性筛选,滤除由于杂波干扰而导致的干扰信号;由于周围环境杂波干扰,毫米波雷达检测到一些不连续的干扰信号,这种信号存在的时间极短,且对应位置没有实际物体存在;毫米波雷达检测时,有效目标的身份标识能够稳定保持较长时间无变化,而干扰目标的身份标识在短时间内会出现较多次数的跳变,结合毫米波雷达输出的目标历史信息,通过式(2)对检测目标的有效性进行判别;其中n为采样周期序号,n∈(1,2,3,
…
),d
i
、θ
i
以及v
i
分别为第i个检测目标的相对距离、相对角度以及相对速度,d
thresh
、θ
thresh
以及v
thresh
分别为在采样周期间隔内的距离、相对角度以及相对速度变化的阈值;
只要检测目标符合式(2)中的一个条件,就判定为无效目标,并将该检测目标从毫米波雷达的检测目标中移除;步骤2.3对密集的毫米波雷达检测目标进行聚类,提高检测的速度和精度:当毫米波雷达前方探测的物体较近时,这个物体会产生多个回波,反馈的输出结果是多个目标;将高密度的区域划分为簇,输出簇为毫米波雷达检测目标;步骤三、考虑安全因素的图像感兴趣区域提取,具体包括以下子步骤:步骤3.1确定图像感兴趣区域的中心点:通过步骤一确定的红外相机成像平面和毫米波雷达检测平面的对应关系,将毫米波雷达点在红外图像的投影点作为感兴趣区域的中心点;步骤3.2确定基础矩形框:根据国标中关于道路车辆外廓尺寸中关于汽车外形宽高比的推荐要求,根据相似性原理投影到红外图像坐标系中,得到红外图像中的基础矩形框;步骤3.3提取图像感兴趣区域:提取所有基础矩形框的边缘点,组成新的矩形,考虑矩形框不能涵括车辆所有部分的情况,为了减少漏检,设置安全因素s,0<s<1,将新矩形向长宽方向分别扩展s,形成感兴趣区域;步骤四、模型构建以及训练:步骤4.1构建模型:通过替换yolov4(you only look once)的cspdarknet53主干特征提取网络为mobilenetv2网络,减少网络参数,提升网络的训练和检测速度;步骤4.2模型训练准备:在训练阶段,对红外图像进行增广,对红外图像进行高斯模糊、锐化处理,用于模拟不同环境和不同成像质量下的情况;进一步的,增广方法为:对红外图像进行几何变换,用于模拟相机以不同视角成像情况;更进一步的,对红外图像进行的几何变换包括:平移、旋转以及镜像,用于模拟相机以不同距离、进入方向的情况;步骤4.3模型训练:在训练阶段,使用迁移学习方法对网络进行训练,使用可见光图像集作为预训练数据对mobilenetv2网络训练,得到初步的权重参数,使用少量的红外图像对训练权重进行调整,得到最终的训练权重;步骤五、感兴趣区域检测;在检测阶段,根据步骤四构建并训练完成的模型对输入的感兴趣红外图像提取特征并预测,然后针对所有检测框,结合毫米波雷达的位置和速度信息,最后生成检测目标的位置和速度信息。3.如权利要求1或2的一种无人车在烟雾遮挡环境下的目标检测方法,其特征在于:步骤1.3中,采用随机采样一致性方法(radom sample consensus,ransac),确定单应矩阵h的初始值,采用列文伯格-马夸尔特方法(levenberg-marquardt,lm)对单应矩阵h优化。
4.如权利要求1或2的一种无人车在烟雾遮挡环境下的目标检测方法,其特征在于:步骤2.3中采用改进的具有噪声的基于密度的聚类方法(density-based spatial clustering of application with noise,dbscan),如式(3)所示,加入检测目标的距离约束,避免设置全局统一的参数,从而提高聚类的准确度;其中d为目标点在毫米波雷达坐标系下的距离,minpts为邻域密度阈值固定值,minpts
i
为第i个点的邻域密度阈值,d为领域密度值的最大变化范围。
技术总结
本发明公开的一种无人车在烟雾遮挡环境下的目标检测方法,属于无人车辆感知领域。本发明基于红外相机和毫米波雷达联合标定方法,通过毫米波雷达有效性检验方法滤除大量无效目标,通过安全边界的图像感兴趣区域提取方法缩小图像检测范围,融合红外图像检测方法得到无人车辆前方目标的位置和速度。本发明通过优化单应矩阵,提高红外相机和毫米波雷达的标定精度;通过检验毫米波雷达目标的有效性,提取有效车辆目标,减少融合数据处理量;通过基于距离的自适应方法,提高鲁棒性;通过优化神经网络,减少训练参数,提高检测速度;采用迁移学习方法,解决红外样本不足问题;最终实现在烟雾环境下的目标精确检测,增强无人车的感知能力。力。力。
技术研发人员:熊光明 孙冬 胡秀中
受保护的技术使用者:北京理工大学
技术研发日:2021.12.03
技术公布日:2022/3/8