首页 科技 汽车 Echodyne 自动驾驶

Echodyne新款自动驾驶汽车雷达被赋予感知传感能力

声明:部分图文来自网络,版权归原作者所有.如侵权,敬请联系删除
作为一名交通科技记者,我(作者,以下简称我)坐过很多自动驾驶汽车,无论有没有安全司机。

使用一个或多个激光测距激光雷达传感器的数据,笔记本电脑或显示其他道路使用者和行人的屏幕一直是体验的关键部分。

由闪烁的点云构成的三维形状出现在屏幕的边缘,通常可以立即识别汽车、卡车和人。

乍一看,Echodyne的福特Flex SUV的屏幕看起来像是激光雷达显示出错了。

当我们探索华盛顿柯克兰郊区的街道时,模糊的点和模糊的线在显示屏上移动,随着移动而改变颜色。

它们和我从窗外看到的车辆和骑自行车的人没有什么相似之处。

这是因为这辆车不是用激光雷达来建立周围环境的图像,而是由比尔·盖茨资助的初创公司Echodyne开发的一种叫做EchoDrive的新的认知雷达系统。



具有讽刺意味的是,我不能立即解释可视化的事实是因为Echodyne的雷达功能更像是人类的视觉跳跃来关注比激光雷达的全局视图更重要的东西。



Photo: Mark HarrisEchodyne’s EchoDrive radar system visualization.

激光雷达的工作原理是利用镜子将激光脉冲引导到大视场上,使车辆能够在360度范围内探测到危险。

由于激光波长很短,激光雷达的空间分辨率也很高。

然而,激光雷达在雨雾或雪天的性能会下降,且最好的零配件仍然非常昂贵。

雷达价格便宜,不受天气影响,可以远距离工作。



但他们有两大问题。

由于波长较长,雷达很难分辨小特征,特别是在远距离时。

传统的雷达不容易在没有大型机械天线的情况下,像舰船上旋转的雷达那样,在广阔的场景中进行导航。

因此,现有的汽车雷达通常具有狭窄的、固定的视场,并且很少有能力辨别它们所探测到的是什么。

(雷达与几起涉及特斯拉自动驾驶系统的车祸有关)。

Echodyne的创新之处在于使用扫描阵列,这种阵列基于折射率可以电子调节的超材料。



然后,雷达波束可以被引导穿过一个广阔的视野,扫描前方道路上的大障碍物,或者聚焦在一个小区域,以帮助识别它检测到的东西。

Echodyne的创始人兼首席技术官Tom Driscoll表示,只要能够驾驶和执行任务,雷达在远距离的灵敏度就能比现有系统高出一个数量级。

他说:“基本概念是,通过推拉方位角、仰角、距离和多普勒的四维数据立方体,你可以在需要的地方和时间分配雷达的总边界资源。”

DARPA称这一概念为认知雷达,并已致力于开发它至少十年了,主要使用高性能(和极其昂贵的)相控阵雷达。

Driscoll用人类的视觉做了一个类比。

虽然我们觉得在我们面前的广阔视野中我们有着良好的视力,但实际上我们只有在眼睛的中心才有良好的分辨率,我们的大脑根据需要将注意力集中在周边。

同样,汽车的电脑也可以让EchoDrive雷达对现场的不同部分进行检测。



Driscoll说:“在一条开阔的道路上,我们可能会有光束追踪前方已识别的汽车。

然后你可以想象,来到一个T型交叉口,花更多的时间向左看,就像一个人类司机那样。

当您到达人行横道时,您将使用专门设计的interrogation模式来检查是否有行人。”

EchoDrive还有另一个特点。

该雷达除了像激光雷达一样报告目标的方位角(水平角)、仰角和射程外,还可以检测其相对速度,因为返回信号的频率是多普勒频移的。

雷达脉冲可能没有激光雷达的空间分辨率,但是微多普勒雷达谱可以通过显示诸如跑步者的运动手臂或自行车轮子的旋转等独特特征来识别物体。



一辆典型的自动驾驶汽车可能有三到六个这样的认知雷达单元,与传统的远程雷达、摄像机和激光雷达一起工作,并绘制高清晰度地图数据库。

尽管在某些情况下,认知雷达可能优于激光雷达,但Driscoll认为它是激光装置的补充而不是替代品。

他说:“我的观点是,这些4级和5级的车辆(能够在没有人为监督的情况下驾驶)应该配备每一个高端传感器,至少在问题解决之前,你可以将其合理化。

传感器融合是指传感器之间有足够的重叠,可以将它们“缝合”在一起。”

Echodyne已经向几家致力于自动驾驶技术的公司提供了EchoDrive雷达的原型,而Driscoll认为生产版的售价应该低于1000美元。

这比现在笨重的碰撞雷达更贵,但比最先进的激光雷达便宜得多。

激光公司也在试验由超材料制成的更便宜的激光雷达,很可能用于2级和3级驾驶员辅助系统。



即使实用可靠的自动驾驶汽车在未来几年仍然是科幻小说,像这样更智能、更便宜的传感器可以使驾驶更安全的同时,为每个人提供方便。
暂时还没有评论。
GIF
为改善用户体验,此网站使用Cookie。要了解更多关于Cookie政策的信息或拒绝使用Cookie,请查看我们的 隐私政策同意