我看过ACC的历史,1992年三菱第一个作出ACC,是用的Lidar sensor,后来各个厂家的产品,用的不是Lidar就是Radar,没有只用camera的,但有用camera辅助的。你说Tesla只用camera,我倒是很感兴趣,我现在上班,没有那么多时间,晚上看看你贴的链接。
有了互联网,学习新知识变得容易,在论坛里大家也互相学习,比如有些人机械方面比较强,有些人电子方面有一定基础,没有人对车什么都懂的,这里没有什么专家,希望你也能摆正自己的心态。
关于汽车的毫米波雷达:
Tesla关于Tesla Vision的声明:In 2021, we began our transition to Tesla Vision by removing radar from Model 3 and Model Y, followed by Model S and Model X in 2022. Today, in most regions around the globe, these vehicles now rely on Tesla Vision, our camera-based Autopilot system。而且从去年开始连USS都去除了。顺便告诉你一下,Tesla的Autopilot是L2的Autonomous level, ACC仅仅是L1的Autonomous level。
https://www.tesla.com/en_ca/support/transitioning-tesla-vision
1. 视觉测距原理:放狗搜索"视觉测距", 有单摄像头和双摄像头,方法也有很多种,下面连接是一篇关于《用于目标测距的单目视觉测量方法》
https://mool.njust.edu.cn/file/up_document/2020/10/0Y_fSIWH_w4Syjmo.pdf
下面是知乎关于单目测距的文章:
https://zhuanlan.zhihu.com/p/137943238
2. 视觉测距在ADAS上的应用
国内厂家中科慧眼的双目视觉介绍:
http://www.smartereye.com/newsinfo/1915661.html
Subaru Eyesight, 双摄像头,明确提到ACC
作为理工直男,你指出我说法的错误我可以接受。但是你不懂装懂,胡说八道,被明确指出错的厉害还胡搅蛮缠,的确也算是肉联脸皮厚的ID了。
利用视觉测距根本不需要辨识前面是大货车还是Mini Van,只需要能够从图片中辨认出前车的一部分作为参照物就足够了。比如说后车框,后车挡风玻璃等,面积越大越好。以这个作为参照物,剩下的距离测量就是使用视觉测距原理了。距离越远,参照物在图片中就越小,参照物的大小(即占用的图片像素)和距离是固定的系数。根据这个系数和参照物大小比例,就能算出实际距离。当然具体实施起来比我说的要复杂得多,包括如何选择参照物,如何校准系数等等。
你如果真的想知道如何视觉测距原理,这儿有一个youtube的例子解释的很清楚:
如果看不懂英文,下面的链接是中文的:
一个是用GPS测距,你可通过camera针对同一个目标在不同时间(距离不同)拍摄的图片分析,你可以知道两张照片之间的距离(GPS提供距离),通过这个距离就可以计算出物体的实际距离。这个我猜就是Garmin Dashcam的Forward Collision Warning如何实现测距功能的,我就有这个Dashcam,距前车距离是可以调节的,对算力要求也比较低,用那个Youtube的公式就能算出来。现在的GPS精度很高,可以很容易实现高精度测距。
一个是有的摄像头有陀螺仪或者加速器之类的传感器,类似GPS可以通过测量两次成像之间的时间差计算出两次成像直接的距离。有了这个距离就能够实现测距功能,其他同GPS。
下面一种是所谓的视觉里程计,是纯视觉方案,具体原理也是小孔成像,但是解释起来比较复杂,你可以看下面的链接,这个对算力的要求比较高。
http://zhuanlan.zhihu.com/p/23382110
实际上视觉还可以直接测量物体的尺寸,多个摄像头+图像识别就能实现识别物体的3D空间位置。只要测量的精度和算力足够,从理论上就能够实现全视觉自动驾驶功能。具体实施会有各种各样的问题,但是都不是不能解决的问题,主要问题是成本。
运动中,自己的车和前车只有3种情况。前车比自己速度快,这种情况下对于ACC可以忽略,无需测距,你永远不会碰到前车。后面两种情况都可以测距,当前车比自己速度慢的时候,你会快速接近前车,必然要刹车,减速到速度和前车相同,这个时候两车相对速度为零,可以开始测距。唯一的问题是如果你不刹车怎么办。这个时候是可以通过你说的比较图像比例大小变化达到一定阈值来实现,但是不准确,尤其是车大小不一样的时候怎么判断。当然也可以在这个时候通过Monocular SLAM实现,不过对算力要求会比较高。
至于校正问题,Camera出厂前校正后,那个系数为常数不变。GPS每次开机自动搜星,看到的卫星越多定位测速越准,也不需要校正。我的Dashcam只有速度超过一定时速才会激活,估计和这个是相关的。
但是ACC只是自动驾驶的L1级别,现在的汽车厂家都在推L2甚至L3以上的自动驾驶。在这些应用场景中,Lidar和Radar也一样需要扫描,也需要大量的算力。Lidar和Radar也一样有天气不好表现不好的问题。也有所谓的Ghost brake现象,无法根除。更关键的是Lidar和Radar比摄像头贵太多了。现在2MP camera几刀就能买到,Lidar和Radar无法和Camera比成本。Tesla全车用了8个2MP的摄像头,成本超级低。贵的是计算模块,这些年的计算机硬件技术进步(从硬件到软件以及人工智能等)使计算模块成本大大降低,计算精度大大提高。所以Tesla才敢采用纯视觉方案解决自主驾驶问题。
国内汽车一直是厂家采用GPS+高精度地图(厘米级别)+Lidar或者Radar方式实现自动驾驶。最近这两年发现高精度地图实施很困难,后续更新地图成本太高,实施自动驾驶有很大的困难。再加上Lidar即使国产化后还是非常贵,所以大约2年前纷纷转向到基于camera的自动驾驶(也就是Tesla的视觉方案),只不过没有Tesla那么激进,一般都会加Radar/Lidar辅助。
Tesla也不是一开始就纯视觉的,也就是这两年才开始纯视觉,以前一直都是Camera+Radar+Ultrasonic。前两年开始去掉Radar,去年开始去掉Ultrasound,做法是很激进的。这个也是Elon的个人特点,如果他当年不是那么激进的搞火箭回收,就没有现在的SpaceX。他敢搞纯视觉,说明技术已经基本成熟了。