历史上的今天
今天是:2024年12月15日(星期日)
2020年12月15日 | 激光雷达VS视觉算法 究竟哪个是自动驾驶的未来?
2020-12-15 来源:电动车公社
大家好,我是电动车公社的社长。
最近,小鹏汽车因为两件事火了。
第一件是股价,一天之内暴涨33.92%,让许多人尝到了支持新能源的甜头。何小鹏反应很快,发了一封全员邮件,希望小鹏汽车的小伙伴们放眼长线利益,不要只看短期股价的涨跌。
随后股价果然跌回了暴涨前的价格……

另一件事,就是何小鹏和马斯克互怼了。
事情的起因是一位海外友人看热闹不嫌事儿大,在推特上问马斯克:“如何看待小鹏汽车在自动驾驶领域采用激光雷达,没有采用和特斯拉相同的纯视觉路线?”
不仅如此,还添油加醋地补充了一句,“小鹏汽车是不是意识到他们抄袭特斯拉的方案行不通了。”

推特红人马斯克当然不会放过这个营销的机会,直接指责小鹏汽车抄袭——
“他们只有我们旧版的代码,但没有我们最新的神经网络系统。”

何小鹏也不甘示弱,对此进行强势回应:

两边的粉丝也抄起键盘,吵得不可开交。一方认为马斯克打击异己,是一种霸凌的行为;另一方则认为小鹏汽车有剽窃代码的嫌疑,应该调查。

那么,为什么马斯克会如此反对激光雷达?
小鹏汽车,到底有没有抄袭?
以特斯拉为首的视觉派,和大多数厂商都支持的激光雷达派,谁才是自动驾驶的出路?

01. 激光雷达有多重要?
以前社长就和大家简单聊过,ADAS高级驾驶辅助系统需要感知、判断、操控这三步,才能进行驾驶的操作。就像我们需要双眼去观察、需要大脑去判断、需要四肢去操控才能开车一样。

这里面,负责判断的算法、负责操控的车辆架构都是各花入各眼,厂家们自有办法。但在负责感知的硬件上,却产生了巨大的分歧。
我们知道,感知的方法主要分为估计型的摄像头,以及测量型的雷达。就好比走路用的拐杖和眼睛,一个负责判断周围有没有绊脚石,一个负责判断周围有没有路、有没有人。

对于大多数厂家来说,只用一种感知方式是不够可靠的,事关安全无小事。
因此,大家普遍采用测量型和估计型紧密结合的技术路线,用丰富的硬件最大程度地感知环境,减少发生问题的风险。摄像头、毫米波雷达、超声波雷达、激光雷达多多益善,要是能用上GPS定位、高精度地图甚至是V2X车路协同,那就再好不过了。
总之,走路用的拐杖越多就越放心,反正咱有钞能力。
如果说大家的区别,无非是这家钞能力弱一点,那家钞能力强一点而已。
弱一点的,就比如传统主机厂和造车新势力,用有限的传感器实现部分自动驾驶,实现的是ADAS Cars,辅助驾驶汽车,目前最多能够支持到L3。

强一点的,就比如Waymo、百度Apollo、Super Cruise,用大量传感器实现完全自动驾驶,理论上要实现L4,甚至是L5。
激光雷达,就成了实现自动驾驶必不可少的硬件设备。Waymo甚至“以贩养吸”,成为了激光雷达的供应商,直接对外销售激光雷达。
我们在一线城市的开放试验区见到的自动驾驶测试车,100%都顶着这样的一个“大脑袋”,里面装的就是16/64/128线的激光雷达。

由于激光雷达每秒能发射数百万个激光束并测量返回时间,从而得到周围物体确切的距离和形状。

这海量的感知信息,能够让自动驾驶汽车更精确、更稳定地感知到周围环境,比如能从2σ(97.73%)提升到3σ(99.87%)。
所以一些舍得下本的品牌,就会采用激光雷达来换取安全覆盖率的提升。
不过,“一分钱一分货”这句话,在激光雷达上再一次得到了应验。
已经获得百度、福特、现代、尼康等多家公司投资、也是全球最大的激光雷达公司Velodyne,其16线、32线、128线激光雷达的价格,高达4000、4万、8万美元!
就这4000美元的VLP-16,还是在2018年打了5折之后的价格。

想要用硬件实现L3,怎么也得装一个,就比如率先实现L3的奥迪A8,车头的位置就有激光雷达。要是想实现L4,全车的一套系统怎么也要5万美金以上,奢侈点的甚至会达到10万美金!别说特斯拉了,这笔钱买保时捷Taycan都绰绰有余。

为此,马斯克不惜在公开场合怒怼激光雷达,也包括用了激光雷达的其他自动驾驶公司。
“激光雷达就像人身上长了一堆阑尾,阑尾本身的存在基本是无意义的,如果长了一堆的话,那就太可笑了。任何依赖激光雷达的公司都可能无疾而终。”
这也揭开了特斯拉和其他厂商之间斗争的序幕。

02. 进击的马斯克
马斯克拿出来的解决办法,是作为估计型感知的纯视觉方案。这种三目摄像头的环视解决方案,成本不过300多美金而已,比激光雷达便宜了不知多少倍。
其实想法也很简单:一个健康的人不可能用拐杖走路。人的眼睛能做到,凭什么摄像头的纯视觉就做不到?
如果你说人类能做到是因为有大脑,那就让神经网络系统模拟大脑不就完事儿了!

在纯视觉路线的引导下,特斯拉招募了一大批在常青藤名校做视觉的硕士生或者博士生,这群人也是在全球玩视觉玩得最6的。在最新的测试Demo里,特斯拉甚至已经在部分路段完成了L4级别的自动驾驶,并且能识别出绝大多数的交通参与者。
特斯拉是怎么做到的?其实就是这张图:

简单来说,我们的大脑是怎么学习的,它就是怎么学习的。
它会先通过特斯拉上的摄像头,给周围的交通参与者建立模型,同时把相片数据添加到神经网络的训练集里,让人工告诉它这是什么。
形成一定规模之后,它就会有自己判断的能力,比如这是一台小轿车,那是一台货车,那边是一个骑自行车的行人。
在特斯拉眼中,世界其实是这样的。

我在哪,我周围有没有车道线,周围有没有交通标志,我周围有几个交通参与者,分别离我有多远,他们运动的方向和速度都是什么……等等。
但神经网络终究是个AI,它存在误判的可能。有的是误判了物体类别,有的是误报,还有的是漏报。就比如前面有个龟速“老头乐”,早期的特斯拉不会做出反应,会直直地撞翻过去。

但这时,特斯拉的测试车,以及几十万的特斯拉车主就会介入驾驶过程,要么刹车,要么变道。
人工干预会触发一次快照,就是一段由多个摄像头、毫米波雷达、GPS等多个传感器组合得到的视频剪辑,和相关的后台数据。特斯拉的人员会进行复核,看看特斯拉的做法和人类的做法有什么区别,找出差距,然后让系统自动改进,也就是标注的工作。
在标注中学习,就是特斯拉的“影子模式”。

当然靠人工提供的精确标注帮助机器学习,速度太慢了——招一堆人标注员花掉大量的人员工资,可不是特斯拉的风格。
特斯拉要做的,是让机器自主学习!
既然特斯拉有几十万台车在路上跑,那这些从路上得来的,就都是标注数据。
需要训练防加塞功能?只要预测cut-in(加塞)的运动轨迹,再和真实数据进行比对就好了。需要训练行人碰撞预警?只要预测行人的运动轨迹,再和真实数据进行比对就好了。
而且机器的判断,错得越离谱越好——只有在不断的错误中,机器才能知道什么是正确的,才能在下次做出正确的判断和反应。
在去年的自动驾驶发布会上,马斯克宣称特斯拉是没有建设数据中心的,而是用每一台特斯拉组成了一个巨大的服务器集群。所以特斯拉才需要在HW3.0硬件上堆算力极高的芯片,只有算力够高,才能处理得了这么多的数据,才能进行大量的判断和计算。
通过算法和海量的数据,让特斯拉的驾驶能力高于人类,就是特斯拉真正的王牌。

这也成了马斯克怼何小鹏的信心来源——我们有神经网络系统,能做成纯视觉;你没有,所以你只能去采购高成本的激光雷达。
一言以蔽之:弟弟啊!奔跑吧!追赶吧!
03. 小鹏到底抄没抄袭?
但特斯拉的纯视觉路线,有一个致命的缺点。
因为摄像头是二维而不是三维的,现实却是三维的——这中间,会存在信息失真。
就比如对于这台MPV的识别,同样的感知位置,但纯视觉方案的结论更长、更窄,和物理上的事实有出入。人可以通过经验判断出车大概有多大,但摄像头不行。


而且,人都有可能被自己的眼睛欺骗,更不用说摄像头了。
此前,特斯拉就因为采用了不成熟的纯视觉方案出过不少事情。把大货车识别成一朵云直直撞了上去、在武汉直接撞翻一片中央护栏、识别出广告中一闪而过的STOP标志从而刹车等等不胜枚举,还遭遇了公关危机。
最近还有博士生用投影仪把二维的人体影像投射到路面上,测试用的特斯拉Model X却并没有识别出来是假人,依然进行了主动刹车操作,也证明了这一点。

这种缺陷,只能通过大量的学习和算法的演进,让机器学会和人类一样识别和修正。
所以包括小鹏在内,希望做L4自动驾驶的厂商都没有采用纯视觉的方案,而是用视觉+雷达进行双重感知,用大量的安全冗余来确保车辆和乘员的安全。眼睛没看见障碍物不要紧,再用毫米波雷达甚至是激光雷达去摸一摸,及时刹车或者躲避就好了。

这也是一开始何小鹏有实力回怼马斯克,说要把马斯克打得找不着东的原因。
那小鹏汽车到底抄没抄袭?
我们先来说说硬件。
这是特斯拉的,12个超声波传感器,1个毫米波雷达,8个感知摄像头(前3后1侧4),算力72TOPS。(不是144TOPS的原因是特斯拉的第二块芯片是做安全冗余的,不共同参与计算)

这是小鹏的,12个超声波传感器,5个毫米波雷达,13个感知摄像头(前3后1侧4环视4),算力30TOPS。

看上去,只是在车身四角多了4个毫米波雷达来辅助变道,多了4个环视摄像头来辅助泊车,其他的配置都一样!似乎有点抄袭那味儿了。
但实际上,特斯拉的三目摄像头里,前视广角摄像头有150°,小鹏的只有100°,剩下的感知需要用毫米波雷达和环视摄像头来辅助。而且特斯拉的后视摄像头是长焦,也和特斯拉的短焦不一样。
无论是摄像头变了、还是布置位置变了,算法都是要跟着变的。
其实从图上也能看出来,特斯拉的感知范围几乎没有重叠,就好比杂技演员在走钢丝,对自己的视觉算法非常自信。
但小鹏的感知范围则有大量重叠区域,也用了大量的硬件来做安全冗余。摄像头说这没障碍物,我还得用雷达测一测才放心。

而且关于如何定位车道实现进出匝道,特斯拉是通过毫米波雷达探测金属栏杆、再通过视觉来进行综合判断的,同样依赖于算力和算法。但小鹏想要实现NGP,则要依赖于高精度地图。下一代硬件,更是直接加入了激光雷达。
这也就是说,即使把特斯拉的全套代码都放在现在的小鹏车上,小鹏也没法用。
路线都不一样,何来抄袭?
所以特斯拉在2019年起诉的是前视觉科学家、现小鹏汽车感知负责人而非小鹏汽车,在2020年要求获得小鹏XPilot的完整源代码库、以及苹果对小鹏前员工刑事指控的法院记录的诉求,也被联邦法院驳回。
法院给出的说法是,让小鹏准备好XPilot的源代码,和Autopilot源代码一同移交第三方进行对比审核,并作为判决依据。
小鹏汽车也表明了自身的立场,“我们始终同意向中立第三方提供源代码以供调查。”

04.谁才代表着自动驾驶的未来?
其实在自动驾驶这场战争中,没有绝对的对与错,只有适合和不适合。
在此前的所有方案中,纯视觉方案,更适合那些才华横溢的天才们发挥。他们用自己的智慧,让机器学会和人类一样深度思考,来代替人类驾驶车辆。
激光雷达方案,则更适合那些敬畏生命的老实人。在他们眼中,自动驾驶这类的新技术必须要达成100%的安全,而不是99.9999…%。

不过有意思的事情来了,今天文章里所提到的一切和竞争格局都有可能在接下来的1-3年内发生翻天覆地的变化:
关于视觉,马斯克在几个月前宣布:全部重写FSD代码。按照马斯克的说法是:这是质的飞跃,并且会很快实现全自动驾驶。
关于激光雷达,华为在广州车展前放出消息,他们计划生产的激光雷达体积非常小,不再需要顶在车顶了,最关键的是,跟市面上动轴几十万的激光雷达相比,华为准备把价格打到100-200美金的白菜价,如果华为能做到,相当于价格降低了98%,那就真的会成为所有车企抢着买的爆款了!
这其中还有一个关键,马斯克应该是理解不了中国的996的,就像马斯克应该也不会理解我凌晨00:29分了,还在公司写他不懂我们996一样。所以他才会坚定地认为激光雷达的价格是不可能真正被打下来的。

当然,华为的激光雷达,目前还没真正做到传说中的超低成本,但据小道消息说,也已经到了几百美金的区间了。(华为的故事,我正在写,我们过两天仔细讲)
而马斯克向来有“马大嘴”之称,吹牛归喜欢吹牛,但牛的地方在于,吹过的牛都会实现,只是实现的时间一般会比他的“牛”里的时间稍微晚一点。
这场旷日持久的巅峰对决,才刚刚开始。
史海拾趣
|
作为一个非手机发烧友,我对手机的了解是很有限的,所以本文充斥了很多也许是不正确的、个人的观点,说得不对的地方请多指教。 写本文的目的,就是为了跟大家探讨一下选W709的心路历程和使用的一些感想。 文章也许不那么好,但是至少我是认真去想 ...… 查看全部问答> |
|
#include #include //寄存器宏定义 #define WRITE_SECOND 0x80 #define WRITE_MINUTE 0x82 #define WRITE_HOUR &n ...… 查看全部问答> |
|
我手上有个机器。是西安富立叶公司的CS100型号。http://www.cilico.com/ProductShow.asp?ID=67 这个是他们网站的此产品介绍!前些天拆开清理时候发现里面有个BENQ明基的GSM模块。型号为56M32.有sim卡插槽。应该是可以通过这个模块上网 ...… 查看全部问答> |
|
sysMemTop( ) - get the address of the top of VxWorks memory This routine returns a pointer to the first byte of memory not controlled or used by VxWorks. 想问一下到底是哪个地址,是内存 ...… 查看全部问答> |
|
以前的帖子,重新整理到这个版面。 OSAL通过一个16位宽度的数组来管理事件,意味着OSAL最多可以支持16个事件,其中最高位(0x08000,SYS_EVENT_MSG)系统保留,用户可以使用的事件有15个。事件的使用很简单:1)需要找个地方定义事件的ID ...… 查看全部问答> |
|
串口中断可以和定时器中断一起用吗?我用的是STC12C5A60S2单片机~~为什么每次都进不了串口中断~把定时器中断关掉就可以进入串口中断?串口中断我是用的独立波特率发生器,定时器T0和T1都用了~跪求解释呀!!!~程序其他都没问题~把串口中断设为最高 ...… 查看全部问答> |




