Xilinx社区
首页 > 高通汽车电子新闻 > 高通 叶志平:更高级别的自动驾驶将如何演进?
高通 叶志平:更高级别的自动驾驶将如何演进?
来源:车云网 时间:2018-03-20

北京时间3月13日,中国汽车工程研究院联合德国慕尼黑展览集团于在上海浦东喜来登大酒店举办新能源和智能网联汽车国际创新发展论坛。在汽车智能化、电动化、自动化大潮愈演愈烈的当下,该论坛在业内收到了颇高的关注。论坛期间,高通公司汽车事业部高级市场总监 叶志平进行了名为《加快推进未来汽车网联化、智能化及更高级的自动驾驶技术演进》的演讲,阐述了高通在汽车领域的发展战略。


以下为演进整理:

首先简单介绍一下高通公司,我们是一个有30年以上经验的公司。从最开始的无线通讯的技术到最近十年的智能手机,有爆发性的突出。这个都是我们在市场扮演的角色。从业绩上来说,我们从纯芯片设计的角度来说,我们是全世界第一的芯片设计公司。在汽车领域,几乎所有的世界上最大的车厂都有采用高通的汽车解决方案。在车联网这边,我们有十几年的历史。从3G一直到未来的5G,高通一直居于领导地位。最近三四年我们进军到车载中控和智能驾驶舱这个领域。在汽车上,三年四年不是一个很长的时间。我们在全世界最大的25家车厂,我们已经到了14家车厂采购消融的处理器。不管是中控或者是仪表还有多系统的芯片处理方案,我们已经赢到了蛮多市场上的认可。

汽车产品形态已变革

我相信大家在汽车行业都听到最近五年有巨大的改变,比之前的二三十年累积起来还要多。这个改变来自于移动还有互联网的方便和科技的进展而产生的。主要的这几个方向,我们看到就是连接、分享、自动和电动。尤其在连接这边,我们是有特别深的感触。用户体验上面也有非常大的提升,他们非常习惯的云端服务,在车上也可以达到,就跟手机上一样方便。对于车这个百年行业,车卖出去了以后,几乎跟客户没有太大的关系,是一个离线的关系。有了车联网之后,其实车厂可以跟它的用户一直有保持联络和信息交换。我想这个在汽车的生命周期可以加更多的数字上的服务或者是买到下一部车。

另一个部分是在车内的用户体验,之前都是radio加CD,最近的三到四年,我们看到有一个爆发性的中屏、大屏、横屏、宽屏、数字仪表或者是语音识别、手势认别,许多用户体验上有了提升。当然也不用说自动驾驶。其实许多电子上的改变,也让我们看到了在2020年整个汽车电子在车的成本角度上占了三分之一的比例,到了2030年,比例达到了50%。中间制造了很多机会给各个供应商。我们可以简单看一下基本自动驾驶的框架图。实现这么一个复杂的工作,我们需要给车许多非常有效率的传感器,以及有一个非常强大的处理器,通过人工智能做适当的判断和决策。今天是通过雷达来做一个远程的处理,透过camera做一个中距离或者近距离的,还有超声雷达。所有传感器都有一个强大的处理器,做一个适当的处理。其实我觉得我们今天看到所有的demo或者发布都是以中间以及左边的这些技术而实现的。我们觉得,整个架构是为了安全而实现的,还有很多改善的空间。去年美国交通部和高速管理部发布了他们对一年前的一个自动驾驶在高速上的一个事故分析报告。他们就很明确地说,以今天的自动驾驶技术,是不够满足于所有的用户场景的。比如说camera会以为前方白色的车是一朵云。我们希望在未来的自动驾驶架构可以加一些新的技术,比如说高精度地图和定位。

人工智能是大方向

在人工智能这边,我们在加州得到了自动驾驶检测的执照。我们在手机业务还有物联网的业务上做了很多人工智能的研究。我们现在有一个理念,在自动驾驶方面有很多demo级的发布,离真正大量生产比较普遍的使用,还是有一段时间。任何芯片的设计都会朝三个方向走。我们会去分配人工智能神经网络处理的工作,分配到适当的计算单位。这个demo是识别车辆的时候把工作分配为GPU或者安全开的路线,分别分给DSP或者GPU。另外也会采取很多措施,手机比较要常处理人脸识别,这个可以先把人脸采出来再给到人工智能的处理单位。另外一部分,我们看到许多人工智能的处理方案,我们希望采取一个整体系统化的优化。我们可以把深度学习提高,在我们的设计内,是把memory提前压缩,处理之后再放大。

最后一个是适当地把神经网路不同的层面压缩。最后有一个power的层面,人工智能上面,真正能够量产,车辆上没有空间能够有一个大水桶或者非常大的风扇。我们这一套系统是可以在八瓦之内做到自动泊车等级的自动驾驶的处理。十瓦之内是一个非常不错的数字。另外一个在人工智能看到的是,一开始神经网路的训练和执行都在云端,比如说大家都用过的语音识别,所有网路是在云端去执行的。但是在车上,很明显地是必须要在终端车上会具备自己的人工智能。尤其我们谈到安全性或者低延迟性的处理和决定。如果是用人脸识别或者是用眼睛去开锁,这些功能绝对是要在车内执行的。之前提到的嵌入式的系统,尤其对于power的需求,这也是我们在开发的一个方向。希望有更多传感器可以加入,Cellular  V2X也是我们比较期待的。这个指标在去年的3月份已经定下来了,已经有几个都全球公认了。在2017年的9月份,高通发布了我们的解决方案。在整个2018、2019年,我们会在全球跟各个区域的知名车厂和地方政府做一些技术的实验,来实现技术的商业性。C-V2X到底是什么?主要是让车和它的环境可以沟通。达到最大的效果就是在一个没有视线的状态,盲点的左转右转或者是前面有危险,前面的车突然改变方向,车的行为和信息可以提早地透过无线传到后面的车来避免事故的状态。

高通如何做V2X?

对V2X有研究的观众可能也知道,之前有另外一个C-V2X技术,这个在美国也探讨了13-15年。在做这些探讨的时候,有最大的技术困难,就是Do  Not  Pass,你跟在一个比较高的车上面,你没有办法看到前方。在一个单线路上你想超这个车,只要你进到了V2X的信号范围,当你打方向灯的时候,你车已经知道前方有另一个车。这个时候不安全做一个超车的行为。你会发现开了一段时间以后才进到信号范围之内。我们才看到对方的车已经过,这时候你的警报就可以解除,可以安全地过前面的卡车,再归回自己的车道。这是对C-V2X最有挑战的。这也可以实现到这个技术比较远程的地步。我们可以量化一点这个距离的差别,上面是C-V2X,我们量过,在一个400多米的距离,双方车的速度都可以在43miles,大概是70几公里。下面可以看到802.11P。右边是一个比较简单的图,这条线表现的是你速度越快,达到的距离越远。C-V2X可以更远更快的速度内提供警告。另一个,对未来的自动驾驶是一个非常重要的核心技术,就是高精度定位。高精度定位也可以帮到C-V2X。最重要的就是你的位置、你的方向和你的速度。高精度定位也是利用这几样,可以实现到非常准确的程度。我们位置上可以做到一米或者之内的准确度。

简单解释一下我们是怎么做到一米之内的定位的准确度。我们不但是用卫星的定位技术,我们还有一个VIO的技术,通过camera去采取前方的点,不管是一个树还是一个路标,我们去计算它改变了多少,以这个去计算这个车往什么方向动了多少。把这个和GPS再混合一次,输出一个非常精准的位置。基本上看右上方的中间值是0.4米准确度的偏移,90%的数据里面是在一米之内。这个在自动驾驶上怎么应用呢?透过高精度的定位,先清楚地定位自己在哪里。如果已经有一个高精地图的状态下,我们可以知道前面的路标非常精准的位置,知道它跟我自己相对的距离,我也可以做进一步的矫正。这些加起来可以达到十几公分等级的一个精准度。另外一个,当一个车已经具备camera,你可以看到前面的路标或者建筑物,任何时候它跟云端的高精地图有差别的时候,也可以上传上去,一直在更新云端的高精地图。

未来汽车产业机会巨大

我简单总结一下,我们相信未来人工智能对自动驾驶还有camera处理会有巨大的用处。我们可以大量生产,从整体系统上的考量去做人工智能的设计。同时我们相信未来的自动驾驶框架可以加入一些今天还没有加的更多传感器的信息。比如说C-V2X还有高精度定位和高精度地图。

最后说一两句关于未来5G的一些发展。5G现在已经进入全球各地,在2018年和2019年开始和完成技术测试。第一波5G的终端会在2019年后半部分达到量产的状态。在车上也是有一些初步的比较领先的车厂也在计划,会上5G。5G对整个行业的优势,第一是更高的速度,你的高精度地图甚至电影或者任何的OTA的信息,基本上在几秒之内就可以完成。第二个是低延迟性,可能毫秒等级。自动驾驶或者无人驾驶的车队管理。最后一个就是海量级,比较深的地库或者在同一个平方米之内可能有千万个海量的连接,这个对物联网是有一些好处的。我们也做了一些精简的分析。我们看到在5G整个经济的价值链在2035年的时候,最大的生态就是汽车。20%来自于汽车行业。我相信对各个车厂、供应商以及我们都是有巨大的机会。

more汽车电子市场动态
more技术专栏
more专家答疑
问:配置高通pmd9607的mpp管脚, 设置为模拟输入一直量不到电压,请教。
答:需要注意,MPP管脚并不是所有MPP管脚都可以配置的,请参考spec说明,你需要配置的pin有没有限制。通常模拟输入的话,还要配置ANA_IN_CTL等寄存器,需要外接模拟量,然后读取该pin的值的寄存器中HKADC值。
问:专家请指导: sensor厂家给的sensor相关资料(chromatix + lib)是支持前置摄像头的,“支持”主要是我这边验证过前置已经点亮。 后置摄像也用同sensor, 但用这套相关资料就点不亮了。 kernel层确认已经PROBE, 同时在/dev下有media0 media1,请协助该如何完成后置的点亮. p.s: 1. 该板后置如果使用其他sensor,可以点亮前后置摄像头; 2. 将后置摄像头拆卸, 可点亮前置, 不拆卸后置,同样可以点亮前置; 3. 如果前置后置一样, 前后置都点不亮, 但kernel层确认都probe, dev下有camera0,camera1,camera2; 4. 拆卸前置,仅后置, 依然无法点亮, kernel已经probe,dev下有camera0,camera1 针对前后置同sensor, 在sensor_init.c增加2sensor, 分别命名为: sensor, sensor_rear,同时在sensor_Libs目录下增加sensor,sensor_rear目录,主要是针对lib部分, 同时对lib中camera_id和position做对应修改(前:CAMERA_1,1,后: CAMERA_0,0) 写的太多, 一句话说明下问题: 前后置同sensor如何同时点亮前后置sensor, 是否需要修改lib中的参数,如何修改?还是其他问题?
答:从现象描述看,可以从以下几点排查。 1,sensor的配置,通常后置sensor 4lanes,而前置sensor 2lanes。换不同型号的sensor可以点亮,说明这些配置可能没有修改 导致一些问题。 2,重点看下,“拆卸前置,仅后置, 依然无法点亮,dev下有camera0,camera1,”,对比下前后置不同型号 枚举dev也是这样,看看HAL层dumpimage检查图像是否正常。 3,camera id枚举冲突,无法区分两颗相同的sensor,tuning参数调用是否正确。
问:请教专家,UE 链路层怎么样才能主动和NODE B断开。 设备和基站没有OTA log,也不太清楚是什么原因导致的连接断开。
答:可以通过AT命令CREG可以离线和在线网络。不知道是否是您需要的情况。 http://blog.chinaunix.net/uid-149881-id-2780145.html
问:有没有懂高通平台root 和解网络锁的高手?
答:eng和userdebug版本上通过adb root。你是否需要如下的方法么, https://zhidao.baidu.com/question/557640730.html
Copyright ©2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
京ICP备12027778号-2 北京市公安局备案:1101082052