导航菜单
首页 » 攻略 » 正文

烧脑!干货!听驭势科技CEO吴甘沙聊聊无人驾驶的那些事儿!

十年后的北京只有100万辆私家车但会有200万辆无人驾驶出租车;

未来每天将会产生数亿单的网约无人驾驶出租车出行;

ADAS/自动驾驶/无人驾驶技术近两年的爆发是基于过去10年的“势能积聚”;

从“拿到驾照”,到成为能认路的“司机”,再到“老司机”,无人驾驶还需要提高人工智能在开放性和未知环境下的判断能力;

驭势科技要在2-3年内成为中国第一家同时实现辅助驾驶(高速)和无人驾驶(低速)商业化的公司;

2030年后,全天候全区域全速度无人驾驶将成为现实。

这些都是驭势科技创始人、CEO吴甘沙给出的判断、预测和“小目标”。

2016年12月27日下午,在位于“宇宙中心”五道口中关村智造大街的公司总部,吴甘沙和媒体聊了聊智能驾驶、自动驾驶和无人驾驶。吴甘沙通过主题为“智能驾驶:你所不知道的”100多页PPT(页页干货,无尿点!)把无人驾驶的过去、现在和未来以及相关黑科技浓缩成了一个半小时的演讲(确切的说是讲了一个故事,犹如一部大片儿),极其烧脑!

都有啥爆料?慢慢往下看!

无人驾驶的外因在于城市的变革

交通方式的改变推动了城市的变革。上世纪二三十年代出现了汽车,同时无独有偶出现了电冰箱技术。这两项技术带来了一系列城市的变革。最早的时候城市是一个个小社区,社区距离大小可以用一个小区来衡量,步行可以达到的,而且每个小社区都有自己的杂货店。所有的家庭主妇主要是和社区的杂货店产生交易,使得社区能够维持下去。但是技术的出现,打破了原有的结构。第一,大家的活动范围变大,使得城市的某些大的区域出现了超市这样一个结构。有了电冰箱一次可以购买更多的东西。杂货店的生意逐渐变少,超市成为了城市的重要的一部分。大家的活动范围变大,城市出现了中心和郊区。家庭主妇不用忙于每天采购,她可以去工作。

现在城市的发展又一次需要变革。现在堵车是城市主旋律,堵车导致了路怒、违规驾驶、交通事故。全世界一年因为交通事故死亡140万人,中国占到了1/5左右。交通事故不但带来了生命财产的损失,而且给社会带了了莫大的损失,因为医疗保险的成本,全世界是万亿美元。交通事故使得路更堵了,大家自己开车会发现百公里的油耗蹭蹭蹭上涨,又导致废气排放,又导致雾霾。

另外一方面不仅开车难,停车也变得很难。第一,一辆车96%的时间是停着的,需要两个停车位;第二,在美国有统计,发现商务区域一辆车行驶的里程中30% -35%是为了寻找停车位而不是A点到B点; 第三,很多大城市15%-30% 的土地是用来停车的,导致房价贵,而房价贵使得很多年轻人只能居住在远离城市中心的郊区,形成了上下班的潮汐效应,大量时间浪费在路上。有数据说北京很多工薪阶层一天有2.5个小时在路上。2.5个小时是我们生命的1/10,全中国算下来,一天有10-20亿小时浪费在路上。这是什么概念?回到五六千年以前,古埃及人建造一座金字塔花了这么多时间,而今天一天在路上就浪费这么多生产力。

网约车不能解决城市问题,但无人驾驶网约车可以!

网约车能不能解决这些城市问题?

网约车是互联网+,互联网本质是重构了信息不对称,建立了连接。原来的搜索引擎就是建立人与信息的连接,电商是人和商品的连接,社交网络是人和人的连接,分享经济是人和闲置资源的连接,网约车就是建立了这样的链接。使得很多人能够更容易打到车;第二,互联网使得交易成本大大降低,无论是时间还是金钱成本都变得更小了;第三,汇集了所有人,原来的服务只涉及到社会上层20%的人群,互联网使得很多服务让屌丝也能享受高端专车服务。

但提出2个问题。第一,互联网确实使得交易成本最小化,改变生产关系。但它并没有本质上改变生产力。交易成本降低了,很多商业模式所谓的羊毛出在猪身上让狗埋单,但是生产成本没有改变,生产成本是由劳动力和生产资料决定的。对网约车来说,生产资料就是车和油,而劳动力成本是司机的成本,这些是无法改变的。虽然早期,因为风险投资的补贴,使大家感觉到网约车让大家受益了,打车变得更加便宜了,但是一旦补贴停止,就不会这样了。第二,每个人感觉受益,打车更容易,但是社会整体上的效益是不是最大化?未必。比如说北京,可能有20-30万辆网约车,原来他们是不上路的,而现在如果上下班时间都上路了,使得拥堵现象变得更加严重,社会整体成本可能变大。所以我们得出的结论是网约车不能从根本上改变今天的这种状态。

所以,互联网挖的坑要通过人工智能填补。人工智能的实质是生产资料和劳动力的合二为一。 原来生产资料、生产工具和劳动力是分开的,而现在生产工具本身起到了劳动力的作用,一辆出租车变成无人驾驶,司机这个角色就不存在了,整个生产成本就会发生改变。所以智能驾驶是解决堵车,事故,排放、停车等诸多问题的终极方案。

大概通过10年的时间会发生一次质的改变。今天北京有接近600万辆机动车,7万辆出租车和20万辆网约车。10年后可能整个结构将发生巨大变化:只有100万辆私家车和200万辆无人驾驶出租车。这能解决什么问题呢?一是打车难,2分钟之内能打到车;二是打车贵,出租车的费用降到今天的1/3以下,因为司机不存在,油钱也更加便宜了。因为今天出租车大量时间是空驶、在路上找乘客,而未来全局的调度算法就能够保证就近乘车,油钱浪费的少,所以出租车费会降到非常低,而所有刚才说到的问题都将成为过去时。这里的商机是巨大的。今天的滴滴网络有几百万辆车,这几百万辆车一天产生2100万单交易。2100万单是什么概念?今天天猫和淘宝加起来一天是3000-5000万单交易,也就是说中国No.1的电商是这么大的规模。我们相信未来如果无人驾驶出租车变得更加便宜更加方便,一天将会是以亿单作为单位来计算的。所以是个巨大的市场。未来的这些车,首先是整整齐齐紧紧密密的在路上走,他们对道路的利用效率极大地提升,交通事故极大地减少,能源使用效率提升。为什么呢?大雁排成陈列飞翔,头雁是最累的,其它的雁因为风阻变小,会很轻松。同样,头车能耗大,其他车小。

未来城市的通行效率会提升。现在北京的平均时速是20多公里/小时,因为有红绿灯。未来如果有车车车路的通讯,每辆车会有特定的调度算法控制按照特定的次序速度去通行,在十字路口根本不用停就能通过,不用担心撞到其他车。车辆的平均时速会提高2到3倍以上。今天我们绝大多数时间是停着的,未来无人驾驶出租车大量时间是在路上跑。即使要停车,一个小小的停车位就可以停进去。今天停车很大是因为有很多新手,手潮,车位要留有足够的空间,开门下车。未来无人驾驶车就不会有这样的问题。未来这些车收车后,可以停到郊区,城市里面大量的停车空间都会被释放出来,它也会改变我们房价的走势。

达沃斯论坛以及波士顿咨询公司(BCG)对全世界很多城市决策层做的调研显示,48%的人希望这样的技术在未来5年实现商业化,40%的人希望未来5-10年实现商业化。所以城市决策者对这样的技术是非常期待的。这是外因。

无人驾驶的内因在于汽车产业的变革

在1997年有个广为流传的段子。比尔盖茨在一个大会上说,如果通用汽车像我们的计算机这样发展,一辆汽车今天只要25美元就能买到,一加仑油可以跑1000英里。他的意思是说计算机产业摩尔定律指数式发展。通用汽车马上就反唇相讥:如果汽车像计算机那样,它跑着跑着就崩溃了。崩溃了重启还不行,必须重装引擎。出了事故,安全气囊弹出来之前他还会出现一个对话框:Are you sure确认吗? 他是想表达汽车产业和计算机产业是完全不同的,不要用计算机产业的发展速度看汽车产业的发展。汽车产业有非常清晰的趋势。这张表Y轴是后来者竞争成本,X轴是产业和技术的发展。一开始后来者或模仿者的成本是非常低的。在1900年左右,全美国一度有250家车厂。随着产业的发展整合,后来者竞争成本越来越高。随着兼并扩大,产业纷纷规模化,后发的竞争成本居高不下。

最近这5-10年主要是四大趋势。首先是新能源车,新能源车从某种意义上说是一种新的种类的汽车。原来一辆车有3万多个零件,价值链非常长。即使像行业领导者如丰田,从采购零部件到最终卖出去,要200-300天,需要巨大的资金周转,意味着后来者是很难玩这个游戏的。但是特斯拉改变了这一点,特斯拉是美国从1950年到现在唯一出现的一家新的车厂,他改变了这样一个格局。它的电动车的一辆车零件数不到1万个,极大减少,价值链极具缩短。第二个是共享化,如优步、滴滴等,它改变了人们对于汽车的消费习惯,从买车变成买服务。第三第四是智能化和网联化。

由故事到现实,看汽车产业发展与人工智能起步

非常巧的是,人工智能恰恰在最近几年得到了突破,网联化如4G,5G,尤其是2020年的5G对于车联网会是一个突破性的技术。所有这四个趋势合在一起带来了100年未遇的机遇。我们相信在3-5年的时间里,会出现价值链的重新设计,整个竞争规则得到改变。这个领域是非常大的市场。德勤做的一项分析显示,如果把汽车产业和其他相关产业和在一起(如保险,能源,金融,交通,服务等)是2万亿美元的产业。这么大的一个产业发生变革,一定会有非常大的商业机遇。摩根斯坦利做了研究报告说智能驾驶真正普及后一年可能给美国带来1.3万亿美元的收益,高达美国GDP的8%。燃油节省,交通拥堵减缓,事故减少以及生产力的提升,也即路上的时间可以来做其他有意义的事情。

未来的汽车和今天的汽车大不一样,更像一个商业的空间。交通工具的属性会变得越来越弱,而商业空间的属性凸显。未来无人驾驶出行的运营商,某种意义上来说拥有非常大的商业地产。商业模式带来巨大的变化。在未来10-15年中,所有与人和物相关的交通,包括出租车、停车、写字楼、服务业,还有物流,200多万辆出租车早上晚上送人,中间可以送餐送货,还有金融业,如车险,都会变化。无人驾驶为未来揭开了一个商业化的变革。为什么是在2016年呢?

无人驾驶十年“血泪史”

现代意义上的无人驾驶最早是从美国2005年的DARPA Grand 大挑战赛上开始的。这些军用的汽车,在沙漠里做挑战。冠军获得者是来自于斯坦福。这辆车的领导叫塞巴斯蒂安*特龙。他从卡耐基梅隆“叛逃”出来的一位科学家,憋着一股劲儿要战胜冠军热门卡耐基梅隆。这台车是大众的途锐,车上面有很多广告,大家可以看到安卓,2005安卓还没被谷歌买下。安卓的创始人安迪鲁宾对机器人狂热。还有我的老东家Intel。斯坦福发现了自动驾驶不需要两侧后视镜,这样两边车窗上也可以贴广告,于是2万美元贱卖这个广告位。Intel本来押宝卡耐基梅隆,见这边不贵,就买下双保险,不料歪打正着。卡耐基梅隆本来是冠军热门,可惜下半场的时候掉链子了,被斯坦福大学拿了冠军。

等到2007年,DARPA又搞了一次城市挑战赛。这次卡耐基梅隆换了一辆通用的车,终于拿到了冠军,不过也算是惨胜:他们的投入远远超过了奖金200万美元。为了夺冠,他们组成了 40个人的工程师和机师队伍,同时专门有一辆大巴,备好各种零部件,避免出现上次零部件换不上的问题。这里面真正干活的一个人是克里斯*厄姆森(Chris ,后来是谷歌无人驾驶的CTO,前不久刚刚离开)。

中国2009年也开始了智能车未来挑战赛,这里也有一个很有意思的故事。当时国家自然科学基金要搞一个课题叫视听觉认知。大家想来想去,认知这个东西太虚了,一定要找个可以具体的、可以物化的东西展示出来,后来想到了无人车。那时候的无人车在做测试的时候,科研工作者也是非常苦逼的,比如举个牌子,看车是不是能够识别出“禁行“标志。这和百度前不久让程序员去测试车如出一辙。

2009年塞巴斯蒂安*特龙和谷歌创始人拉里佩奇勾搭上了,靠给拉里攒机器人勾搭上的。他说服佩奇设立一个新部门,叫谷歌X。他在谷歌X的第一个项目是谷歌街景,做完这个项目后,他建议做无人驾驶,这是在2009年,也就是中国智能车未来挑战赛那年,而且还把厄姆森挖来。两大高手终于开始在一起做,他一开始做还是以非常秘密的方式,和谷歌苹果的做事方式一致,很多东西是秘密进行的。这个车是他画出来的,丰田普锐斯改的,在2009年就开始做路试。谷歌很“狡猾”,车晚上出来,白天不出来,因为车顶上的激光雷达不怕天色暗,即使被人看见了,他吹牛就说是谷歌采集街景的车。所以一开始大家都没注意。一直到 2010年10月份,纽约时报的一位记者,也是世界范围内报道人工智能最有名的一个记者,John 通过层层走访,终于把这件事挖掘出来了。谷歌无人驾驶车要雇佣司机,司机又告诉他的高中同学,把消息泄露出来。

在2012年,谷歌买了一家创业公司,510 , 这家创业公司也在做无人驾驶,创业公司的头叫安东尼*莱万多斯基( )。大家都知道,后来他开了一家公司叫Otto,16年被优步买了。安东尼牛在哪里?他也参加了2005年的DARPA大挑战赛,用一辆双轮摩托车参赛,在沙漠里跑,竟然跑到终点了。他本身是个技术奇才。后来谷歌从普锐斯演进到第二代雷克萨斯,有大概二三十辆车。接着第三代考拉车也出来了。之所以叫考拉是因为正面真像考拉,前面的雷达像考拉的鼻子。我六月份时去谷歌看了一下,停车场里有二三十辆考拉车。

无人驾驶发展的另一条脉络,和这个以色列人有关系,他叫Amnon ,的创始人兼CTO。这哥们从MIT出来的。目前为止,美国几大名校都出现了,斯坦福,卡耐基梅隆,还有刚才的伯克利(安东尼)。他1999年就创立了,一开始没好好干,自己还在读博士后,他在斯坦福读博后恰好跟塞巴斯蒂安*特龙一个办公室。他是大学教授,所以搞ADAS,一开始是研究的方式,当时想能否用很低像素的摄像头识别行人?这时就有高手指点他,如果搞行人,车厂根本不在乎,车厂关心的是车道线检测,你如果把车道线检测做出来,车厂会非常喜欢你。他就紧急找了一个博士生,做了一套算法。这时通用汽车搞了一个竞标,要找到最牛的车道线检测方法,这哥们做了几个月,可能觉得自己的算法未必能脱颖而出,就玩了一招阴的。他去找通用汽车,说我这个算法不但能检测车道线,还能检测汽车。其实他的算法当时还不是特别成熟,但是通用汽车觉得这是意外之喜,就把标给取消了,把钱给了。是一家非常奇葩的公司,1999年成立到2014年上市,中间融资10轮左右,A,B,C,D,E,F,G都不够了,主要靠投资方和车厂。06年后真正推出了产品,产品形态就像这样一个小小的东西,前面装个摄像头,而面对乘客有个小小的显示屏,离前车太近了或者开车偏离了车道就给出警告。其实2007年我的团队与合作伙伴在英特尔也做了类似的一套系统,把行人检测、汽车检测都做出来了,很可惜当时英特尔感兴趣的东西是In- ,错失了一个发展机会。

ADAS系统到目前为止一年已经有几百万套的销量,但是它在普通乘用车上可能不算最好的应用场景,而在商用车上有很好的用途,像这样的大卡车、大客车,有很多盲区,司机看不见,经常出现拐弯时撞上自行车。如果在商用车装上多种摄像头来进行驾驶辅助,随时检测盲区状况,就能够帮助驾驶员更好地做安全形势决策。比如检测到骑自行车的,就发出警告。这样的场景ADAS使用是非常好的。

这是智能驾驶前寒武纪的历史。

到2015年就出现了寒武纪爆发的征兆。当年4月我去和一个人工智能界的大牛聊,他说无人驾驶不可能,太遥远。但是到今天,他自己的单位就是无人驾驶界重要的一个玩家。他的亲人也变成一家无人驾驶创业公司的CEO。

2015年自动驾驶的三件大事

第一,优步把卡耐基梅隆国家机器人研究中心的40个人,包括主任,5个主要科学家以及34个工程师全部挖走了。对于优步来说,这个时间已经体现了它的战略眼光。听一个朋友说,在某一个阶段,优步的成本是每赚1美元要在消费者端花60美分获取用户,在司机端花1.2美元激励司机上街提供服务。对它来说成本最大的部分在司机,所以他发展无人驾驶一定是动机最强的一个公司。

第二,特斯拉的真正变成了第一个量产的辅助驾驶系统。它前面有毫米波雷达,能够对前方100-200米车辆进行监测。超声波雷达在车身周围形成一圈保护。同时有摄像头,在封闭的结构化高速上实现长时间的自动驾驶,不但具有顺着车道线开的功能,还有有半自动换道功能,即打开转向灯,自动换道。可以说,特斯拉无论是在人工智能史还是汽车智能驾驶上都有很大贡献。

在国内也有件大事。2015年底百度展示的一款和宝马合作推出的车。百度和宝马最近撕了,当时还在蜜月期。这辆车身上反应了传统主机厂商和新晋互联网厂商的不同技术路线。顶上的激光雷达是百度装的,延续了谷歌的技术,采用360度旋转的激光雷达。但车厂不喜欢这样的激光雷达,这玩意儿顶那么高,又难看,空气动力学不好。车厂更喜欢在车身上挖洞,左边一个,前面一个,两侧两个,挖四个洞,里面藏着四线或八线的激光雷达。这辆车从某种意义上来说是个混合的系统。这辆车的demo可以说是百度的无人驾驶团队的自救行为,在相当长时间内它并不受重视,而且这个demo刚完成后,它的领导者倪凯离开了百度去了乐视,成为了乐视自动驾驶部门的副总裁。一件事情带出两个大玩家。我觉得这几件事是2015年发生的比较重要的几件事。

2016年自动驾驶起飞,负面信息起到正面作用

2016年新时代揭开了。1月份CES各大车厂都在推出自己的无人驾驶方案或路线图。汽车力量极大的一次展现,大概占了1/3的展示区。3月份出现,虽然和汽车无关,但是它使人工智能成为热门话题。恰恰在3月,通用汽车买下了创业公司 ,出现了一个惊人的数字:超过10亿美元的收购额,当然后来通用汽车CFO说只花了6亿美元。这对于智能驾驶创业是个巨大的推动。我是今年2月份出来的,我当时融资的时候,很多投资人对于这个方向还很不确信,觉得挺遥远。但这些事情接着出现逐步改变了投资者的认知。用《大话西游》里的一段做一个比喻:沙僧突然伏在地上倾听,八戒问他干什么,沙僧说前方有埋伏,八戒说看都看到了,还听什么?这恰恰反映了这个时间点,有些人觉得无人驾驶还要听,是个未来的东西。而有些人看到无人驾驶已经来了。

2016年无人驾驶之所以变得如此火,一些负面信息也是起着非常重要的作用,不要觉得负面信息只起反面作用,其实负面信息也帮助了无人驾驶变得更加广为人知。

第一个负面信息在2月底3月初,Alpha Go和李世石下棋的前几天,谷歌自动驾驶汽车第一次出现全责车祸。它以前也出现过不少车祸,基本都是因为太遵守交通规则,不闯黄灯,被后车追尾。这次是第一次主动的交通事故,撞上了一个大巴。当时一些媒体请我发表评论,我开玩笑说谷歌自动驾驶需要加入一些人工智能,很简单,全世界的大巴车司机你都要让他们。接着5月份,特斯拉那起车祸。当时是一辆带着拖车的大卡车,横在这个路口左拐,一辆特斯拉Model S 从这边高速开过来,当时司机据说是在玩哈利波特,车上传感器没有识别出来这辆卡车。咣,特斯拉从卡车底部钻了过去,司机当场身亡。特别讽刺的是这位司机是特斯拉车主社群中最热烈吹捧的一位。这起车祸引起社会的大讨论。

其实特斯拉还有不同的bug。这是它典型的一个 bug。在自适应巡航跟前车时,如果再前面停着一辆车,前车突然换道,特斯拉跟丢了,却不能及时发现前面停着的那辆车,就撞上去了。这是在特斯拉的车主手册中写好了的一个缺陷,大家用这个功能要特别注意,据统计在中国出现了至少2起车祸可能是因为这个原因,其中一起车祸导致了死亡,在今年一月份,特斯拉车主圈一直在流传这个消息,为什么一直没有确认是因为它的行车数据已经被撞坏,当时是不是处在自动驾驶模式下,现在已无从确认,但是车祸的特征与这个缺陷相似。

最近,和优步一直在争谁是世界上第一家无人驾驶出租车公司。但这两家公司都出现了一些问题。在新加坡撞了货车,优步最近闯了红灯结果还和加州车管所掐上了,结果车管所把他给禁了。

还有就是信息系统。这是今年出现的一个case,出现了2个黑客,他们黑了一辆大切诺基。他和车主说好了,我要远程把你黑掉,车主欣然答应。黑客远程把雨刷打开,收音机打开,音量调到最高,车主吓尿了,央求别玩了,但收音机音量太高,远端的黑客听不见,反而玩的更high了,结果把刹车搞失灵了,把引擎给关了,车开到沟里。智能车是个信息系统,信息系统方面的安全非常重要。后来奇虎360攻破了一辆特斯拉,最近腾讯的科恩实验室又攻破了一辆特斯拉。这也就让大家越发意识到,未来的智能汽车在信息安全有多么重要。

今年还出现了很多伦理道德方面的讨论。大家都知道那个电车难题,大家如果看过哈佛的公开课,有一个课名叫《公正》,教授叫麦克*桑德尔,他所讲的电车难题就是,假设有一辆有轨电车开过来,在轨道末端有5个小孩。你是扳道工,你可以把这辆电车扳到另一条轨道上,而另外的那条轨道上只有一个小孩,要不要扳?如果从社会整体利益的角度出发,你应该扳,因为原本要牺牲5个孩子,扳道了则只需要牺牲1个孩子;但如果从个人尊严和生命价值的角度来说,一个孩子的无辜生命将要因此被牺牲掉。这个电车难题在被套用到无人驾驶之中就又衍生出了更多的版本。比如,前面有5个人和1个人,到底选谁撞?老人和小孩到底该选谁撞?或戴头盔的骑车人和不戴头盔的骑车人该选谁撞等等。如果因为骑车人戴了头盔,被撞后生存的几率更大,而选择了撞他,这对于那些遵守交通法规的人而言是不公平的。

还有一种情况,比如一个人得了心脏病要紧急送往医院,他的无人驾驶车是不是要超速违反交通规则呢?还有,美国的马路边有很多的收停车费的表,一般停车的头半个小时是免费的,半小时过后开始计费,如果是无人驾驶的话,在一个地方停29分钟,又跑到另一个地方停29分钟,来躲避缴费,也是一个道德伦理问题。

另外就是数据隐私的问题,在特斯拉身上就发生过。一位特斯拉车主抱怨说,车子明明标榜续航里程能达到三四百公里,怎么在两个地方之间开了几趟,电就没了?特斯拉把他的行驶轨迹数据调了出来,发现车主实际绕路了。虽然续航里程的问题得到了回答,但车主却认为自己的一举一动都被别人掌握着,特斯拉于是表示可以将整个行驶路径的首五分钟和末尾五分钟掐掉,只记录中间的数据,当然车主只是得到了心理安慰,隐私的问题并没有完全解决。

再有就是软件后门和监管的问题,想象一下,未来政府是否会强制性的在你的车上装一个后门,来控制这些无人驾驶车辆该怎么办?这些都涉及到伦理道德问题,讨论是非常有价值的。

负面的消息实际上也带来了很多正面的影响。第一,让大众对于无人驾驶有了一个比较全面的认知;第二,从业者不再过度宣传,比如特斯拉的这一名称就给消费者以误导,让人们以为其可以做到完全的自动驾驶。原来特斯拉将这一功能的中文名称翻译成“自动驾驶”,而现在他们则把名字改为了“自动辅助驾驶”,这样就能给车主一种相对合理的期望;第三,从业者也开始变得理性,考虑最坏可能。比如优步的无人驾驶出租车,车里还是坐了一个人以达到监控的目的,而且要与乘车人签订协议,一旦出事儿,责任将由乘车人自行负责。最后,目前日本、英国等国家已经出现了新的针对自动驾驶的险种。这些都是负面消息带来的正面效应。

智能驾驶:进化之路

现在看智能驾驶,就应具备这五种形态。第一种是驾驶辅助系统,也就是人开,机器给予辅助;第二种则类似特斯拉的,也就是辅助驾驶,在封闭的结构化路况环境可以持续的自动驾驶,驾驶员仍然需要注意路面;第三种,到2020年后,这种车可以从封闭的结构化环境开进大街小巷,而司机可以做其他的事情,只要在发生情况时,能够在几秒钟内重新接管即可;第四种,到2020年时还有一种情况,就是限定场景的无人驾驶,完全不需要驾驶员,但限定区域、限定速度,谷歌的考拉车就是这样,在城市区域,不超过40公里的时速。最后一种就是全天候、全区域、全速度的无人驾驶,这种无人驾驶还需要很长时间才能实现。所以智能驾驶主要包括这五种形式,第二、第三种只能称之为自动驾驶,从某种意义上说这是一种人机共驾,而后面的两种则可被称为无人驾驶。

智能驾驶的群体运动

自动驾驶也好无人驾驶也罢,其大规模商业化与其成本有直接关系。为什么在2016年比较特殊?下半年,各大激光雷达的制造商都放出了这样一个消息:激光雷达的价格会变得便宜起来。激光雷达就是大家刚刚看到的那个安装在车顶上的装置,这个装置的售价在美国是7.5万美元一台,在国内是70万元人民币。有消息说,未来3-5年这个装置的售价有可能会讲到500美元以下,甚至是50美元以下。如果这样,其大规模商业化的门槛就降低了。

另一方面我们看到的是各大车企也都开始行动起来了,比如大众就在进行有史以来最大规模的一次改革,其改革的重心一个是电动化,另一个就是智能化。而像福特这样的传统老牌车企,现在也已经敢于挑战那些连谷歌都做不到的事情。一开始福特想和谷歌一起玩,但因为后来谈崩了,所以福特开始自己玩。福特在做连谷歌都做不到的事情——在雪地环境下进行自动驾驶,而谷歌只在加州、德克萨斯这种气候环境很好的地方进行了路试。通用则和Lyft建立了合作关系,一起做无人驾驶的出行服务。还有英特尔、宝马和搞在了一起。还有,高通公司以前是移动互联网巨人,最近以380亿美元的价格收购了NXP,大肆进入到汽车尤其是无人驾驶领域。

刚刚说到英特尔、宝马和的合作,而这边国际著名的一级零部件服务商德尔福也已经和联手打造一站式自动驾驶解决方案。谷歌这个最早的无人驾驶推动者,大家都以为他们会自己造车,然而他们最近“怂”了,宣布要成为一个车厂的技术供应商,先是跟菲亚特克莱斯勒公司合作,接着又和本田合作。所以大家可以看出,这个领域可以用一句“贵圈真乱”来形容。苹果也在秘密的研究无人驾驶车,最近宣布已经跟美国国家公路安全管理局进行了,要进行无人驾驶车的测试。国内,百度是最早进入这个领域的,腾讯也加入了,而360也在偷偷的进行着无人驾驶的实验。乐视就不用说了,最近四维图新也是比较高调。可见国内的巨头都已经纷纷进入这一领域。这一系列的事情都发生在2016年,是前面的势能积聚到一定程度后的一个大爆发。

智能驾驶:黑科技

智能驾驶背后的那些黑科技,大家都觉得是一种很高深的东西,但到底能做些什么?主要分几种情况。

第一是需要有基本的感知力,车子需要感知那些它不能撞的东西,还要感知和其他物体之间的距离。这是它最基本的功能,如果这一点实现了,相当于你是一个拿到驾照的司机了。这个技术要怎么实现呢?比如我们通过视觉来建立语义模型,车道线在哪里,车子要在线内行驶,哪些是车子,我需要跟着它,哪些是行人和自行车,这些都是车不能撞的,还要识别交通标志和红绿灯,这一切都需要通过机器视觉来实现,大家可以看到车道线识别,车辆识别,行人识别等等,不但要能识别还要能判断距离、相对速度。

另外一种思路就是用激光雷达,刚刚我们说的用视觉,数据提取出来是一个语义模型,而使用激光雷达获得的则是一个几何模型。其实在最早的这辆2005年获得冠军的车子上已经使用了激光雷达。大家可以看到这个车子顶上有五个激光雷达,这些雷达来自于一个叫SICK的德国厂商。每个激光雷达都能扫出一个平面,获得数据后判断出哪里有障碍物,这个车装了5个,而且俯仰角度不一样,所以就扫出了5个平面。这5个平面能让车子对环境有一个立体的感知。等到2007年城市挑战赛的时候,车顶上出现了另外一种激光雷达,不停的转动,可以达到每秒5-12转,而且有64线激光,比之前斯坦福的5线要多很多,所以对环境的感知度就强很多了。这家公司叫,他家原来是做音箱的,但它的老板是个极客,他从军方搞到了这种技术然后运用在了雷达上,而用这种雷达扫出来的环境精确度极高。不管是汽车、树木、建筑物,甚至是篱笆墙,都能够清晰准确的反映出来。这个可以说是无人驾驶历史上的一个很大的突破,当然,它的主要问题还是贵,要70万人民币一台。虽然如此,谷歌的一代无人车上还是装了这种雷达,不但装了,还把它顶的老高,这样它扫描起来,周围的盲区会尽量减少。然后它的第二代和第三代都装了这种雷达,当然第三代并没把雷达顶的很高,因为车子的弧线很大,所以车子的盲区本身并不大。百度的一代和二代车,顶上都装了这种雷达,当然在百度车的两边还有两个16线激光雷达,顶上配64线,两边是16线。我们做的车上面也配了16线的激光雷达还有32线的激光雷达。

这是我们的三种车,没有那么贵,但我们必须想办法弥补感知功能上的缺陷。马上想到的办法就是用视觉感知加上激光雷达。激光雷达的线数不多,分辨率较低,而且因为使用的是单色激光,所以仅靠反射强度没办法把物体的纹理呈现出来。而视觉是彩色的,我们这里举例,720P是720根线,分辨率较高,所以我们现在也要研究激光雷达与视觉融合的问题。

现在主流车型选择的是用视觉加激光雷达和超声波的方式放在车上,比如特斯拉,一个毫米波雷达,还有超声波雷达绕车布置了一圈。这几种传感器看起来还不算完美。

我们来还原一下特斯拉的这起车祸,为什么这辆特斯拉没有看见这辆大车。首先视觉会受到光照条件的影响,在这样的强逆光场景下,它对前面场景的感知就削弱了,但恰恰在这种相对较暗的情况下,有车灯的存在,反而能让视觉更好的检测出来前车。但在车祸发生时,那辆Model S是迎着早上的晨曦行驶,所以出现了这种强逆光的情况。还有一个情况就是,特斯拉配备的是以前车的尾部作为基准的,前车尾部是有很明确的特征的,车下方有阴影,车灯、外轮廓都是对称的,所以能够让摄像头很好的感知到前方车辆。然而悲剧的是,当时前方的车辆是横着的,这样的形态是不符合对于前车认知的算法的,也就导致车子没有识别出前车。

另一方面,雷达也没有识别出前车来。大家会问,你不是装了毫米波雷达吗?视觉没有识别出来,为啥雷达也没识别出来呢?钢铁侠的回应是,雷达是远远的在路上看到了几个反射点,但在这种高速行驶的情况下,车子是不会轻易刹车的。因为这种情况下刹车不但会让乘员感觉不舒服,也不安全。于是车子将前面的物体归类于路面上的一个交通标志牌。车子希望能在走得更近的时候进行更仔细的判断。再有,这个车的底盘较高,而雷达安装的位置较低,所以在车子靠近的时候就扫空了,两个传感器都没有发现前方的车辆,才会造成这起悲剧。

除了特斯拉现在采用的加强雷达方案,解决这个问题有两种思路:一个是改进摄像头,另外一个是改进视觉范围。改进摄像头,其实我们今天使用的摄像头还是比较原始的,但我们可以从自然界的生物当中学会很多东西,比如昆虫的复眼,对环境感知度极强,而且处理速度非常快。人眼的处理速度是每秒24帧画面,而昆虫的复眼可以达到每秒240帧,所以当人抬手抓昆虫的时候在昆虫看来那就是慢动作,有了好的眼力,脑子差一点也就没关系了,比如蝗虫只需要用一个神经元就可以检测障碍物了,而不像人脑子那样需要很多神经元去识别。鹰可以在两三千米的高空看到地上的兔子或者是一条蛇。它的远视能力极强,这是鹰眼的结构,它有两个中心凹。而变色龙和兔子可以做到360度环视。还有西伯利亚哈士奇能很快得根据光照情况调整瞳孔和焦距,在微光下可以分辨物体。所以我们能从自然界学到很多改善摄像头的方法。于是我们就做了一个双目摄像头,用这个可以让车子看到的世界更立体。大家可以看到,像这样的一个车子或者是障碍物,我们都可以感知他们的位置信息和距离信息,比如这辆车子刚刚出现的时候是暖色调,渐行渐远后变成了冷色调。我们把它叫做视觉雷达,相对于普通的毫米波雷达,视觉雷达的好处在于能够对障碍物的尺寸、形状进行感知。另一方面,普通的毫米波雷达对移动的物体相对敏感,对静态物体感知能力较弱。两者结合使用就是我们从生物界汲取的改进办法。在感知行人方面,传统来讲一般都比较困难。有了这种双目摄像头以后,包括小狗都能很好的检测出来。

另一个思路就是改进算法,比如像深度学习的算法。通过这种算法,不论是远近、不同角度,甚至这种奇形怪状的车,还有遮挡。比如这个车,只要露出三分之一,就能识别出来。如果在一个更加复杂的城市环境下,能够把行人的检测等一切都算进去。这个场景就要比高速要难很多了。大家可以看到算法对车的侧面也有很好的检测。

这就是目前的两个思路,如果这两个都做到了,表示你已经拿到驾照了。但接下来,你要变成一个能认路的司机。光会开车,不会认路也不行。这就要说道地图和定位了。怎么做,我现在就把我们的工作给大家展示一下,这些看着似乎很高的科技,一旦把逻辑捋顺,一切就非常好理解了。

定位第一步想到的就是用GPS,但对智能车而言普通的GPS是不够的,它需要的是高精度的定位系统。我们称之为RTK,能够做到厘米级别。普通的GPS能做到10米级的定位,RTK能做到厘米级的定位,我们叫它为绝对定位,也就是在任何一个时间点上都可以得到绝对的坐标。我们看这个,我们从地库出来,绕着园区开,故意走得弯弯扭扭的,绝大多数情况下它的轨迹都非常清晰,到这边有一个毛刺,但在这个方向上情况就不行了,信号跳跃的非常厉害。这和建筑物的遮挡、能收到的卫星数据有关,也和与地面基站的联系有关。我们换一个时间,另一个方向上的毛刺比较多了。

也就是说,就算你有RTK,有厘米级的定位精度,也是不够的,这就需要把高精度惯性导航加进去。现在在很多无人车里都在用的惯性导航,叫光纤陀螺,它的准确性确实很高,你可以用光纤陀螺盲开20分钟,它的定位依然比较准确。它是做相对定位的,就是通过相对位置的变化来把轨迹定位出来。但是这种光纤陀螺的价格太贵了,因为它目前主要是应用在类似巡航导弹的高精度武器上的,也就是说,如果GPS失效,光纤陀螺也还是可以进行定位的。但价格太贵就没办法广泛使用,所以我们用双目摄像头来取代光纤陀螺,叫做视觉里程计。这里显示的是我们配备了双目摄像头的无人车绕园区行驶的情况,以此将定位记录下来。这是如何实现的呢,是通过很多视觉参考点在帧与帧之间产生的位移来定位。把这些数据积累起来就变成了这样的一个轨迹。我们再来看一个更为现实的应用场景。在全宇宙最复杂的立交桥西直门立交桥,在这种情况下,GPS一般是会被down掉,这个时候就可以依靠视觉的方法把整个轨迹清晰地画出来。所以,就要将绝对定位和相对定位结合使用。现在我们看看两者结合的状态,还是绕着园区开,这个是规划出来的路径。非常平滑,不会受毛刺的影响了。

但这样也还不够。我们再给大家看一个场景,这是我们在一个院子里开,GPS的情况也不好,这时候我们用双目摄像头的视觉里程计就发现累积的误差非常大,这是什么原因呢?后来我们发现视觉里程计提取的视觉特征点不是固定的,比如一些叶子。为了消除累积偏差,我们在这些绿色点的位置树立了两块牌子,作为确定的视觉参考物。车子在扫描到参照物,马上对定位进行了矫正。这是一个比较朴素的想法,也就是每过一段距离就要设置一些固定的参照物协助车子定位,矫正偏差。

但这也有一个问题,就是在现实生活当中,你不可能到处去立这样的牌子,这样该怎么办?我们可以利用现有路面上的设施,也就是各种交通标志牌来帮助车子进行定位。我在地图里把这些交通标志牌的位置都预设好,等车辆上路以后,在这个实时视频中,那些红色的框就是识别出的标志牌,将其与地图中预设好的标志牌匹配,就进行定位。

当然这种方式还是不完美,因为在很多地方交通标志牌的分布非常稀疏,可能隔一两公里才检测到一个。这种情况下,我们就不能只靠检测三维空间的标志牌了,还有一种东西能够帮助车辆识别,那就是地面上的车道线和其他符号,相比稀疏的交通标志牌,这是连续的、丰富的视觉特征,我们可以用其来帮助定位。我们首先可以把地面的连续图像建立起数据库,当开车时,我们可以把实时看到的路面特征和数据库里的图进行匹配,这样我们就能更好的定位了。大家看,即使路面上有很多树荫,我们的算法还是能很好的匹配。这就是我们实际上路的情况。这个移动的窗口是我们实时看到的画面,背景是地面图,那条绿色轨迹就是匹配出来的定位轨迹。

我们通过将多种方法融合在一起,从绝对定位到相对定位,从视觉参考物清除误差,到三维空间中的交通标志作为参考物,到地面图像作为参考物,使车辆能够完美的定位,让智能车能够认路。

智能驾驶:认知因素

之前说,第一步要先拿到驾照,第二步是要做能认路的司机。而第三步就要能变成老司机了。而老司机就不仅仅能做到感知了,而要从感知到认知进行跨越。

首先要从检测东西到理解世界。刚才说的都是检测一些不能撞的东西,不管是啥东西,现在就要做到理解世界了。特斯拉刚刚发布的系统,已经不再仅仅是检测前面有台车了,而是能够分辨出那是一辆客车、货车或者是一辆摩托车了。这样就可以把老司机的知识加进去了。比如说,如果对方是货车那就要离它远一些。

紧接着,不仅仅检测车辆,还能识别车的朝向,建立它的3D模型。

更甚者,不仅仅是要检测感兴趣、数据库里有的那几种物体,还要能把画面中每一个像素所代表的语义都理解清楚。比如紫色的那块区域是路面,橙色的是车道线,这些是人行道、树木、车辆、天空等等。这个叫做语义分割。而且只是检测出整块路面还不够,比如在双向路面上只有这一半的路面是可行驶的,因此则需要进一步把这一半的路面情况识别出来。还有就是遇到车道线不清晰的情况,或者车道线被大雪覆盖的情况,或者是完全为土路的情况,车子都要识别出来可行驶的区域。

另外可能还要通过声音来判断路面是干还是湿,这样能帮助车辆选择更适当的控制方法。

以上这些都是从检测物体到理解世界的第一个阶段。

下一步不仅要考虑安全,还要兼顾舒适的驾乘感受,比如在这个视频里,我们姜老师上路前在车顶上放了三样东西:一个硬币、一个打火机、一个盒子。车子在熙熙攘攘的车流中加速、减速、换道,开了20多公里以后,这三样东西还是稳稳地放在那里,说明开得很平滑。考虑舒适性需要对这个世界有更深的理解。比如,车辆会懂得绕开坑洼不平的路面,这需要依靠激光雷达或双目摄像头。

认知的第三个阶段非常重要,从咏春木人桩到少林18铜人。大家都看过电影《叶问》,电影里叶问是跟一个静止的木人桩练拳的,但是在无人驾驶车真正上路了以后,你要面对的是十几个如狼似虎的人类驾驶员,这就好像是去闯少林十八铜人阵,你要判断态势,去评估其他人或物体的动机,预测他们的行为。比如,前车上面掉下来一个桶,你要去判断它是很轻且有弹性,还是很重的东西。如果是前者,我不用紧急刹车或者换道,那样不安全,只需要稍微刹一下车,掉下来的物体不重,撞上也不会有什么问题。但如果是后者,那就必须要刹车或者换道了。这可以通过一个循环神经网络( , RNN)进行判断。

还有就是在有很多行人的场景中。如果按照传统的算法,只要看见有人就会刹车,那车开起来就会一顿一顿的。如果我们能更好的判断每个人的动机和行动轨迹,当行人的轨迹与车的行驶路线不相交,就无需刹车,开起来的舒适感就会很好。

还有个有趣的工作,在这种环岛的情况下,智能车什么时候并线进去会比较好?需要一种算法能够判断其他人的行为,比如有的车看见并线的车会加速,说明驾驶员比较猛,可以再等待一下;而有些车减速了,说明驾驶员比较礼让或比较肉,可以迅速并线。这可以通过强化学习或循环神经网络实现。

所以这就是第三步,从新司机到老司机的算法过渡。

未来一辆车在路上开其实和Alpha Go很相似。Alpha Go是看到了当前棋局黑白子的态势,来判断下一步该怎么走。而无人驾驶车其实也是根据路面当前的态势来判断接下来应该怎么开。所以很多Alpha Go的算法都被应用到了无人驾驶方面。

人工智能还没有解决的问题:鲁棒性

下面要说的是人工智能还没有解决的问题,鲁棒性。

汽车是一个非常复杂的系统,这是我们拿到的一个统计数据,说奔驰的S级轿车上的代码行数是一架波音787梦想客机代码行数的16倍,可见其复杂程度。而一架客机软件的测试和验证成本可能接近整架飞机总成本的一半。所以在无人驾驶车上所应投入的测试力量再怎么大也不为过。传统测试只是检测代码,更复杂的其实是数据,以及在其上的随机算法和机器学习。什么叫随机计算?我们想象一下,同时出厂的两辆车所有东西都一模一样,但交到两个不同用户手里使用一个月后,两辆车的行为就完全不一样了。而机器学习则是指在大量的学习过程中总结出来的一些规律。如果这个数据不具有代表性或不完整,你学到的规律就是假的。这是谷歌做的一个研究,用深度学习算法去识别哑铃,为了去看所识别的特征是不是有道理,就把这些特征可视化出来。结果发现它识别出来的每个哑铃都带着一条肉色的胳膊。为什么呢?因为训练数据都是肉色的胳膊拿哑铃的,所以它就认为哑铃都是带着肉色胳膊的。所以机器学习,如果你给它的数据不对,是会出现问题的。

理论上来说,机器学习无法避免犯错。大家看这个低风险的场景,要求人工智描述这个图片,图片中一个男孩拿着一个牙刷,但却被认成一个棒球棍,无伤大雅。但如果是在无人驾驶的过程中,一旦识别错误就可能车毁人亡。

对于高风险应用,人工智能系统要有一个可预期的置信度,就是判断此事的把握有多大。我们再以5月份特斯拉的车祸为例,当时钢铁侠给大家的辩解是,你们这帮家伙别啰嗦了,我这些车子开1.3亿英里才死一个人,在美国平均是9千万英里死一个人,在全世界则平均是6千万英里死一个人,我已经比其他的车开得更安全了。但是我们要知道的是,他的数据样本太小了,没有足够的统计显著性。只要第二天再死一个人,安全里程就降到6500万英里了。到底要跑多少路才能证明自动驾驶比普通车更安全呢?兰德公司做了一个研究,说如果你想要以95%的置信度证明自动驾驶比普通车安全,你需要跑100亿英里。100亿英里是什么概念?就是一台车拼命跑500年。也就是说任何一个车厂的新车上市以前,都不可能跑那么远。那怎么办?有一种思路,就是通过模拟仿真,再加上强化学习。强化学习就用在了Alpha Go上。Alpha Go之所以那么厉害,是因为它左右互搏,自己跟自己下了8千万局棋。它一天下过的局数超过了一个职业棋手一生下过的局数。所以我们可以在模拟环境下让它得到提升。

深度学习今天有个致命的缺陷,它是个黑盒子,不可名状,不可解释,它为什么好或为什么差。但黑盒子往往会出问题的。看这个例子,左边的那一列图片和右边那一列图片从肉眼看来是没有任何区别的,中间那一列代表两列图片在像素级别的差异,这些差异不至于让我们人类对这两张图片做出不同的判断,但是深度学习能够识别出来这张照片是校车,右面那一张却不能判断为校车。这就是深度学习的bug。还有一些可以欺骗深度学习的办法,比如刻意的去制造一些在肉眼看来没有什么特殊意义的图片,但是深度学习却把它们误判为某些物体,比如把这张毫无意义的图片识别成猎豹。这些似是而非的案例被称为“对抗案例”。今年最大的一个技术进展就是希望通过对抗性训练,来增强深度学习对“对抗案例”的处理能力。

所以我认为在未来如果要将人工智能使用在无人驾驶领域,还需要提高其对开放性环境和 未知环境下的判断能力。

智能驾驶:面向未来的设计

另外一个关于无人驾驶有意思的地方在于未来我们要重新设计车辆。这个是对未来车的想象,他们的想象是,假设你开到一半觉得累了,可以把方向盘挪到中间,把座椅放倒,就像飞机商务舱一样,甚至可以把椅子转过来,跟你的旅伴聊上一路。甚至可以两个人都把椅子转过去,把后座变成电影屏幕。未来在车上会逐渐发生这样的变化。事实上原型车已经做出来了,比如像这样,这位女士开到一半不想开了,可以把方向盘直接交给一旁的男士。未来方向盘可以缩到座舱里,也就是说平常你可能看不到方向盘了。等到你要自己开车的时候再把方向盘拿出来。这个应该是日产的一个概念车。未来人与车的交互可能变成手势。这是奔驰概念车F015,两排座椅可以变成对坐。而像谷歌的这辆车上则实现了很多的创意,比如两侧的后视镜变成了摄像头,取消了前挡风玻璃上的雨刷。因为雨刷原本是为了让驾驶员开车的时候视线更清楚,但现在不需要驾驶员了,也就不需要雨刷了。包括今年年初CES上出现的这样的一款原型车灯,它是很智能的,像眼睛一样,可以跟着行人动,增加了车和人的交互。

这是我们马上要去展出的展车(这款车被吴甘沙称之为“城市移动包厢”)。在这辆车前面有一个LED屏幕。比如说它发现前方有行人就会停下来,屏幕上就会显示出一个行走的小人,等待行人通过。奔驰还做了一个蛮有趣的功能,车子在遇到行人停车时会在地面上投影出一个斑马线,协助行人通过。

驭势科技:汽车人,准备出发!

我们希望能够在未来两三年内成为国内第一家实现自动驾驶辅助和无人驾驶商业化的公司。我们这套系统实现了100公里时速的高速辅助驾驶。它的另一个亮点是带有自动超车的功能。如果前车太肉,自主换道超过前车。

我们另外一条产品线是纯无人驾驶。现在我们有2款车已经进行常态化测试,马上会进入运营,我们的成本是竞品类似原型车的1/5。第一款车单排两座,非常适合最后三公里出行,如地铁到小区或者小区到商业中心。现在这一段距离由黑车,摩的或摩拜单车实现。现在这些工具要么有城市管理问题,太乱不安全,要么就是利用率特别低。比如分时租赁一天的平均使用时间是2个多小时,利用率不高,因为都需要人去开,第一个用户停车的地方,不一定在下一个用户的位置。而如果实现无人驾驶,利用率非常高。我们在这个小车做了一个有意思的功能,我们希望车不但是无人驾驶,而且是无人维护,当它发现自己没电了,它会自己准确地找到带无线充电功能的停车位,以非常准确的姿势停进去开始充电。

第2款是共享出行,首先针对园区。它基于无人驾驶的理念做了重新设计,两排座椅对着坐,没有驾驶员的座位,没有方向盘刹车油门。这辆已经在我们园区常态化运行。场景非常简单,就是用手机把车叫来,告诉他去几号楼,然后你上车,它就走了,场景非常简单。

未来几年中国无人车事业的发展将是波澜壮阔。这是第一个报道谷歌无人驾驶的记者 John ,4月份写了一篇报道我们的文章,说无人驾驶会解决中国的很多社会问题。我们也试图在新品类中做原创的创新,我们把它叫做“城市移动空间”或“城市自行包厢”,它既不等同于高速汽车,也和微型电动车、低速电动车不一样,是一种全新的自主交通工具。即将到来的CES 2017上我们会推出来这一品类的第一辆原型车,它不是概念车,是即将可以量产的车。我们的展位在LVCC北馆,也就是关于汽车技术的展馆。期待与媒体朋友们在CES进一步交流。

只有“行之无拘无束”,“心方驾驭未来”。

以上内容是《中国汽车要闻》根据现场录音整理出来的内容,未经吴甘沙本人确认。

评论(0)

二维码