当前位置 > 首页 > 汽车工厂 > 力争行业第一,对话理想汽车智驾副总裁

力争行业第一,对话理想汽车智驾副总裁

  在当今竞争激烈的汽车市场中,理想汽车凭借其创新技术和对市场需求的敏锐洞察,成功地在新能源汽车领域脱颖而出。今年,理想汽车的表现尤为引人注目,不仅在销量上取得了显著增长,还在品牌影响力和技术研发方面迈出了坚实的步伐。通过不断优化其首款量产车型理想ONE(参数|询价),理想汽车在用户体验和智能化功能上取得了重大突破,赢得了广大消费者的认可和赞誉。本次成都车展理想汽车的智能驾驶研发副总裁郎咸朋博士和理想汽车智能驾驶高级算法专家詹锟也对网友关心的理想智能化相关问题回答了广大网友的提问。

理想

  Q1:想咨询一下VLM视觉语言模型在实际应用中的挑战和解决方案,特别是克服推理时延问题和提高模型的实时性的一些解决方法?

  詹锟:对于这个部分,我们攻坚了小半年的时间。VLM视觉语言大模型的整体规模非常大,特别是相比传统的智驾模型,基本上是一个量级以上的参数规模提升。我们想把VLM放在车载芯片上是非常困难的,尤其是主流智驾芯片Orin-X,这款芯片在诞生之初并没有考虑过大模型的应用诉求。现在我们要部署的话需要克服各种工程困难,所以我们用了半年左右的时间,把推理时延从初期部署,优化实车到推送给千名用户使用,提升了13倍的推理效率。

  VLM的部署需要从“视觉”和“语言”两个模块上进行攻坚。对于视觉部分,主要有两个特点。一个是记忆模块,在自动驾驶的过程中视频是一帧一帧持续的,我们称为流式视频。需要把历史看过的信息存下来,保存缓存的能力,这样在推理过程中无需重复观察;另一个是“算子融合”,我们和英伟达合作做了很多的融合,在最新的版本上进行相互配合,研发出一个算子,使性能提升了很多。因为语言模型的规模一般比较大,我们的语言模型接近2个B,对应在车端上,我们的优化包括几个部分。首先,语言模型最大的问题,是我们从内存加载到计算芯片上,“内存带宽”的瓶颈直接限制计算的推理效率。过程中,我们做了很多的量化工作,比如将侦查模型从之前两个16位的字节压缩成只有4个字节,可以提升传输速度。

  另一个是“投机采样”,大语言模型一次说一个词,投机采样说出一个词以后,可以通过联想说出更多的词。比如“公交车道”,说了“公”之后,就可以联想出“交车道”,这是一个常用的连贯词,所以有一些小模型可以进行快速推理,这就叫投机采样,也是大语言模型非常重要的一个模块。这些优化以后,我们基本上将原来4秒一个样本推理一帧提升到0.3秒推理一次,提升了十几倍的效率。

  Q2:对于媒体或者用户来说,从技术出发什么才是真正的端到端?怎么评价它是真的端到端?什么样的效果认为它是最好的?

  詹锟:端到端是一种研发的范式,顾名思义,它是指做一个任务,从最开始的输入端到最后的输出端,中间没有其他的过程,用一个模型完整从输入到输出,这是端到端的本质含义,只要满足这个含义的,我们都可以称之为端到端。

  现在理想汽车是一体化OneModel端到端,通过直接传感器输入,模型推理完毕后直接给到轨迹规划用来控车,这就是一体化端到端,中间没有其他步骤。还有一种端到端的方法,是在中间分两个模型,模型中间以一个信号做桥接,输入是一个感知的模型,把感知结果再输入归控模型,合在一起成为一个模块化的端到端,这或许也能称为一种端到端,但是我们认为这样的端到端并不是真正的端到端。理想汽车的端到端本身想解决中间信息的损失,如果中间加了人为的信息消化过程,可能效率不是那么高或能力上限受到约束,所以我们认为一体化的端到端是更本质的端到端。

  Q3:前不久有人提出“500亿做不好智驾”的观点,两位对此有什么看法?

  郎咸朋:关于500亿,需要判断是一次性投资还是长期投资,就像今天提到的我们每年都会有10亿美金投资在智驾研发中,如果连续10年的话是超过500亿的。

  端到端+VLM的技术架构是一个分水岭。之前我们还是在用传统方式做自动驾驶,从这一代开始,才是真正用人工智能的方式做自动驾驶。从行为上来讲,如果是一体化的端到端模型,虽然在模型的结构、模型的训练方式上有难度,但最大的好处是,我们给出数据训练模型,模型输出结果,这样自然而然的过程,就是一个训练AI的过程。如果是其他类型的模型,势必中间会有一些人为的规则制定和判断过程。这个过程就没办法用纯粹的数据去驱动过程,而且里面还是有人为的工作。

  从现在开始,我们是真正地用人工智能的方式做自动驾驶。之前做自动驾驶的过程是需求分析、产品设计、功能开发、功能验证、产品迭代,所有产品的最终效果,都是有“设计”在里面。设计了通过什么场景就能够通过什么场景,没有设计到的场景可能就无法实现。而使用人工智能的方式,从我们自己的端到端模型来看,并没有过多设计场景,我们只需要告诉它,我要做和“老司机”一样的驾驶体验,输入所有理想车主中“老司机”的驾驶数据,这个数据筛选是非常严格的,在当时80万车主中,只有3%才是真正的老司机的数据。将这些数据给到模型,模型训练成什么样就是什么样,这就是人工智能,你给它什么样的数据,它给你什么样的结果。而不是设计什么样的场景,就会什么样的场景。

  在有了这个前提之后,接下来做自动驾驶的研发,核心竞争就是是否有更多更好的数据和与之配套的算力去训练模型。而算力和数据的获取,需要看花多少钱、投入多少资源去做。而这其中有些东西是用钱买不到的,比如训练数据,训练里程,各家车企有自己的数据,相互之间并不会互通共享。

  而另一个需要投资的是算力,我们现在5.39亿EFLOPS的算力,到今年年底预计8亿EFLOPS,这已经不是10亿人民币,而是20亿人民币的花销,一年就要消耗20亿人民币。未来进入到L4阶段,每年数据的增长和算力的增长,都是呈指数级的增长,这也就意味着每年至少需要10亿美金(六、七十亿人民币)。而5年之后,它需要持续迭代,在这样的量级下,一家企业的盈利和利润不能支撑投入的话是很困难的。所以,现在并不需要关注投入多少亿做自动驾驶,而是从本质上出发,是否有充分的算力和数据支持,再看看需要投入多少钱。

  Q4:现在很多品牌提出自己是引领者,理想汽车也在说已经跻身智能驾驶第一梯队,怎样评价端到端的技术水平?

  郎咸朋:从技术方面来看,对于普通消费者来说,他们并不关注是有图还是无图,端到端还是非端到端,大家最终关注的是产品和使用的体验,是产品价值。所以,我们不是要和谁比,而是希望能够为我们的用户提供更好的产品和服务。之前配合高精地图的高速NOA,高速NOA的体验达到了用户的使用需求。接下来,我们在做城市NOA的过程中尝试了很多种方式,其中一个很简单的思路是用有图的方式做城市NOA,但是发现并没有一个图商能够提供城市的高精地图,只能提供轻图。但我们认为轻图不行,因为一旦需要迭代图,就会出现时效性和是否能够真正使用的问题。我们不能够让用户感受到某个地方今天能用但明天就无法使用。

  最后,我们决定就做无图。以前的无图方案还是感知、规划、分模块的方案,里面有大量的人工规则和实车测试,先不说预算投入方面,时间上就非常困难。当模型迭代出来,如果想将一年四季的各种情况都跑一遍,没有一两年时间是不可能实现的,而且用户也不可能等那么久。所以我们又迭代到端到端+VLM技术架构,我觉得这个技术方案,本质上是人工智能方案,它不是设计出来的,而是自己成长出来的。

  另外,今天我向大家介绍了世界模型的内容。这个能力在我看来,是实现自动驾驶快速迭代的最重要的且最必要的保证。一个模型迭代,如果用传统的方式需要用大量的车、人、时间做测试,但是现在使用生成和重建技术,将以前出现问题的场景收集回来,自己组建错题场景库。每次模型的发布,大家看着似乎很轻松,实际上每次发布之前,我们将过去的错题都做了一遍,错题集的公里数是一千多万公里。也就是每次发布之前,单纯的错题就做了一千多万公里的测试,而且这是有效的错题集,不是随便乱跑的路试。除此之外,我们还可以生成场景、模拟场景,这也是是几千万个场景测试。现在用这种方式进行模型迭代比原来整车或者路试的方式要可靠得多,而且一年四季各种场景全都可以涵盖。这是我们的做法,其他友商品牌是不是这么做的,我们并不知道,但是我们完全是根据用户需求出发。我们迭代技术,不是为了技术而技术,而是这个技术确实能解决用户的需求,能带来更好的产品体验,那么我们就做这个事情。

  Q5:端到端最早是特斯拉提出来的,我们是不是受到特斯拉的启发?相比于传统的模块有没有什么区别?请分享一下我们端到端模型显著的优势,怎么确定我们的流程一定能跑通,我们底层的逻辑是什么?

  詹锟:特斯拉的确在2023年初就提到了端到端,也是马斯克在推特上说它体现了一个完整的从输入到输出直接控车的模型。大家看到这个消息后也很震惊,因为这个东西并不是他们刚提出来,在2016年的时候英伟达就有一个模型提到了端到端,也发表了一篇论文,但效果一般,只解决了特别简单的场景,以当时的算力和模型规模下,大家认为这条路是行不通的。

  到2023年,在新的transformer的架构上增加了超大算力,特斯拉做出来之后,又可能出现一个新的范式的复苏。端到端不是特斯拉第一个提出来的,但在往更有成长的方向上推进。我们看到以后,内部也在思考,端到端相比于以前模块化的模型,更本质的方法是减少了各种信息的冗余。在无图上,我们接近于模块化的端到端,我们有感知大模型,其实就是一种模块化的端到端模型。即使这样,我们发现端到端的模型还是需要规则,还是有分模块的数据和分模块的策略任务。我们这次在新的方案讨论和构思上,提出端到端一定要更彻底、更本质。理想汽车有非常丰富的数据,我们相信这些数据是能够支持我们做好的,这是我们的优势。所以我们选择了挑战更大、更困难的端到端一体化架构,它的上限很高,但缺点是训练比分模块的要难,包括数据配比和训练方法有很多的know-how需要去探索和挖掘,但我们还是毅然决然地选择了难而正确的道路。

理想汽车

  Q6:世界模型是由多个模型组成的架构吗?相比于系统1和系统2,开发世界模型的难点在什么地方?部分企业将世界模型部署在车上,理想汽车会会考虑把世界模型部署在车上吗?如果会的话会是在什么时候?需要什么前置的条件?

  詹锟:世界模型我们研发了很久,从去年7月左右预研到今年形成这个模型并用于实际业务中。

  世界模型分为两个部分,一个是错题集,也就是重建方案。重建是把建构的数据,还原成3D虚拟世界,在虚拟世界中可以根据你的行为做任何事情,可以做到所见即所得,看到你想要的新视角,比如车辆左偏移,可以看到左偏移后的视角,这就是重建模型。第二个是 diffusion transformer 的生成模型,这个模型吃了我们海量的数据,所以规模会非常大,和智谱、Open  AI规模差不多,是一个非常大的世界模型参数。同时他有很强的想象能力,具有认识世界、理解世界的能力,他可以生成没见过的场景,也就是“模拟题”。比如之前有一个行人 cut in ,我们想看到更急的cut in会怎样,或者之前是白天cut in,变成晚上cut in会怎样,都可以通过世界模型进行模拟。

  第二个问题,是理想汽车未来的思考。世界模型可以根据当前的环境去预测未来,能够推理出未来的场景,相当于世界会给你一个反馈,然后将它变成神经网络型。所以世界模型是可以在车上推理的,同时也可以把它用来做仿真器的使用。

  目前我们就是做的仿真器,原因是他需要理解很大的数据量,所以它的规模一定很大,大到百亿左右的参数量,直接上车会很困难。我们上车的模型需要压缩成更精简的信息,实际上我们的VLM就起到这样的作用——对世界进行推理和判别。每个研发部门有自己的技术判断和思考,对于我们来说VLM就是想代替世界模型上车的意思。举个具体的例子,之前我们看到一个正常的球如果滚到路中间,如果是端到端的话,会进行刹车,但是世界模型会想是不是还会有一个人会出现?会不会有个小孩冲出来?所以它会给出更谨慎的驾驶决策提醒,这就相当于我对世界有个更宏观、更综合的判断。其实 VLM 在我们系统上就是起到这个效果,当然,我们现在模型规模还很小,能力是有限的。

  郎咸朋:刚才提到两个关于世界模型的话题,第一个是在车上怎么使用世界模型。在有监督的自动驾驶上,发挥更大作用的还是端到端模型、VLM视觉语言模型,因为在有监督的自动驾驶需求下,端到端模型已经足够用了,VLM只是起到一个提醒辅助的作用。但是再往后走到“无监督自动驾驶”,或者L4级别的自动驾驶之后,这套系统因为没有任何人监督,它就要自己独立处理所有未知的场景以及突发的情况,这时需要一个更大的系统2模型,这个模型可能不但能看到这个球,还能猜出来可能一会儿有人要来捡球,车辆控制的要更好一点。这个时候的VLM模型,可能就不是22个亿的参数量了,规模可能会更大。但这需要伴随数据量的进一步提升,是下一个时代的问题。所以在下一个时代,我们向L4发展的时候,我们希望更多是通过系统2能力的提升,引领我们走向L4,但是在当前有监督的自动驾驶下,我们更多的还是端到端(系统1)的能力。我们在云端的世界模型,虽然都叫世界模型,但是还是有区别的,就跟端到端一样,有的是分段的端到端,有的是一体化的端到端。我们在云端的世界模型,可以理解为我们在云端给系统1和系统2搭建了一个测试和考试的世界。这个模型是虚拟一个世界出来,我们系统1 端到端模型、系统2 VLM视觉语言模型,在这里面都可以找到错题集去进行考试,在模拟世界里通过考试后才可以把它交付给用户使用,这是云端的世界模型,承担训练和考试的作用。在车端的世界模型,更多的是走向L4的系统2模型。

  Q7:请问理想如何保证在数据量不是十分大的时候模型的安全性?很多友商会专门的在模型之外强调它存在独立的安全网络的机制,在端到端和VLM这套系统当中,这种安全机制怎么样发挥作用?我们是否可以理解为现在的VLM模型是一种类似于介入或者安全性的机制?如果早期的端到端模型输出了一个错误的轨迹,纠错其实是在车辆执行的阶段?我们在执行阶段,在轨迹输出之前就把这个错误纠正了,这种设计主要是考虑到什么?最后还有一个额外的小小的问题,我们现在是不是同样属于一种“Two-Models”?

  郎咸朋:“安全性”是一个备受关注的问题,是否存在配合的问题,有没有独立的安全模块等等。大家之所以有这些问题,还是因为大家站在过去的非AI自动驾驶研发角度在思考。比如我以前是骑马的,他会问我汽车上有马鞍吗?是因为大家还没有真正理解什么是AI的做法,什么是非AI的做法,这是第一点。

  第二,现在很多人都说自己是端到端模型,但是真正的做端到端,还是要看两个能力:有没有足够多的数据和有没有充足的算力。否则,我觉得很难做出真正的端到端来,因为端到端是AI的做法。

  第三,端到端能力的上限和下限都很高。我类比一下,在CNN(深度神经网络模型)出来之前大家还在用传统的机器学习的方法做一些工作,比如我们熟知的图像分类任务,当时SVM类算法遇到了瓶颈,但是CNN一出来就碾压了他们10%+的提升。我想表达的是,大家还没有真正理解到端到端的能力,我们不会贸然的推给内测用户。

  在我们使用非AI方式的时候,在纵向控制这一个细节上我们要考虑到非常多的场景,这样在做场景规则设计的时候要设置非常多的条件,规定在某种条件下需要采取怎样的策略。但是当我们第一个版本的端到端模型训练出来的时候,我发现它在每一个路口或者需要纵向控制的条件下都会非常舒适。我们并没有针对特殊情况进行调试,是模型自己训练出来的能力。能够发现,我们在做规则的时候有很大的问题,因为场景过于多样化,我们不可能针对所有的场景进行规则的设定。但是我们用AI的方式做端到端模型的时候就会发现它有这种魔力,我们把数据给它,它就能真正学习到这些人开车的经验,不仅能学到上限,也能够大幅度的提升下限。虽然它依然有自己的局限性问题,但是我们解决他的方式不再是设定规则,而是给它更多更优秀的数据。

  同样我们也有兜底的策略,在控制模块上。因为我们端到端是传感器输入到轨迹输出,轨迹输出后给到转向、制动模块,在这个地方我们是有安全兜底策略的,比如它打算去进行急转弯180°的专项,我们会对他进行约束,但是这种类似的规则非常非常少,相比于之前的做法可以忽略不计。

  同时,我们提升了安全的底线和能力上限,我们的做法是不断给它优质的数据,它一定会学到很多安全的驾驶习惯。我们从第一个版本到现在迭代的12个版本,里面有三个虚线的框,这三个版本为什么没有推送给千人团?就是因为它可能在安全性、合规性、在世界模型的考试测评维度里没有达到我们交付的要求。我们内部有非常严格的交付标准,每一个小维度都要达到80分以上,这其实已经比一部分真人开的还要要更安全一些。我们内部的AI评价体系给我们带来了很大的保障,我们不断的给他提供优秀的数据,让系统的上限和下限都会持续提升。所以你现在再去体验2.3.2这个版本的时候,就会发现它的MPI就会提升到20公里一次了。20公里可能听起来不是很高,但是实际上在城市中一次短途出行往返就在20公里左右,所以大家可以感受一下它的这种能力。未来,当我们迭代到500-600万clips,甚至1000万clips的时候,我们就能真正做到城市中的百公里一次的接管,就真正实现了有监督的自动驾驶。

  Q8:刚才提到了MPI从10多公里提升到20多公里,未来可能到100多公里,所以什么是最理想的驾驶安全?也有一些人认为接管的频率越低,反而越危险,什么状态是最理想的人机交互的模式?

  郎咸朋:首先接管有很多种,有安全类的接管,也就是不接管会发生危险,也有效率类的接管,比如前车开得太慢了,老是被加塞。这两种接管是不一样,我们所说的接管不是基础的安全接管,而是效率类提升舒适度的接管。

  我们在用户的交付上一定是和现在不一样的体验,如果未来很长时间不用接管,人如果精神注意力不集中,是一定有办法的,我们会在中控屏去做提升,包括视频和声音,我们现在的一个课题就是“有监督的自动驾驶”下的全新交互体验,一定让你该接管的时候可以做到接管。而且依靠我们的评测体系,哪些场景和哪些地区发生接管比较高,也会提前推送给用户接管的信息,那个时候一定有一些新的东西。

  Q9:理想如何保证给到端到端+VLM数据是干净的?有哪些比较好的典型做法和案例?(如何防止人类驾驶陋习)这个模型如果没有污染,那理想的做法是什么?

  詹锟:无论做端到端还是VLM,数据都是最重要的,大模型一直在强调高质量数据。所以我们的第一步就是数据来源的清洗,这是很重要的。我们之前在发布会上也讲过,我们对驾驶数据的选择是非常严格的,我们对每个车主都有一个内部的打分,包含各个维度,并且进行加权,比如是否驾驶违规、是否长期压线、是否停过停止线、是否开车过程中急打方向盘或有不舒适等等,综合各种指标打出来的分数最后选择前3%的用户作为“老司机”。在理想大规模数据的情况下,即使前3%也是非常大的数据量级,依然能够保证我们拿到的数据是非常好的,至少驾驶行为是规范的,是舒适的、合理的,把这些数据给端到端就很好。

  第二层还有筛选,在模型训练过程中,我们还要对模型的样本进行一些场景的匹配和分类,有很多极端的,比较难的场景,会有评价的模型、评价的手段,以及一些规则都可以把数据清洗出来,给数据各个类型做很详细的标签分类。

  最后一层,我们在训练过程中会知道哪些样本是很难学习的,进行学习策略的调整,包括我们会故意构造一些合成数据进行强化学习和对比学习。针对我们的数据做一些学习方法的调整,这样下来对我们整个端到端的数据,VLM的数据都是很好的校验和清洗,给到的模型会更好。这个过程不是一蹴而就的,我们是根据问题来分析和迭代,一层层的修改,强大的评测系统让我们的迭代会越来越快。

  郎咸朋:还有一个问题,脏数据的问题。我们的数据量训练还是比较大的,我们后面即使有非常小的脏数据,因为AI的能力训练并不是有一个污点就能污染整个效果的,所以只要准确的数据量足够大,有一点点干扰数据也没有太大的关系。

  Q10:目前端到端内测推送了一个月左右,效率和整体使用感受提升非常大。但智驾相关的问题,通常涉及重要的安全相关场景,我在行驶过程中有一个关于用户反馈流程上可以改进的建议,流程能否由用户反馈——客服——工程师——客服——用户,简化至用户——工程师直接沟通?

  詹锟:我们在内部有一个自动化的问题分析工具,有些问题会涉及人工给用户进行一些沟通,但对于用户的问题我们有一个完整的自动化流转机制,会具体拆解成属于什么问题,应该怎么解,会进行模型化分析。

理想汽车

  Q12:发布会上提到马上就会推出OTA 6.2,目前内测OTA 6.2和端到端只能二选一,这是基于什么考虑以及在什么阶段我们可以不用做这个选择?

  郎咸朋:现在是因为版本基线不同,所以我们不能够做到同时推送,但是我们认为端到端量产交付之后就可以实现合二为一了。

  Q13:过去几年智驾的技术战快速变化经历了几次大迭代,您判断这种态势会继续吗?端到端+VLM会是一个有长期生命力的构架吗,为什么?

  郎咸朋:端到端+VLM是模拟人类思考认知的架构,因为我们做人工智能,最终是希望可以实现拟人或者类人。看到《思考,快与慢》这本书之后受到了很大启发,最终就想知道人是怎么做认知和思考的,目前的人工智能的框架我们认为是做的非常合理的,而且我们也很欣喜的看到,在我们提出后,行业内很多企业也开始提起双系统理论的好处,并且在尝试跟进。而且双系统理论,不仅可以用在自动驾驶上,它也是未来人工智能甚至智能机器人的范式。自动驾驶可以说是一个轮式智能机器人,只是工作范围是道路。所以,我觉得是有一定的长期行为力的,但技术发展是无穷无尽的,我们会保持对先进技术的敏捷感知,如果有新的技术我们也会追踪。

  Q14:理想汽车对高阶智驾有没有收费的计划?如果要收费的话,什么时候收?如果不收费的话,投入很高吗?有什么好的商业模式?

  郎咸朋:标配和免费都是理想从第一天开始进入智能驾驶就制定的策略,“有监督的自动驾驶”对所有AD Max的车主都是不收费的。交付量比较好且企业经营稳健,也有足够的资源投入智驾研发。交付量是非常重要的一个衡量指标,对于我们来说不是单纯卷交付量,而是还能为自动驾驶提供更多的车辆训练里程。

  Q15:理想汽车高阶智驾端到端的研发周期大概多久?

  郎咸朋:端到端模型+VLM视觉语言模型万人体验团开启招募,实际真正的研发分两个阶段,RD阶段和PD阶段,RD阶段从去年就开始,我们从《思考,快与慢》领会精神,讨论系统的研发和架构,技术本身是更好的事情,但是认真做端到端+VLM是从去年开始的。我们在RD阶段是一个非常小而精的团队,这也是我们理想内部智能驾驶一直在做的事情。实际上,我们做无图的时候已经在预研端到端,现在做端到端,实际已经预研下一代技术了。刚开始是RD阶段,当判断条件已经成熟和初步验证成功,会转到PD阶段。在今年4-5月,我们无图基本交付,再转到下一代端到端的交付,这是我们研发模式。

  Q16:理想目前感受自己和特斯拉智驾的差距有多大,大概什么时候能够追赶上?

  郎咸朋:去年的时候,我回复过差半年,今年可能还会再小一点。第一,从技术架构上,我们跟特斯拉没有太大差别,甚至更领先一点,因为我们有VLM,有系统2,特斯拉只是有系统1,端到端。第二,在中国的训练算力和训练数据上,我们认为至少从现在看我们是领先于特斯拉的,因为特斯拉不管是数据的合规性,还是受到中国的一些约束,以及训练算力的部署,在中国还需要搭建。在这个层面上看,我们在中国,可能跟特斯拉差距并没有那么大,我们也特别希望特斯拉能加入进来,互相学习,专注做自身的提升。

  Q17:端到端量产交付之后能给销量带来多大的增量?

  郎咸朋:无图NOA全量推送之后,门店的试驾量和销量都有大幅度的提升,近两个月,我们试驾翻了一倍(专门进店试驾AD Max)。第二,30万以上的车型,AD Max占比达到70%,原先AD Pro会多一些,L9 AD Max甚至占比90%以上。

  Q18:有一种观点认为智能驾驶的AI路径不太对的,不认为这条路径能走通,因为L2更注重低成本或者通用性,但L4的安全性解决后才能有通用性,所以量产车能不能做L4?

  郎咸朋:第一,我们认为一切还是从用户的需求和用户价值出发。理想汽车做的任何产品,都一定是要超越或满足用户价值的,用户觉得有价值我们才做。我们认为用户对自动驾驶一定是有需求的,所以我们不可能设计用户只能在成都开L4,其他地方开不了。

  第二,渐进式或者跨越式的技术路线,是各品牌都可以去讨论并选择自己的技术路线,但是理想汽车一定会选择一条满足用户需求的技术路线,我们现在选择用人工智能的方式去做自动驾驶。之前叫辅助驾驶是系统辅助人来开,主体是人。但是到现在端到端+VLM这个阶段后,我们认为是变成车自己在开。训练出完整模型之后,模型自己有能力开好这个车,我监督这个车哪里不行或者有提示需要接管,但是主体一定是车,人作为一种监督的辅助角色,如果达到这个程度就满足了我们用户对自动驾驶的需求,这是我们的逻辑。

微信
微博 QQ空间
 

最新文章

Smart精灵#5四天后开订!销售:售价超过25万
Smart精灵#5四天后开订!销售:售价超过25万

smart精灵#5将于9月20日公布配置,并开启线上预订。其基于SEA浩瀚平台打造,定位大5座中型SUV,是smart品牌最大的车型。除车长外,其他尺寸均超过奔驰GLC标轴。新车有单电机、双电机以及BRABUS性能版可选,车顶配备激光雷达,最大续航里程740km。销售员透露,精灵#5将搭载空气悬架,预计售价超过25万元。

爱卡汽车作者:爱卡汽车 62024-09-16

奇瑞V23配置曝光!销售:10月预售,一起喊9.98万
奇瑞V23配置曝光!销售:10月预售,一起喊9.98万

奇瑞iCAR V23已完成申报,5门5座布局,全系搭载低功率电机+宁德时代磷酸铁锂或三元锂电池,提供单/双电机2种动力,账面参数不及iCAR 03/03T。销售员表示,新车将于10月开启预售,也可以像iCAR 03一样选整装套件。别说你们馋了,我也打算自购一辆。销售门店经理回复到,一起来喊9.98万!

爱卡汽车作者:爱卡汽车 52024-09-16

丰田新纯电车将上市!比bZ3大不少 销售:价格差不多
丰田新纯电车将上市!比bZ3大不少 销售:价格差不多

丰田bZ探索空间的工作人员透露,新车采用12.8英寸中控悬浮大屏,支持4G车辆网络和OTA车机升级,售价和bZ3(16.98万起)差不多。

爱卡汽车作者:爱卡汽车 332024-09-15

Jeep新大切诺基5天后上市!少11项配置,只卖39.99万
Jeep新大切诺基5天后上市!少11项配置,只卖39.99万

具体看,高峰版相比远峰版取消了空气悬架、自动转向照明、迎宾灯、接近唤醒系统、后窗电加热除霜、感应式电尾门、方向盘记忆、Nappa真皮座椅(换仿皮)、前排座椅通风、氛围灯。

爱卡汽车作者:爱卡汽车 372024-09-15

奇瑞25款瑞虎9预售15.59万起 C-DM插混16.99万起
奇瑞25款瑞虎9预售15.59万起 C-DM插混16.99万起

9月14日,奇瑞2025款瑞虎9、瑞虎9 C-DM开启预售,前者15.59万起,后者16.99万起。汽油入门版和豪享版的预售价,较现款对应版型上调3000元。

爱卡汽车作者:爱卡汽车 372024-09-14

热门车关注排行TOP10 更多 >

×爱卡官方微信
用微信扫描二维码添加爱卡汽车为好友
您可以在微信上找车型、看热帖、读资讯,还能参加各种好玩的活动。