防撞梁只是一个小插曲,后期自然会有人跟进。
李毅当下最重要的事情,是自动驾驶芯片的选择。
自动驾驶这个概念刚刚出现,多传感器方案就成了天选之子,后来直接延伸出来了端到端的概念。
端到端的第一端,简单来说就是感知端,像车辆的摄像头、激光雷达以及给各种车辆输入环境信息的传感器都属于感知端。
第二端则是形式轨迹,简单来讲也就是控制端,车辆在收集到第一端的环境信息后,最重要的是做出决策,对车辆进行行驶轨迹控制,从而让车辆根据环境进行加减速、避让等。
但无论怎么改变,自动驾驶的底层操作逻辑始终不会改变。
但是在过去这种模式里,自动驾驶架构被物理隔离,分为了环境感知、决策规划、控制执行三个模块。
第一个只能用激光雷达传感器等去感知。
第二个只能在收集到感知信息后做选择、决策。
第三个则是要在决策指令下进行控制车辆。
三者相对独立,只能依靠固定的语言和格式进行传达信息,在信息处理上就显得有些死板。
特别是在决策层方面,其各种决策依靠的就是工程师提前设想和写下来的规则,如果出现没有提前写下来的规则,决策层可能就会出现决策错误,这样的方式相当死板,而且说实话也没啥技术含量,毕竟依靠的都是外部硬件。
在这种应用里,激光雷达的概念被炒的最为火热,因为它是感知的最主要手段之一。
动辄上万元的激光雷达,一辆车上有时候都不止一颗,而是好几颗,这也成为了车企一个高昂的负担。
另外,虽说现在信息传输非常快,但信息在三个模块之间传输始终是有延迟,并且有可能在信息传输的过程中导致数据缺失,从而带来一些安全隐患。
所以他还不是完全的自动驾驶,只能称之为ADAS,即高级驾驶辅助系统。
但随着神经网络算法的提出,新的“端到端”概念,成为自动驾驶的最新趋势。
这个新的端到端就是通过大模型将感知、规划和控制三个模块集成起来,消除三者之间的界限,让它们成为一体。
在将三者整合之后,工程师不再需要写规则告诉系统什么是车道线、红绿灯、交通规则,反而可以直接抛弃规则,运用大模型技术在大量的驾驶数据中学习人怎么开车,寻找驾驶的规律。
这种方法相比之前工程师写下的规则,大模型学习之后能够更加迅速并且找到更加符合场景的应对策略,让车辆开起来更加像人开。
简单来说,激光雷达只是最初阶段小朋友学走路用的学步车,当孩子的两条腿和平衡性发育完整后,就会脱离学步车这个辅助工具,开始依靠大脑指挥自己的四肢自如行走。
这样带来的结果就是,李毅重生之前,全球智驾系统顶级研发商Mobileye,宣布了正式放弃激光雷达项目。
其他主流汽车厂玩家,也开始把资源全部投入到神经网络算法以及算力的持续提升方面。
这样一来,激光雷达作为“作弊器”的角色正在被弱化,因为汽车主机厂用脚投票把它投了出去。
当然你现在还没有那么苦恼,因为现在市面上不单单没有那么牛逼的神经网络算法芯片,就连激光雷达都没什么好的选择。
所以目前在智能驾驶选择方案里,特斯拉最开始使用的MobileyeEyeQ芯片,在李毅这里也就成了必选品。
EyeQ是SoC,集成了多种功能模块,其中就包括了视觉处理单元VPU,就是专门用来处理视觉传感器的数据,比如基于视觉的车辆识别、行人识别、道路标志识别、车道线分割识别、突发事件识别等等。
当然现在要用的是MobileyeEyeQ2,采用的是90纳米工艺,算力达到了0.026TOPS,仅仅是2023年EyeQ6算力的一千五百分之一。
但是即便这样,单枚EyeQ2芯片的价格,都高达12000美元,还是爱买不买。
“这么一枚芯片,7万6?”
老爹看着装在透明盒子里的EyeQ2芯片,惊讶的张大了嘴巴。
这是从马斯克送给李毅的那辆特斯拉里面拆出来的。
“对方给的报价就是这样,如果量大的话可能还能再谈。”李毅也有点牙疼。
一辆FF未来SU7,采用95-135度三元锂电池方案,电池成本按照三元锂电池对外销售价格计算,电池的成本大概在22万到33万之间。
一台车上配备两台电机,因为电机的原材料很多都是进口,加上其他研发成本平摊,这一块的成本攀升到了3万元左右。
当然这也是哪家电机对外销售的价格。
然后整车的车体、