1、Transformer大模型在自动驾驶中应用趋势明确:Transformer基于Attention机制,凭借优秀的长序列处理能力和更高的并行计算效率,2021年由特斯拉引入自动驾驶领域。
(1)Transformer与CNN相比最大的优势在于其泛化性更强,通过注意力层的结构找到更基本的元素与元素间之间多个维度的相关信息从而找到一种更泛化的相似规律。
(2)不同于RNN存在存储时间长度有限以及顺序依赖的问题,Transformer模型具有更高的并行计算效率并且可以学习到长时间距离的依赖关系。
(3)目前,Transformer主要应用在自动驾驶感知模块中从2D特征图向BEV鸟瞰图的视角转换。
(1)2023年有望成为城市领航辅助驾驶的大规模落地的元年,要求自动驾驶系统具备更强的泛化能力。
(2)目前已落地城市NGP主要基于高精度地图方案,但高精度地图应用过程中无法做到实施更新、法规风险高、高成本的三大问题难以解决。
(3)BEV感知算法通过将不同视角的摄像头采集到的图片统一转换到上帝视角,相当于车辆实施生成活地图,补足了自动驾驶后续决策所需要的道路拓扑信息,从而可以实现去高精度地图化。目前,小鹏、华为等头部自动驾驶厂商均明确提出“脱图时间表”,自动驾驶算法“重感知,轻地图”趋势明确。
(1)大数据:2018年至今,特斯拉数据标注从2D人工标注逐步发展至4D空间自动标注;国内厂商中小鹏、毫末智行等亦相继推出自动标注工具大幅提升标注效率。除真实数据外,仿真场景是弥补训练大模型数据不足问题的重要解决方式。生成式AI有望推动仿真场景大幅提升泛化能力,帮助主机厂提升仿真场景数据的应用比例,从而提高自动驾驶模型的迭代速度、缩短开发周期。
(2)大算力:超算中心成为自动驾驶厂商重要的基础设施。特斯拉AI计算中心Dojo总计使用了1.4万个英伟达的GPU来训练AI模型,网络训练速度提升30%,国内厂商中小鹏与阿里联合出资打造自动驾驶AI智算中心“扶摇”,将自动驾驶算法的模型训练时间提速170倍。
风险提示:雪球里任何用户或者嘉宾的发言,都有其特定立场,投资决策需要建立在独立思考之上