现在的大模型,给解决自动驾驶的长尾问题,带来了希望。但是训练数据达到1.5万亿tokens的时候,为什么大模型就突然产生了“智能爆炸”,没有一种理论能解释这种现象。而模型转移为“端到端”,降低了对本地算力和网络带宽的压力。这条路线是没什么问题的,大家都拼命去升级算力硬件,算法队伍目前没有太好的办法,基本靠堆人力。这条路线也不是一开始就被公认的,Mobileye玩的那一套低算力+2D视觉方案,2023年吃了大瘪。2024年还要继续沉沦。而古早时期,居然有厂家拿着地平线J3,就敢声称做出L3自动驾驶。现在业内全都明白过来了,这茬早就不敢提了。