xiejin77 发表于 2025-8-12 09:38:58

晨枫 发表于 2025-8-12 09:21
你提到自学习,很好。智驾好像没有自学习环节?

晨大好

智能驾驶虽然没有直接的自学习,但是还是应用了不少无监督学习也就是强化学习的方法的,所以会受大量的人类驾驶素材中的习惯影响。

xiejin77 发表于 2025-8-12 10:18:18

本帖最后由 xiejin77 于 2025-8-12 10:21 编辑

赫然 发表于 2025-8-12 05:07
晨大佬,请教一下。
自控里面有没有(允许)不回归开放式的结果么?



我的看法是,要深入理解生成式AI的工作原理,核心问题在于调和其开放式的输出行为与回归式的底层设计之间的关系。在经典自动控制理论中,系统的首要目标是稳定与收敛。其工作模式是通过闭环负反馈,使系统的状态不断“回归”到一个固定、全局的设定点,任何导致轨迹发散的开放式行为都意味着失控,是必须被抑制的。但是,大语言模型(LLM)虽然在宏观上表现出这种开放性,其微观的运作机制却恰恰是回归式的。在生成文本的每一步,模型都会执行一次“自回归”计算,即根据已经存在的文本序列,通过回归分析来预测出概率上最合理的下一个词元。

这一看似矛盾的现象,其关键在于“回归”所指向的目标截然不同。控制系统的回归目标是静态且唯一的,它像一个强大的引力中心,将所有系统状态都拉向它。相比之下,大语言模型的回归目标则是动态且局部的。当模型生成一个新词后,这个词立刻成为新的上下文的一部分,从而彻底改变了下一次回归计算的起点和目标。模型并非要回到某个初始状态,而是在不断变化的语境中,持续地向下一个最符合逻辑和概率的“瞬时目标”前进。

这好比两种不同的旅程:自动控制系统是一次目标明确的返航,其所有航线都为了最终停泊在唯一的母港;而大语言模型则是一场永不回头的探索式航行,在每一个航点,它都会根据当前的水文气象(上下文)计算出最佳的下一段航线,从而驶向一个全新的、未知的海域。因此,大模型开放式的生成能力与其回归式的底层设计并非矛盾,而是因果相成的统一体。正是通过在微观层面每一次严谨的、以动态目标为导向的局部回归,才最终在宏观层面涌现出了那种强大的、能够探索无限语言空间的开放式创造力。

赫然老师的这个问题其实是一个非常好也非常容易混淆的点,我尝试解释一下,爱坛的专家很多,我的不确之处还请大家海涵,欢迎纠正指出。

晨枫 发表于 2025-8-12 10:29:09

赫然 发表于 2025-8-11 19:32
自学习是现在神经网络为基础的人工智能的一个特征。现在绝大部分对人服务的人工智能都会自学习,自动适应 ...

智驾还做不到自学习吧?否则几年下来,各车的智驾岂不都不一样了?

对了,你还提到模型的不唯一通道问题,这应该是AI的特征,数学控制的决策通道和结果是唯一的,同样的输入一定得出同样的输出。

AI在理论上可以同样的输入得出有所不同的输出。这在实践中是好事还是坏事,还想不明白。人类的决策也顶多是“统计一致”,具体下来会有细微差别的,手工产品不能完全一致就是这个道理。

但现在即使用NN作为控制律,我认为还是通道和结果唯一的。

晨枫 发表于 2025-8-12 10:30:10

xiejin77 发表于 2025-8-11 19:38
晨大好

智能驾驶虽然没有直接的自学习,但是还是应用了不少无监督学习也就是强化学习的方法的,所以会受 ...

离线学习、OTA更新?那不是AI独有的,任何软件定义的自控都可以做到。现在都是计算机控制了,都是软件定义自控。

晨枫 发表于 2025-8-12 10:32:24

xiejin77 发表于 2025-8-11 20:18
我的看法是,要深入理解生成式AI的工作原理,核心问题在于调和其开放式的输出行为与回归式的底层设计之间 ...

讲得好极了。还在学习和回味中。

幸好退休了,否则真要重新“学生意”了,好辛苦。{:203:}

赫然 发表于 2025-8-12 11:03:01

xiejin77 发表于 2025-8-11 21:18
我的看法是,要深入理解生成式AI的工作原理,核心问题在于调和其开放式的输出行为与回归式的底层设计之间 ...

写的太棒了。。。专家就是专家。。。{:222:}

我讲不清楚的(其实理解不深刻),你全讲明白了。。。这就是我想说的,而没有能力说清楚的。。。晨大还是看你这个专家的靠谱。。。

俺的砖引来你的玉,没有白抛。。。被晨大说道了一顿,不冤。。。{:191:}

sleepyr 发表于 2025-8-12 12:19:22

现在最流行的所谓的基于纯视觉的端到端的人工智能驾驶还是跟自动化有了本质的区别。这个端到端的智驾系统是通过神经网络自主学习出来的,而之前的智驾的系统更多的是依靠人工定义的规则。举个简单的例子,端到端的系统看到红灯停车,不是因为人为把交通规则写到代码里去,而是在训练的数据集也就是车企随车采集的人类司机的真实驾驶记录中,它发现绝大多数的司机看到有这个红色信号之后都会停车,它也就跟着这么做。回到最前面你提到的AI能不能在撞车还是撞人之间做出正确选择的问题,这个主要的困难可能还是训练数据的缺乏,毕竟这种情形出现的概率比较低。但是如果在训练数据里有足够多的做出正确决策的样本。其实这对于现在的自动驾驶来说并不是很困难。现在有的车企的思路是对于这种小概率事件,采用虚拟的视频来训练AI。所以我理解特斯拉之所以选择纯视觉的端到端的方案,除了成本以外,主要其实还是训练数据的来源问题。毕竟人类司机主要是依赖视觉来决策的,而不激光雷达或者毫米波雷达这样传感器。

晨枫 发表于 2025-8-12 14:07:11

sleepyr 发表于 2025-8-11 22:19
现在最流行的所谓的基于纯视觉的端到端的人工智能驾驶还是跟自动化有了本质的区别。这个端到端的智驾系统是 ...

如果红灯停绿灯行都要靠训练,那智驾完了。

赫然 发表于 2025-8-12 20:45:21

晨枫 发表于 2025-8-12 01:07
如果红灯停绿灯行都要靠训练,那智驾完了。

结果,特斯拉在停牌面前表演rolling stop。。。妥妥的,学坏一分钟。。。{:191:}

sleepyr 发表于 2025-8-12 21:08:51

晨枫 发表于 2025-8-12 14:07
如果红灯停绿灯行都要靠训练,那智驾完了。

传统自动化系统中的变量的数量一般都是有限,容易写出基于规则的代码。在开放道路上开车的变量就太多了,这也是为什么完全自动驾驶这么难的原因。我觉得端到端的自动驾驶并不追求百分白不出问题,这个是个不可能的任务。它的目标是超过路面上99.99%甚至99.9%的司机就可以了。这个我觉得这个目标通过现在的训练方式应该是可以实现的,毕竟训练数据是经过筛选的,甚至是定制的。发现AI学习了错误的驾驶习惯,把这样的视频从训练数据里剔除就行了。只要达到这个目标,保险公司肯定会提高不使用自动驾驶的司机的保费。到时候人类自己开车反而会变成一种奢侈的娱乐活动。
页: 1 [2]
查看完整版本: 智驾是人工智能吗