爱吱声

标题: 人工智能来了,自动化是不是该瑟瑟发抖了? [打印本页]

作者: 晨枫    时间: 2021-4-26 12:05
标题: 人工智能来了,自动化是不是该瑟瑟发抖了?
本帖最后由 晨枫 于 2021-4-28 07:28 编辑
; e6 D' L! Q( o2 v3 t* Z2 r7 s/ J! J/ Y0 N1 e5 |5 {$ S
机械工业出版社要重印《大话自动化》,抓住我写一段。那就写一段吧。
0 m5 w5 P% o& z; F+ N# W
% r0 C6 L- b8 y======================================& J& Y: Q0 ~4 T9 |9 n* o, Q+ y
/ d' T( y( n8 B3 W
在机器时代,有“机器吃人”的愤怒控诉;在自动化的时代,轮到机械化慨叹过去的好时光了。在人工智能的时代,是不是该轮到自动化瑟瑟发抖了?
8 z# ^5 J9 W# `3 c9 n
4 _9 b7 a- o4 a/ F历史就像一个老顽皮,在人们不经意中,一次又一次开着同样的玩笑。历史但只是开玩笑而已,因为玩笑过后,人们发现,机器不吃人,机械化依然是灿烂的小红花,而自动化也不用瑟瑟发抖。科技的进步只是加长了食物链,原来的顶端不再是顶端了,必须重新找正自己的位置,但自己的位置还是在的,而且绝对重要性不减,甚至可能增加,只是相对重要性降低了。这是馅饼做大的缘故。
: M, C: E/ }: f: [; g: i/ W9 U6 O2 ^' V" Z* a8 B6 s
机械化是用机器代替人的体力,但机器的运作还是要靠人的。比如说,用水泵抽水,就不再需要手提肩挑了,但开泵关泵还是要靠人看管,否则水池满了、溢出来了,或者池塘见底了,泵在空抽、造成损坏,就不好了。在自动化时代,水池里加个水位计,池塘里也加一个水位计,水池满了,或者池塘干了,就自动停泵;水池的水位下去了,而且池塘的水位也足够,那就重新开干。6 @1 c, `$ ]4 l: m+ r# i
$ v& S* s! v. w2 e) V% e# }% R3 Z) w4 d+ q
在人工智能的时代,可能有一个高级应用在监管着。水池可能不满,池塘也有足够水位,但现在其实用水的地方并不需要,白白抽那么多水上来,影响节水,增加挥发,也是高峰用电的电价,浪费了,可以等等再决定是不是要抽水。或者说,现在有好多地方都需要用水,需要综合权衡一下,哪里有优先权可以多用水,哪里需要牺牲一下顾全大局,或者在水价低的时候多用,水价高的时候少用。这样在更高层次上规划用水要求,决定自动抽水是不是进入工作状态,还是继续待命,这可以看作最低初级的人工智能。
. n1 W: }" l0 S5 e& P0 k9 @
9 o9 ?1 ^3 s+ d3 j$ o9 ~也就是说,人工智能可以看作更高层次的自动化。如果说自动化可以比作查表办事,表上说看到“1”就做“A”,看到“2”就做“B”,看到的在“1”和“2”之间,那要做的也在“A”和“B”之间;那人工智能就像炒股,需要对比好多曲线,查对好多条件,说不定还要根据自家秘制的公式计算一下成本、收益和风险,才能决定到底怎么办了。说到底,还是有一定之规的,只是这“规”要复杂得多。
6 o- J0 O. x: F8 ]3 l/ ~
( {: @1 n9 j$ `4 h8 u, d. b+ }- S- m; T* R人工智能有很多分支,当前主流基本上围绕着神经元网络。
9 Z$ I- b) M3 P; F: F! C
# w  a# q/ `5 q# u1 e神经元网络模仿人类大脑的思维,其基本单元是神经元。神经元的数学表述不复杂,就是一条S形曲线。也就是说,在输入值从小变到大的时候,输出值从也从小变到大,但不是均匀地变,而是先慢、后快、再慢地变。0 l  ^6 Q* f# g* M: _, f  o

1 w% p, {  t4 h, F' j# }/ \神经元这条S曲线有几个参数可调,一是可调“小”到底多小,“大”到底多大,二是可调S形的弯度,还有参数可以整体升高或者降低基线。“拉直”了,S曲线就和笔直的斜线差不多了,这时神经元的表现和传统的连续变量接近。“拧巴”到极点了,S曲线就和开关曲线差不多了,也就是说,输入值从小变到中的时候,输出值基本不变,保持在低位;但在中点前后急剧上升,一过中点,输出值就基本保持在高位了。这时,S曲线的表现和传统的断续变量接近。# A  i, _4 s! g  z% F
7 k1 Z7 K' R5 [0 A! a
S曲线可以在连续变量(像温度、水位)和离散变量(像“好/坏”、“开/关”)之间无缝过渡的特点,使得神经元既可以模拟连续变量,也可以模拟离散事件,这是人工智能更加“聪明”的关键。" C" B+ l8 y( R3 G5 C) n0 N0 o

& R0 _# K. ?$ A4 {6 a( p单个的神经元还只是好玩的玩具,多个神经元组网起来,就可以模拟高度复杂的现象。一层一层的神经元网络组成高度复杂的网,这就是深度学习了,已经展现出令人类害怕的智能了。+ E, H" C$ H, Z2 h0 k" i

! |& q& _4 V2 {8 L什么是智能、人工智能vs人类智能可能会成为永恒的哲学问题,但对眼下来说人工智能已经远远超过简单重复人类智能的地步了。“阿尔法狗”大胜人类顶级围棋手成为里程碑式的转折,“阿尔法狗1.0”还是用人类最优秀的棋局首先训练一遍然后再“自我琢磨”的,“阿尔法狗2.0”就是脱离人类棋局完全用自学习训练出来的。在更加“接地气”的层面上,人脸识别已经做到惊人的准确度和速度。
5 U! s; c6 P0 D2 V; G5 X# G, ?  i: @6 k. P' D% {' a
但就这些还是抢不了自动化的饭碗的。人脸识别对标的是传感器,自动化的核心还是在于控制器。
" X* s  G1 E7 r- Z
1 H, A* _# W" A+ t3 A. z6 X自控有两大路:一路是参数化控制(parametric control),另一路是非参数化控制(non-parametric control)。非参数化控制不需要被控过程的数学模型,只要了解大概的定性行为就可以了,比如“加水导致水位升高,撤火导致降温”,这个不能搞反了,剩下的靠一定形式的控制算法和参数整定来最终调试出一个稳定、满意的系统,传统的PID就是这样的。参数化控制则是以数学模型为基础的,数学模型的作用是精确预测被控过程在给定输入时的响应,然后可以根据需要的响应,反推需要给出的控制输入。当然,模型不可能完全精确,剩下的就靠反馈和参数微调来“磨”了。
8 F2 r& G. D) [3 x& o3 {* ?; ~( v/ r6 e" D) E% x
人工智能用于非参数化控制的话,参数整定太恐怖。一个简单的单回路神经元网络控制器可能有一个决策层,不超过10个神经元,加上输入层和输出层,随随便便就有30-50个可调参数,这是不可能像PID那样整定的。PID一共只有3个参数,大部分人都嫌麻烦,不碰微分,只动比例和积分。要动那么多参数,这是不可能的。但把大量参数都锁定,神经元网络的高度可塑性就没有了,也就不需要费那个事了。4 P8 m7 U4 V! C) d1 G# f' c  u

" w  o) x2 [9 |2 m4 \像“阿尔法狗1.0”那样,用现有数据训练神经元网络控制器,这在理论上是可能的,问题是实用中不可能有那样海量的输入-输出的静态数据和动态数据。要真有这些数据,非神经元网络的控制器也已经在手了,而且行为可预测,还费那个事干什么?直接观察人类操作的常年数据也不行,那是闭环的,输入-输出的因果关系已经打乱了,直接拿来训练肯定是不行的,这就和闭环辨识一样。  T/ |8 t4 e3 r7 J
0 |9 L! ]7 q  W3 U4 P8 Y
那像“阿尔法狗2.0”那样自学习呢?更不行了。“阿尔法狗2.0”自我训练的前提是有清晰的规则和游戏空间。更重要的是,自学习需要大量的试错。不可能在实际工业过程上这样试错,人家还要不要生产啦?更何况无限制的试错可能造成各种安全问题。用高度精确的仿真系统大量试错倒是不会造成危险或者生产损失,“阿尔法狗2.0”实际上就是这样做的,但围棋和实际工业工程的差别太大了,“阿尔法狗2.0”可以左右手互博,也可以与“阿尔法狗1.0”互博,每一步在棋盘上清清楚楚,结果判定也一目了然,实际工业过程就需要高精度动态仿真系统了,还要考虑各种不定性情况,这样的高精度动态仿真在工业上是特例,可遇而不可求的。事实上,有了高度精确的动态仿真模型,本身就可以成为模型预估控制或者其他现代控制方法的基础,不需要舍近求远搞神经元网络控制器。; w. F+ X( z1 B$ l9 z5 Z. Q
  t6 u  l- n- H1 q5 X; m% W* q1 h+ |
这和人工智能用于医学一样,人工智能辅助诊断喜闻乐见,但自学习人工智能疗法?您先请。
2 `2 d' U9 X% G" a& G9 U* A
. F/ W4 A( h% }: b. t/ ^影响神经元网络用于控制算法大发展的关键可能在于缺乏一个统一、有效的数学分析架构。PID控制的概念很早就有了,但提高到理论高度是在微分方程稳定性理论发展起来之后。微分方程是数学里很重要的一个分支,稳定性又是微分方程里的一个分支。从这里用拉普拉斯变换发展出频域分析,建立了经典控制理论。在60年代,卡尔曼引入线性代数,建立状态空间方法,控制理论进入了单变量和多变量统一架构甚至可以包容非线性系统的现代控制理论阶段。随着计算机的发展,曾经只能纸上谈兵的控制理论可以工程实现了,各种严格、不严格但管用的控制方法(如模型预估控制)如雨后春笋般地涌现,但基本上都是在微分方程的架构下,计算机实现中使用的差分方程也可看作微分方程离散化的结果,很多结论和方法可以通过映射搬过来用。, L) |4 n( @% ?7 L8 n9 v/ h& @
3 F* V; G' g3 V' z1 _
但神经元的S曲线尽管威力无穷,很难用已知的数学方法进行分析和综合。换句话说,即使建立了神经元网络的被控对象和控制器的模型结构,除了用数字仿真一遍一遍试错,没法确保回路性能,连给出有意义的指导性设计原则(如经典控制理论里的“闭环极点必须在左半平面才能保证稳定,离虚轴的距离代表收敛速率,离实轴的距离代表振荡频率“)都做不到。
* y+ |) m+ s$ f2 [& s% u
7 }1 {6 D7 s' N7 r& \数字仿真能试错的场景永远是有限的,以此为系统稳定性的依据是不够的,因为在已经测试的有限场景之间(内插)或者之外(外推),谁也不知道系统会如何反应,所以仿真几百几千次也不一定能说明问题。这与按照传统控制理论(包括经典和现代)截然不同,那里在完成设计计算后,数字仿真只是验证用的,验算几个点就足够了。9 E8 Z+ e  S/ A2 d9 y7 g* a
0 q8 b  f- x. s. M. F7 b8 P
人工智能在实用中已经出现了这个问题。“阿尔法狗”(不管是1.0还是2.0)都在棋局中走出令人类匪夷所思的步子,事后看来是走对的,但对于如何走出这样的步子依然百思不得其解。这样的人工智能正在成为应用中的最大阻碍:人类不能接受无法理解因而不能信赖的人工智能决策,对于实时性要求很高的控制领域,人类又不可能查验人工智能的每一步决策。在做到对人工智能的行为能严格数学分析和预测之前,这个坎很难迈过去,因次在可预见的将来,人工智能决策的直接应用必定是有限的。0 ]; f; Z  W2 w  P
7 R7 J7 g% S4 w, G1 @1 j
但人工智能用于自控层之上的“指挥层”则几乎是必然的,就像前面提到的智能用水调度系统指挥自动控制的水泵一样。在这个场景下,自控的要求其实是高了,不是低了。2 l% y( u: Y: K+ d

& D! \' a+ Q5 i. d; i% j在模型预估控制时代,很有一些人为PID的未来担忧,但很快发现,要使得模型预估控制有效工作,PID层需要更加精细地整定到最优状态。这和串级控制是一个道理。主回路好比小领导,副回路好比干活的。要是干活的手脚麻利,办事精准,小领导则有条不紊、指挥若定,那这配合就如鱼得水了,指哪打哪。要是反过来,小领导是个事儿妈,干活的懒懒散散,这就肯定要砸。
/ q- x( u2 f6 \) b1 E. s$ X* S- M) _' J: q% ?, S/ P
在人工智能时代,这还是一个道理。指挥层的人工智能要从长计议,不能事儿妈;自控层则要更加敏捷、精准。指挥层与自控层最好还要有深度沟通,指挥层不仅发布下一步的指令,还把预期的未来指令一起发下去,自控层好预做安排。( [& D; z/ H9 E9 p; B9 i

$ ~2 Y+ w) }0 Q( e8 c, i3 z+ G这就好像开汽车过弯一样。看着车头前3米的地方,一点一点过,是可以安全过弯的,就是慢一点。但要是早早看到前面完整的弯道,可以预先计划好,在入弯的时候晚一点刹车,在中间的时候甩一点尾,然后加速出弯,这就快多了。但这要求预先就看到整个弯道,预作准备。7 ~  {. W" u, C1 A6 w, M3 z1 ~* V* b) n
& {' S9 n, F9 N( h' S
这样的预估控制是典型PID做不到的,模型预估控制就可以做到,但各种PID依然是模型预估控制的腿脚,不仅不能弱化,还要极大强化。  f6 B1 q! n6 K. t( P6 I5 F) f

% v+ G4 Q, R4 f6 M$ E2 Y在人工智能时代,自动化不仅不需要瑟瑟发抖,还要打起精神,锻炼新本事。本来端坐的金字塔尖的位置被人工智能坐掉了,但自动化其实还是坐在原来的位置,只是金字塔长高了。
& Y0 H4 Q& Y! V" c+ s* u6 S& o
作者: jerf71    时间: 2021-4-26 18:44
晨司机。老司机,晨大佬,晨大拿,谢谢分享。
作者: 天山防风林    时间: 2021-4-26 21:32
前一阵子趁着京东到大湖北运费优惠赶紧定了一本晨大的大话自动化,写得非常好。能用那么平白的语言把那么深奥的自控原理讲那么明白,厉害!
作者: 晨枫    时间: 2021-4-26 21:42
天山防风林 发表于 2021-4-26 07:32
; q% Z: `$ m, B, q' P前一阵子趁着京东到大湖北运费优惠赶紧定了一本晨大的大话自动化,写得非常好。能用那么平白的语言把那么深 ...

' N8 T- e/ r% Q# c# {' m谢谢夸奖。今天要加一个鸡腿了。
作者: 机器猫    时间: 2021-4-26 23:41
强烈要求在爱坛签名售书!
作者: 晨枫    时间: 2021-4-27 01:52
机器猫 发表于 2021-4-26 09:41
/ f# e5 o& X7 I& u. i' e强烈要求在爱坛签名售书!

2 y; _/ M" f. j- p2 E这可没法弄啊,我手里也没书。出版社问我要多少,我嫌麻烦,反正我也背不回来,只要了10本,亲戚朋友一分就没了。
作者: 马鹿    时间: 2021-4-27 02:17
我认为人工智能是升级版的自动化
作者: 晨枫    时间: 2021-4-27 02:23
马鹿 发表于 2021-4-26 12:17
; U0 h$ I$ \* t; j& m0 e& ~# s3 J我认为人工智能是升级版的自动化
6 u% g6 Q  b- _( S6 Q
同感。就看人工智能那边的人是否同样这么认为了。
作者: 马鹿    时间: 2021-4-27 02:27
晨枫 发表于 2021-4-26 13:23& G+ w- _! j& B( I& k7 J$ T
同感。就看人工智能那边的人是否同样这么认为了。
# Y3 s  g6 B( T5 W! a  N
我读书时候, 人工智能在自动化专业, 现在貌似也是, 毕竟计算机专业搞不定设备这块.
作者: 晨枫    时间: 2021-4-27 02:38
马鹿 发表于 2021-4-26 12:27
2 o8 S6 S( i1 w5 @. R( [8 d我读书时候, 人工智能在自动化专业, 现在貌似也是, 毕竟计算机专业搞不定设备这块. ...
3 X0 Q' q! ]- ^) A# U# Z' f
我不知道你的自动化专业是挂在哪个系的,我看到的自动化都是挂在电工系、化工系、机械系的,人工智能倒通常在CS那边。
作者: moletronic    时间: 2021-4-27 04:23
晨枫 发表于 2021-4-26 10:384 M# Z! D7 [/ f1 j- O/ p
我不知道你的自动化专业是挂在哪个系的,我看到的自动化都是挂在电工系、化工系、机械系的,人工智能倒通 ...

% Y6 y8 U- i  A" `清华有专门的自动化系。当年第一次听说神经网络的时候还在所里,同寝室的兄弟跟王守觉搞这个,他就是自动化系的。
作者: 晨枫    时间: 2021-4-27 05:26
moletronic 发表于 2021-4-26 14:231 `# w" k$ O" F
清华有专门的自动化系。当年第一次听说神经网络的时候还在所里,同寝室的兄弟跟王守觉搞这个,他就是自动 ...
1 k; X* Z+ W  b( b
嗯,国内大学大多有专门的自动化系,我以为马鹿说的是在美国的。
作者: xiejin77    时间: 2021-4-28 14:02
晨大这书啥时候出电子版,我肯定购买,家里的实体书放不下了,电子书方便。
+ R9 a& v) L- Z7 }! f( T2 \, w2 O% N0 o7 n! L
说到专业,二十多年前我大学的时候,电子信息学院,大一大二一起上专业课。大三分成工业自动化和CS两个专业。" @( L6 @8 q0 W' j' r" n9 ?

: l9 v( z6 `) D说到AI与自动化,自动化当年和我们最大的差异专业课是控制论。这一点其实也是人工智能目前的领域与自动化最大的差别。目前的AI强调的是模式识别、分析聚类;但是对于控制反馈的连续模型建立还没有看到很好的paper。说得更直接一些,AI目前的形态对于因果的表征识别还没有很好的与数据分析技术结合起来。导致如果试图用现有的AI做自动控制,更接近于依赖既有已经识别模式套路化的人工智障。
6 i( {$ j* O" R+ i+ F( f7 M7 K7 W  \1 d+ c- y
AI如果做自动控制,得像飞行包线一样做一下全覆盖的表征图涵盖。确保在表征组合的所有点都有对应的优化策略。目前还不具备推理因果产生新的控制策略的能力。可惜的是,俺当年分专业的时候进了CS,所以对于自动化是门外汉,经常被自动化系的同学鄙视为擅长做二分法反馈控制的教条主义典型……! [) P. j# Y" D* _6 [

作者: 老财迷    时间: 2021-4-28 15:05
下次来北京,一定抓住你聚一下,顺便在书上签个名1 k2 r0 R# [* t
& o' B* g6 l) M' {  t4 F! g/ M
“阿尔法狗1.0”还是还是用人类最优秀的棋局首先训练一遍然后“自我琢磨”的
7 \& k( P' Y: j% d+ y9 F6 F这是要印在纸上的,忍不住挑个小错误
作者: 晨枫    时间: 2021-4-28 21:27
老财迷 发表于 2021-4-28 01:05  a' a- q( i& x! d
下次来北京,一定抓住你聚一下,顺便在书上签个名
* Z  l9 l$ A: ~0 G' V7 w) m, M
1 W# F# X1 Q% e“阿尔法狗1.0”还是还是用人类最优秀的棋局首先 ...
+ D' ]1 _5 ]8 h  O/ F
好嘞,北京蹭饭的地方有着落了。. q  a. O4 z& J) p, I
' a4 S) W$ i, c" j
这篇是官微网文,错别字……天经地义嘛
作者: 晨枫    时间: 2021-4-28 21:38
xiejin77 发表于 2021-4-28 00:02- u/ ~, Z$ h* G$ `; ]0 l# }) Q
晨大这书啥时候出电子版,我肯定购买,家里的实体书放不下了,电子书方便。9 I" q& s  |0 P2 j/ r3 s# a8 T  v5 Q
# i4 [4 A0 A9 B' u3 P8 f8 ]
说到专业,二十多年前我大学的 ...
% ^0 s; {( q: z! {$ {- M% g8 Z
信息与控制最大的差别就是反馈。没有反馈就没有控制,但反馈也把信息的因果关系打乱了,因中有果,果中有因,所以很多信息方面好用的办法都不能用了。人工智能的好多问题也纠结在这里。: v. m6 l0 ~: U9 [7 S' A! N3 ?
' y7 z- P  a7 g. S  U
还有就是信息量。MPC要做一个模型,工厂可能要做几天开环试验,已经动静大得不得了了。人工智能需要的数据量大好几个数量级,这开环试验是断然不可能了,但如何确保输入与输出的独立性呢?做不到这一点,模型在本质上就是误导的。这是数学不可能性问题,不是算力问题。1 R* X5 x+ e  o" q* Y
! F9 S2 K$ c7 m, c9 l/ p
我这里不敢太啰嗦了,但现代控制理论的祖师爷卡尔曼建立了三件事情:
: {0 s; O$ ]# {# J" B/ j  r" g1、状态空间
. s1 ]9 e2 C* H3 s: z% s2、卡尔曼滤波器1 l/ `  m. X* g5 C& e
3、可控性和可观性
8 m- I0 ?8 T) l$ V0 p2 D. M
) J4 ?9 S7 c) C( P; x每一条都可以展开成一大篇,但扯太远了。前两条学控制的人都很重视,但第三条常常忽略了。其实这才是把控制上升到哲学高度的东西,在数学上证明了:在一定条件下,某些系统根本就不可控,或者不可观察。: k+ W* j5 t, c; b
; B% a: b9 e. q4 |3 T' s
建模中输入-输出数据的独立性也是这样的哲学级条件。1 D3 O0 @" S  ]7 j: F* N

+ c, i" C  R  ]4 _: |" ~6 ]人脸识别没有这个问题,认出谁就是谁,没有反馈。但要是把人工智能用于股票市场,就不行了,问题正在与反馈:炒股的人是根据股市做出反应的,反应反过来影响股市,所以数据里的因果是揉在一起的,这就没法直接拿来建模了。这也是大数据分析的一大陷阱,不是海量数据拿来就能分析得出名堂的。
作者: 旺旺的考拉熊    时间: 2021-4-28 22:01
晨枫 发表于 2021-4-28 21:38) D, r6 k$ r, t" |+ \$ B% C
信息与控制最大的差别就是反馈。没有反馈就没有控制,但反馈也把信息的因果关系打乱了,因中有果,果中有 ...

6 v3 ?) I- C6 |! |5 w0 _9 J完全没错,个人股海扑腾了5年得到的结论,就是任何复杂系统,一旦被大规模使用,立刻原来生效的也失效了,反而是一些简单的系统,可能使用的人太多,形成了均衡,尽管正确率没有很高,但是还是一直生效的。做quant的算法,往往也是一时之效,市场发生重大变动,条件产生变化,就失败了。人工智能永远无法替代智能,只能起到辅助作用
作者: testjhy    时间: 2021-4-29 00:07
给司机补充一个素材,人工智能应用:感知--决策--执行--(执行结果改变环境再感知...进入下个循环)。这样自动化和人工智能就完美结合了。
作者: 晨枫    时间: 2021-4-29 01:22
testjhy 发表于 2021-4-28 10:071 b7 [. C. D" O
给司机补充一个素材,人工智能应用:感知--决策--执行--(执行结果改变环境再感知...进入下个循环)。这样自 ...
+ J/ B2 p$ v( n$ L
这就是军事上常说的OODA嘛
作者: testjhy    时间: 2021-4-29 21:54
晨枫 发表于 2021-4-29 01:22
! l/ C% L$ @! s! M这就是军事上常说的OODA嘛

2 t$ u: W- \9 x" F/ D5 e/ u1 @9 o$ LOODA是美国空军提出的,是人类对抗的思维逻辑,当然很容易人工智能化,但到人工智能应用端,一是环境比空中对抗更复杂,二是“反馈”概念引入。目前深度学习更多体现在感知层,AlphaGO也好,AlphaZero也好,其它游戏类对抗也行,虽然有决策机制,但因为“环境”太干净,真正到应用端问题还是不小的。
作者: 晨枫    时间: 2021-4-29 22:48
testjhy 发表于 2021-4-29 07:54
1 Z+ G! l- i# g) h* mOODA是美国空军提出的,是人类对抗的思维逻辑,当然很容易人工智能化,但到人工智能应用端,一是环境比空 ...
6 l/ ^$ a9 y4 g
一点没错。这正是我的意思:反馈和非确定环境对人工智能的挑战还非常大。如果要比照的话,现在好比高斯发明最小二乘法的时候,都觉得只要最小二乘一套,天下问题都解决了。后来才发现,问题还多着呢。




欢迎光临 爱吱声 (http://www.aswetalk.net/bbs/) Powered by Discuz! X3.2