设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 14537|回复: 82
打印 上一主题 下一主题

[科技前沿] 人工智能会成为人类智能的终结吗

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
发表于 2016-1-29 14:15:35 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 晨枫 于 2016-1-29 08:39 编辑
$ L; `: M/ ^6 Y3 s4 L+ n$ U; e3 |4 d& F( e% M
谷歌的AlphaGo战胜欧洲围棋冠军,引起轰动。人工智能是否会成为人类智能的终结,再次成为热门话题。
' m5 H" S: C) J9 L5 Z# f6 p1 Z% f. x) |& z
计算机在国际象棋里战胜世界冠军,这已经是好几年前的新闻了。围棋比国际象棋更复杂,计算的复杂性是高得多的层次,一般认为不可能靠穷举法计算出正确步骤。谷歌AlphaGo在人类专业对手不让子的情况下,5:0大胜,这确实是惊人的成就,但这依然应该放到大框架下来看。围棋尽管复杂,但依然是有限问题,只有有限的棋盘、有限的棋子。靠穷举法已经不可能,但机器学习、深度学习可以看作更“聪明”的穷举法,只是通过学习减少需要穷举的组合,极大地提高了穷举的效率,相当于研究前人的精华棋谱,掌握在一定棋局时的成功应对路数。谷歌AlphaGo还可以自己与自己对弈,快速积累经验,储存更多成功的棋局,用于实战时的指导。这与人类下棋时并无原则不同,好棋手走一步看两步,这看两步其实也是在评估不同走法的优劣,其中经验(包括来自棋谱的间接经验)指导了评估和测试的方向,减少了无效的“胡思乱想”。) l& E7 b0 _7 J1 q( E/ n

7 c7 S! R; E4 t; S/ r0 s' g  A. O随着CPU速度的提高、内存容量和速度的提高,计算复杂性的门槛越来越高,机器学习使得“智能比较”和“智能穷举”越来越现实,很多过去认定不可能破解的问题现在可以破解了。按某种估计,围棋的复杂度是10的170次方,比国际象棋的10的47次方多100多个0,换句话说,计算机战胜围棋世界冠军也只是一个时间问题。但这就是人工智能吗?究竟什么是智能?事实上,人类对于智能并没有统一、精确的定义。在某种意义上,这和泛泛的“好”一样,只是相对于“坏”。智能只是相对于愚钝而言。2 a8 h  _7 h9 \# z

6 R$ r- K7 v  q4 i& e, ?( _7 i- h人类智能的最大特点其实在于突变和急智,在于灵机一动、超常思维和创造性。纯经验的思维与条件反射没有本质差异,谈不上智能。在有限棋盘、明确规则情况下,如果能突破计算复杂性的障碍的话,纯经验、穷举法是可以找到最优解的。但换到无限棋盘、模糊甚至动态规则的情况下,纯经验、穷举法就不灵了。赵括的故事人人知道,这不是兵书的错,而是对棋盘和规则的理解错误。熟读唐诗三百首依然只是鹦鹉学舌,单靠这是成不了李白杜甫的。法律是人类智能能做到的最明确无误、最没有歧义的文字,但法庭判决依然不可能由计算机做出,因为再明晰的法律条文依然有模糊的边界,再清楚的被告行为依然有模糊和多义的解释。具体到计算机下围棋上,如果开盘时临时把棋盘加大一倍,棋子增加,人类棋手和计算机棋手都会大吃一惊,但人类棋手会根据经验和原则边摸索边继续下棋,计算机也会,但先前的“机械记忆”的经验就不一定有能力外推到新的棋局了,可能要从头来起。有足够运算速度的话,依然可以边考虑下一步对策,变自我大战3000万个回合,迅速积累经验,但利用前人棋谱这样的学习就难了。) F0 o. o9 h4 N& o5 T1 ?  R' o
. N7 ?- D/ V! T. \
人类对于自身的智能依然缺乏理解,尤其是对于突变思维缺乏理解。人工智能按照人类对智能的理解来实现的话,在本质上无法突破这个极限,就好象在二维空间里怎么划道道,也成不了三维的图像一样。除非人类对于自身的智能有了突破性的理解,人工智能终结人类智能的可能性并不存在。但人类理解自身智能可能有逻辑和哲学上的怪圈,自己不可能真正理解自己。这就像永动机一样。9 x& h; w) B' K8 G5 P5 k
9 N# m" M4 @( Y; v5 s
但纯经验的人工智能依然可以在明确定义、可重复的任务中达到人类的程度。比如说,早已没人试图在心算中打败计算机了。即使是只可意会不可言传的厨艺,只要可重复,人工智能就能做到。可能缺乏点灵性,但口味还是有保证的。这对人类意味这什么呢?这逼着人类向着智能型发展,只有机器想不出、做不到的事情,才是人类的保留地。这和机器时代正好相反,那时是只要机器能做的,都交给机器去做。英文中有一句话,even a monkey can do it,意思就是说,根本不需要懂脑子。在人工智能发达之后,if a monkey can do it, a monkey will do it, there will be no place left for you。( |3 u9 @. q% B! l% C3 y. k9 v
3 j: Q3 X- v3 o; m3 H1 Y% N& }# b
未来社会将高度重视教育和思考,体能、敏捷反而成为修身养性的东西,因为人类的体能和敏捷不可能超过机器,只有人类的创造性思维才是优越性所在。

评分

参与人数 8爱元 +28 收起 理由
希宝 + 2 谢谢分享
煮酒正熟 + 6
坚持到底 + 4 谢谢分享
holycow + 4 淡定
tanis + 2 谢谢分享

查看全部评分

本帖被以下淘专辑推荐:

  • TA的每日心情
    无聊
    2016-1-14 10:34
  • 签到天数: 2 天

    [LV.1]炼气

    沙发
    发表于 2016-1-29 16:23:50 | 只看该作者
    我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。
    9 F  ?2 D; }7 Q+ D; P7 j; a3 o% U. b$ i  n7 |2 h$ Y
    只不过现在就说人工智能已经和人类的大脑不相上下,为时过早。
    回复 支持 2 反对 0

    使用道具 举报

  • TA的每日心情

    2020-11-20 06:24
  • 签到天数: 1618 天

    [LV.Master]无

    板凳
    发表于 2016-1-29 17:19:35 | 只看该作者
    樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
    / H5 |/ s; f! y  |6 n" d7 X9 W1 P& `" y' U. J" o, I
    这五盘棋也没看到飞刀,打劫这些体现人类急智和判断的东西。' j2 X8 k7 ?7 O" @' T" A

    ; ?0 @6 d. m6 E  }# o$ D! W( [6 \) d  \飞刀是指开局时定式下发的突然变招,很多都是有陷阱的,对手应对不当,会马上陷入被动。
    7 w  t( N* n1 ?8 L7 S( u$ K/ n- ?
    9 Z# s& O. ^6 a: o" k, x' e' d9 b打劫则是在寻劫材方面,很多虚的判断,比如转换后,实地的变化可以计算,厚薄就比较困难。这计算结果就会影响应手,导致下面的流向变化。% C3 g9 Q6 L4 @7 b- J3 j* G
    ' M; u- U" D3 c- L0 h6 h
    罗洗河放弃三劫循环大胜崔哲瀚的,不知道谷歌的程序怎么判断。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    地板
    发表于 2016-1-29 17:40:18 | 只看该作者
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
    ; a/ o/ J4 F/ {6 r( E而人工智能设计的主观目标之一肯定是不犯错误。+ H& s/ `5 F& P) X! M
    如果人工智能的发展仅是超过人类大脑,应该是可以实现的。但人类智能会搭错线的特点也势必会延续,则超强大的人工智能的某钟错误可能是其无法承担的,并将导致人工智能自身的灭亡。  r6 i8 a% p, `# o7 M
    于是,超人工智能在某个位面中也许曾大量存在并灭绝过。
  • TA的每日心情
    慵懒
    2016-5-30 10:08
  • 签到天数: 197 天

    [LV.7]分神

    5#
    发表于 2016-1-29 17:50:37 | 只看该作者
    回复

    使用道具 举报

  • TA的每日心情
    慵懒
    2020-1-3 00:51
  • 签到天数: 71 天

    [LV.6]出窍

    6#
    发表于 2016-1-29 17:52:45 | 只看该作者
    自主思考是关键问题。当AI能问出我是谁,从哪里来,到哪里去时,就可以做个合格的高校门卫袅。

    点评

    伙呆了: 5.0
    伙呆了: 5
      发表于 2016-2-1 19:45
  • TA的每日心情
    郁闷
    2016-2-4 15:19
  • 签到天数: 7 天

    [LV.3]辟谷

    7#
    发表于 2016-1-29 18:00:57 | 只看该作者
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。
  • TA的每日心情
    慵懒
    2016-1-18 00:00
  • 签到天数: 62 天

    [LV.6]出窍

    8#
    发表于 2016-1-29 20:03:11 | 只看该作者
    dasa 发表于 2016-1-29 18:00
    - I+ a: E, ^% u$ {, X以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...
    / w" t: K; h1 d7 _
    你好,半仙!
  • TA的每日心情
    开心
    2023-1-5 00:48
  • 签到天数: 2591 天

    [LV.Master]无

    9#
    发表于 2016-1-29 20:44:33 | 只看该作者
    只要文章翻译没有解决鬼话连篇问题,就别扯什么人工智能的伟大前景了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    10#
    发表于 2016-1-29 20:51:02 | 只看该作者
    dingzi 发表于 2016-1-29 04:40
    3 m8 q1 X8 i0 p6 F感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。9 p1 b) B: S! C, ]+ [* C
    而人工智能设计的主 ...

    ( Z/ n8 z0 Y: j! _: RAI 没说不能犯错。现在早已经是概率判断了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    11#
    发表于 2016-1-29 20:54:32 | 只看该作者
    你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    12#
    发表于 2016-1-29 22:01:59 | 只看该作者
    冰蚁 发表于 2016-1-29 20:51
    + b6 y" A* V% z/ J+ {3 XAI 没说不能犯错。现在早已经是概率判断了。
    4 D  I+ V0 L2 d+ z
    谢谢。我再想想。

    该用户从未签到

    13#
     楼主| 发表于 2016-1-29 22:31:55 | 只看该作者
    史老柒 发表于 2016-1-29 02:23
    0 |3 Z0 i: x7 R# C8 C, c我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。/ q" z( X. M% }( h
    - P" t/ v* c% Z7 ?3 {
    只不过现在就说人工智能已经和人类 ...
    3 T1 k9 \! i& p1 G3 h$ h9 u
    我认为从哲学层面上来说就是不可能的,就像永动机一样。不过现在还没有人在理论上证明必然还是不可能,先存着。

    点评

    永动机已经违反了物理学基础了,必然不可能,但人工智能取代人脑我认为不是问题,是肯定能取代。  发表于 2016-1-30 10:33

    该用户从未签到

    14#
     楼主| 发表于 2016-1-29 22:32:58 | 只看该作者
    燕庐敕 发表于 2016-1-29 03:19
    3 W8 o: C$ S8 _+ b' A7 Y7 j# @; X樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。6 `( [1 i  c: r) _+ t
    4 H( I2 c2 w# ~8 F0 K9 S- S' `
    这五盘棋也没看到飞刀,打劫这些体现人类急智 ...

    " Q, R2 @/ Y# U+ C至少在理论上,谷歌AlphaGo可以把飞刀和打劫的情况也考虑进去,这就是穷举法的威力了,通吃!

    该用户从未签到

    15#
     楼主| 发表于 2016-1-29 22:41:58 | 只看该作者
    dingzi 发表于 2016-1-29 03:40, l) d, `( Y3 K1 ?3 q* F+ [
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
    , ?7 I) ?  w' x! F而人工智能设计的主 ...
    ( f' h9 O) l) _$ o% D
    犯错误是肯定的,赵括不就犯错误了嘛,还有前赴后继的贪官。但正如你说的,对物种来说,能够从错误中学习,适应,所以能够承受错误的结果。人工智能的设计目标是不犯错误,但这与人类思维没有原则差别,人类行为在主观上也不是想犯错误。

    该用户从未签到

    16#
     楼主| 发表于 2016-1-29 22:42:37 | 只看该作者
    dasa 发表于 2016-1-29 04:00. T1 x) O- s% g& N
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...

    5 e; W# X( l" B' b4 p现在还找得到吗?贴出来看看?

    该用户从未签到

    17#
     楼主| 发表于 2016-1-29 22:43:52 | 只看该作者
    冰蚁 发表于 2016-1-29 06:54* P7 ?$ ]7 n4 e
    你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。

    3 l5 r: `5 T- f4 Q% l同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。”
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    18#
    发表于 2016-1-29 22:48:02 | 只看该作者
    晨枫 发表于 2016-1-29 09:43
    $ U# K$ G- ~1 P- d  F# F; Y同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。” ...

    1 S' J8 X4 S2 y9 n永动机是物理定律给限死了。AI 有什么物理上的限制?

    该用户从未签到

    19#
     楼主| 发表于 2016-1-29 22:51:26 | 只看该作者
    冰蚁 发表于 2016-1-29 08:48
    - C- ]. U7 ~: b5 X5 z. h永动机是物理定律给限死了。AI 有什么物理上的限制?
    ; M- a& Z& J" c; V1 ]9 i6 y9 O
    这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量守恒、物质守恒都是物理定律,但给你来一个能量物质转换,定律哪去了?

    点评

    +1  发表于 2016-1-30 03:29
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    20#
    发表于 2016-1-29 23:04:14 | 只看该作者
    晨枫 发表于 2016-1-29 09:511 p+ y* M: }: J& E5 N$ R
    这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量 ...
    ; \3 [3 V8 E! R4 j( h1 k6 f
    大哥,你在说啥呢?能量物质转换什么时候成哲学层面的东西了?

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2026-2-7 01:51 , Processed in 0.083275 second(s), 30 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表