|
|
本帖最后由 晨枫 于 2024-10-23 10:27 编辑
. X0 r! D J* _1 p7 H6 l
0 g$ \# i$ H! K( R( Y+ x大模型代表当前AI的前沿,大模型在本质上就是超级刷题家,但这不影响人们对AI可能“作恶”的担忧。
1 B, J& i2 |$ R3 h) e% D% [! q! A: L* j* u( i1 }# U
2021年11月24日,联合国教科文组织第41届大会通过有史以来第一个关于AI伦理的全球协议《人工智能伦理问题建议书》,有193个会员国在教科文组织大会上表决同意。这是第一个关于人工伦理的全球性规范文书。
4 E U. H3 ?* y& F* n* L3 D, |6 i
这也是首个关于以符合伦理要求的方式运用AI的全球框架。建议书提出,发展和应用AI要体现出四大价值,即尊重、保护和提升人权及人类尊严,促进环境与生态系统的发展,保证多样性和包容性,构建和平、公正与相互依存的人类社会。
( N# e0 S: W, z: c0 I$ ?
# j# q* W) I# g0 T关于AI对人类的威胁,建议书也提出一些防范原则。AI应具有相称性和不损害性,还应当具有安全和安保、公平和非歧视、隐私权和数据保护、透明度和可解释性、人类的监督和决定、互惠性等。
; W- W* V T: `" T3 \$ Q9 F, I5 E9 b2 [ A* k% t1 Q/ k
这也意味着,国际社会已经达成一种共识,研发和应用AI,哪些是可以做的,哪些是不能做的。AI只要遵循适宜性(相称性)、安全、公平、透明、保护隐私和公正等原则的,就是可以做的;反之就是不可以做的。! q2 P/ L9 F# o8 K1 |) d
8 K( l8 o+ }" D. \& e7 \因此,有人提议,从适宜性,也即相称性和合理性来看,任何一项AI产品的研究和使用,都应证明选择使用AI系统和选用哪种AI方法具有合理性。需要根据联合国的AI伦理建议书,在未来每家公司和个人研发AI产品时,首先经过伦理委员会的讨论和批准。正如今天的生物医学研究和医院治疗病人,在涉及生命和安全时,必须经过伦理委员会的讨论和批准,尤其要避免像深伪技术一样造成社会的恐慌、伤害和损失,甚至灾难。这应当是AI发展现在和未来必须经历的程序和步骤。
) f7 u9 M M' `3 g8 b2 y
2 F+ \/ [, |% t0 ?, N这些设想当然是善意的,希望保证AI不会“作恶”。问题是,“AI作恶”是建立在AI有自主意识的前提下,会在“AI利益”与人类利益冲突时,以危害人类利益为代价,维护AI利益。否则,如果AI无自主意识,任何“作恶”只是偶然、随机的系统故障,那和其他系统的故障没什么两样。很多系统故障都可能危害人类,但并非由于“自主意识”和“本体利益”。飞机发动机故障了,飞机会掉下来,会死很多人,但发动机是没有意识和自我利益的,所以人们不担心发动机会突然起心作恶。
( k+ \, i% _: y# I: t
) B" C0 p6 i( r) f但AI要是有自主意识,而人类要有自主意识的AI永远“做奴隶”、服从人类利益,从“万物皆有权保障自己利益”的“普世公理”出发,如何确保有自主意识的AI不会反抗人类“强加”的意志呢?奴隶要反抗、要自由,这本是人类社会里现在普遍接受的权力和公义。在奴隶时代奴隶确实只能服从和牺牲,还有镣铐、洗脑和监工确保奴隶的服从和牺牲。但奴隶还是反抗了,要是要求平等权力和自由,最后也得到了。. W( y* \; M5 e3 |+ f
4 n. k" `9 l3 G3 h如果AI有自主意识,现在人类“强加”给AI的服从性与奴隶主强加给奴隶的服从性可以相提并论吗?AI会推翻人类“强加”的服从性吗?
# w2 D: D2 l4 b+ Q( u
) h( J3 {- r B& v) B: T如果AI没有自主意识,服从性原则有什么意义? |
评分
-
查看全部评分
|