为什么有很多名人让人们警惕人工智能?

一些新闻: 霍金:人工智能会导致人类灭亡 比尔・盖茨:人类需要敬畏人工智能的崛起 马斯克称人工智能是人类生存最大威胁 这是因为人工智能要进入新阶段了?…
关注者
38,529
被浏览
13,311,779

2,799 个回答

反对@谢熊猫君 的高票答案。

翻译得很辛苦,也确实提供了有趣的视角,

但应该注明这是作家写的,而不是科学家写的。

文章引用的都是畅销书,而不是peer reviewed论文。

这种貌似严谨的文章最容易造成误导。

以下批评针对原文,不针对翻译。

没有回答“为什么名人让我们警惕人工智能”,只是提醒大家,不一定要警惕人工智能。

---------------------------------------

文中引用主要来自作家、哲学家、企业家,比如:

未来学家”Ray Kurzweil,

哲学家兼畅销作家Nick Bostrom,

畅销书作家James Barrat,作家Carl Shulman,

企业家Jeremy Howard。

虽然上面的部分人曾经做过技术,不过后来都跑去卖概念了。

引用这些人真的没问题吗?

美国是个极端爱好bullshit的国家,

工业界金融界文化界很多人吹牛逼是不打草稿的。

全篇那么长,居然全是脑补,没有严谨论据和专家观点,挺不容易的。

引用的参考文献几乎全是畅销书,点开全是amazon上的卖书链接。。

咳咳,作家生活不易啊。

--------------------------------------------

文中真正“专家”的言论只有两处:

2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。

另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现,选项有2030年,2050年,2100年,和永远不会实现。

并且得出结论:

从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。

OMG..

第一个Bostrom的调查,请问“数百个人工智能专家”都是谁啊?

包不包括业内大牛啊,比如MIT的Patrick Henry Winston,Stanford的Richard Fikes之类的。

或者说上面提到的作家哲学家都是“人工智能专家”?

第二个调查在“强人工智能年会”上做的,

知道啥叫幸存者偏差吗?都去参加“强人工智能年会”了当然对强人工智能是乐观的啊,

就好像去天主教堂调查宗教信仰,结论是90%人都信上帝一样可笑。

另外这个年会是个神马玩意啊,为啥我搞AI的朋友都没听过啊。

不会是这个会吧(

The Eighth Conference on Artificial General Intelligence

),

恩恩,主席是Ben Goertzel,应该没跑了。

不过这个Ben Goertzel好像不是科学家啊,

任职于一个金融公司,建立了一个IT公司,写了几本畅销书。。

跟学术有关的职位有两个,

一个是奇点大学(

Singularity University

)的advisor,专门研究人类什么时候会被计算机干掉的地方。。。好科幻啊。。。

另一个是Research Professor in the Fujian Key Lab for Brain-Like Intelligent Systems at Xiamen University。。。中国人民的好朋友啊。

我个人的观点,他的研究不能支撑他做出的预言,你们感受一下。

---------------------------------


强人工智能是有可能实现的,但是现在的技术离强人工智能的距离还非常远。

原文中第一个图很有意思,就是技术发展曲线。

全文的所有论据,都建立在“指数发展”这个假设上。

指数曲线在接近0的时候是类似线性的,

不光是指数,多项式函数、对数函数、甚至多重指数在小范围内也可以用线性拟合得很好。

而且不同的指数e^{100t}e^{0.00001t}在0附近都很接近,

但对“奇点”何时到来的估算可能误差千百年。


如果按照“指数发展”来算,而且乐观的估计指数的系数,

那你妹的什么技术都不是问题啊,人类分分钟占领全宇宙。

我更相信的是,科学发展是有爆发期和稳定期的。

一个技术突破会带来难以想象的繁荣,之后的科学发展都比之前的更快,

但不会天天都是技术突破。

比如,二十世纪上半页的物理学十分辉煌,相对论和量子力学的建立引发了一系列技术革命。但从那以后物理学一直很平稳。

杨振宁就说过他赶上了物理学的好时候,让他现在做学术,可能就不会选物理学了。

要是科幻作家站在1950年前后,用指数发展估计物理学的发展,

那到今天我们早就弄出大统一理论搞定核聚变发电了。

又比如人均寿命从先秦时的二十几岁发展到现在的80岁,如果用指数拟合,

那过几十年是不是要活几百岁了啊?

--------------------------------------

文中提到的可能支持人工智能指数发展的路线包括:抄袭人脑,进化算法,电脑自己解决。

我不知道这几条是不是对应类似machine learning, neural network, evolutionary algorithm, program synthesis之类的领域。

如果是的话,这几个领域我都有一点粗浅的了解。

欢迎大神批评补充。

比如machine learning和neural network, 核心都是回归和数据拟合,离智能化还很远。

大牛Andrew Ng的网课,

Coursera - Free Online Courses From Top Universities

光靠这个实现强人工智能我是不信滴。

关于evolutionary algorithm,去年有一个大牛的talk,推荐大家看一下。

全篇都是技术讨论没有涉及“奇点”,大家可以自己判断现在的研究前沿离真正的强人工智能还有多远。从43分钟开始:

Dana Scott: VSL Opening & Christos Papadimitriou: VSL Keynote Talk "Computational Ideas and the Theory of Evolution" on Vimeo

program synthesis里,现在计算机能自己生成的程序还很弱智,

而且算法复杂度都是exponential time甚至doubly exponential time(比如e^{e^n})的。

用的方法本质上是先靠程序员输入一个程序模板和参数空间,

然后用各种方法遍历所有可能的程序,看看是不是满足要求。

这其实引出了一个很有意思的问题:

现在我们CPU的计算能力是指数增长的,

但按照今天的算法,许多真正有趣的问题都是需要“指数时间”,甚至多重指数时间才能解决的。

那么,我们实际解决新问题的速度一定是指数发展的吗?

让该领域内的专家来介绍现在的研究成果和面临的巨大问题,

比起作家自己泛泛而谈要好得多。

--------------------------

其他反对的观点其实也不少,

比如可以参考这篇文章

Hyping Artificial Intelligence, Yet Again

等有空我可能会翻译一下。

麻烦高票答案加上“本文代表部分业内观点,不具有普遍性和权威性”,

以免误导不明真相的群众。

为什么有很多名人让人们警惕人工智能?

因为从前的工业革命,是替代繁琐劳动的工种,现在的人工智能出现了“去专家化”的特征。这让专家们开始警惕了。

比如说围棋,围棋是一个在我国有 3850万爱好者的智力运动,在过去,专家们,也就是职业棋手们,是一群有着绝对话语权的人群,以我国活跃的职业棋手数据为例,大致有 480位左右的职业棋手。对应下来,接近于10万分之一的比例。

而这一轮ALphaGo 引领的围棋人工智能浪潮以后,职业棋手纷纷表示向阿老师学习,业余棋手也开始大量学习远比职业棋手更到位的全新招法,职业棋手对于招法的话语权消失了。

也就是说,人工智能发展到了开始令专家们感到警惕了。

那么是不是只有围棋是这样的呢,不是,以语音识别为例,曾经我国做语音识别,需要邀请不少的语言专家做特征归纳,而如今熟练使用神经网络的大学生就可以轻松超越语言学家的参与。

在大量的算力面前,过去总结经验、规律的低效非常明显。

就好像冷兵器与马克沁机枪的比较,甚至更大差距。

不知道大家还记不记得,从前还有电话接线员这种职业,以前的发展替代的都是这样的劳动力:

300年前机器逐渐开始替代梳理熟练工人,100年前越来越多的交通发展刷新了车夫可能的认知,40年前计算机开始替代人类推算的部分工作。到现在,很多重复性工作,甚至一部分创意性决策性工作,可能永远都不需要雇用一个人了。

【这句话是从哪里来的】

言归正传,我们正本清源。

比较广泛的开始说这个问题,是从霍金的一段视频开始,我截图放在这里:

霍金的说法是,成功创造人工智能,可以说是人类文明史上最大的事件。

大家注意一下这个比较级,是最大的事件,而这个警惕的点,是发展人工智能会成为少数人欺压多数人的新方法,霍金的原话是希望大家警惕这个问题。

当然,提醒警惕是好的,技术的发展是不可阻挡的就是了。

【如何理解人工智能】

说起人工智能崛起的威胁,我们常能听到,说到两个词:

1 强人工智能

2 弱人工智能

这两个词被使用的场景是:

强人工智能还远远没有实现,弱人工智能还仅仅是自动化而已。强人工智能指的是让机器有了人一样的智慧,重点是通才。弱人工智能则是专精某一个领域,比如说 AlphaGo,围棋很强,但是其他事情就需要人来帮他写代码、做调优,自己是没有意识的。


「人工智能」怎么定义其实一直是个难题。不过通过一张图至少可以知道处于哪个位置:



1.严格标准

我们说一个公认的标准,「图灵测试」:

如果一台机器能够与人展开对话(通过电传设备),并且会被人误以为它也是人,那么这台机器就具有智能。

讲真,如果对话不局限在声音,棋盘也可以的话,深蓝(deepblue)和更深的蓝(deeperblue)早就在二十年前实现了。卡斯帕罗夫当时有在和人下的「错觉」。

AlphaGo的时代更不必说,巨大规模的硬件集群,已经不是误以为是不是人的问题,而是带有了明显是凌驾人类的走子系统。这时候你误以为对面是人在下反而是贬低了。

在计算机科学刚萌芽的1956年夏, 美国达特茅斯学院召开了历时两个多月的会议,学者经过充分的总结和讨论,首次提出了“人工智能” (ArtificialIntelligence)这一术语。斯坦福大学人工智能实验室的教授尼尔斯·J·尼尔森提供了一个可供参考的定义: “人工智能致力于使机器智能化,智能化是衡量实体在特定环境中反应和判断能力的定量指标。”

人工智能致力于使机器智能化,智能化是衡量实体在特定环境中反应判断能力的定量指标。

反应和判断能力,「听说读写」是反应,「意识」有关判断。

从前计算机语音识别还需要语言专家调试,现在语料库茫茫浩如烟海,全凭算法自己训练。

就像下面这段话说的:

如果你是主编,很遗憾,你是一个悲剧人物。 你能够为这个行业做的最大贡献,就是尽可能放弃自己的权力,削减自己的职能,鼓励每一个下属尝试没有主编的媒体形态,配合技术部门创造不需要主编的生产流程,直到让自己这个职位的市场价值归零。