密封条厂家
免费服务热线

Free service

hotline

010-00000000
密封条厂家
热门搜索:
行业资讯
当前位置:首页 > 行业资讯

人工智能有危险人工愚蠢才害死人

发布时间:2020-03-11 12:14:53 阅读: 来源:密封条厂家

首页智能时代人工智能 人工智能有危险?“人工愚蠢”才害死人! 2015-7-12 23:39:26来源:虎嗅网作者:-责编:望山 评论: 去年10月,特斯拉CEO伊隆·马斯克(Elon Musk)曾表示,人工智能是“对人类生存最大的威胁”,而开发能思考的机器就像是“召唤恶魔”。去年12月,著名物理学家史蒂芬·霍金(Stephen Hawking)指出,“全面的人工智能将意味着人类这一种族的灭亡”。今年,微软创始人比尔·盖茨(Bill Gates)也表示,他“对超级智能感到担忧”,而这样的超级智能只需几十年就会诞生。

不过,即使认为人类将由于“杀人机器人”而面临威胁,这样的问题也不太可能来自人工智能,而更有可能是由于“人工愚蠢”。人工智能和人工愚蠢之间的差异反映了我们看待计算机的方式。

关于人工智能,大部分人担心的一点在于,计算机会认为人类是错误的产物并杀死人类。对人类来说,这无疑非常糟糕,但对计算机来说可能是明智的决定。

但业内专家表示,真正令人担忧的是,计算机程序会在无缘由的情况下,迅速而过度地完成某项单一工作。例如,一个生产回形针的机器可能会失控,导致在一夜之间生产出大量无用的回形针。

换句话说,这里发生了非常愚蠢的错误,而错误影响范围很大。在关于人工智能导致世界末日的报道中,你可能会看到“终结者”机器人的说法,但实际上这仍停留在想象之中。

麻省理工学院物理学教授、未来生命研究所主席马克斯·泰格马克(Max Tegmark)表示:“你真正应该担心的是,一台计算机在某个非常狭隘的领域变得非常强大。”

今年6月底,德国一名工人遭到工厂生产线机器人的意外伤害而身亡。当时,泰格马克表示:“这表明,机器非常愚蠢,将人体当做了一块金属材料。”

未来生命研究所近期获得了马斯克的1000万美元资助,以探索如何避免自动化程序带来危害。不过包括马斯克、霍金和盖茨在内,许多人似乎都没有注意到真正的潜在威胁。

目前来看,没有任何证据表明,机器人工智能能产生意识,并出现杀死自己创造者的想法。

非盈利组织艾伦人工智能研究所负责人奥林·艾奇奥尼(Oren Etzioni)表示:“这种对世界末日的设想搞混了科学的边界,实际上是讨论关于思想和意识等哲学问题。如果有更多人学会软件开发,他们就会发现计算机其实只是很平常的工具。”

那么是什么原因导致了这样的混淆不清?一大原因在于计算机科学家的工作。艾奇奥尼表示:“‘人工智能’一词诞生于50年代,当时人们认为能思考的机器即将出现。我们目前沿用了这一说法。”

“人工智能”一词目前已被广泛应用。谷歌的人工智能项目主要由收购而来的DeepMind负责。这一领域的一家先行者名为Thinking Machines。而研究人员也在关注“深度学习”,这暗示了我们正在创造智能。

深度学习依靠了有层次性的逻辑能力,即神经网络。神经网络中的节点常常被比作人脑的神经元,但实际上两者之间的差别就像面包和太空船那么巨大。

包括DeepMind在内,机器学习领域的大部分研究都主要关注模式识别、行为建议,以及预测。这类似于人脑的能力。

人工智能是科技行业最引人关注的一个领域。亚马逊、Facebook和谷歌正在展开一场竞赛,而Uber和通用电气则将机器学习视为了未来。

但从本质上来看,机器学习就是自动化,而这也是长期以来机器的功能。人类在学习中可以变得更聪明,而机器的“学习”与人类不同。

DeepMind已开发出一款程序,能掌握简单的视频游戏,然而这一程序无法将一款游戏的经验应用至另一款。这一神经网络系统对图片的识别方式与人脑仍有很大差异,并且很容易被击败。

从这类愚蠢的机器行为发展至更广泛的与人类类似的行为被称作“迁移学习”。这一领域目前还停留在研究阶段。

加州大学伯克利分校计算机科学教授斯图亚特·拉塞尔(Stuart Russell)表示:“人工智能专家知道,一台能下象棋的计算机不会渴望去吃掉对方的某个棋子。”他也是未来生命研究所的成员,并且获得了马斯克的资助。他目前正试图通过数学方法,确保“愚蠢”的计算机程序不会与复杂的人类价值产生冲突。

他表示:“生产回形针的程序缺少的是作为背景的价值观。目前的误解在于,唯一的威胁在于机器可能出现意识。”

微信搜索“IT之家”关注抢6s大礼!下载IT之家客户端(戳这里)也可参与评论抽楼层大奖!

个税税率表

注册会计师考试条件

利润表模板

工资税率