当前位置: 首页 机器人投顾 正文

科学家警告:如果超级智能机器要伤害人类,拔插头也无法阻止

来源: 机器人时代美学 2021-01-29 10:21:48.0

“人工智能(AI)叛乱”听起来像是科幻电影的情节,但这个概念是一项新研究课题。一个国际科研团队设计了一种理论上的“遏制算法”,通过模拟AI,确保其在任何情况都不能伤害人类,但结果发现无法做到。

作者:南方都市报   来源:今日头条

“人工智能(AI)叛乱”听起来像是科幻电影的情节,但这个概念是一项新研究课题。一个国际科研团队设计了一种理论上的“遏制算法”,通过模拟AI,确保其在任何情况都不能伤害人类,但结果发现无法做到。

AI多年来一直让人类着迷,我们对控制汽车、谱写交响乐或在自己的游戏中击败世界上最好棋手的机器感到敬畏。然而,巨大的力量伴随着巨大的责任,全世界的科学家都在担心超级智能系统可能带来的危险。

据报道,包括马克斯·普朗克人类发展研究所人类与机器中心的科学家在内的一个国际团队研究表明,控制一个超级人工智能是不可能的。

该团队在分析过程中使用了阿兰·图灵(Alan Turning)于1936年提出的“停止”问题,该问题的重点在于计算机程序是否会得出结论并做出“停顿”的反应。

据悉,在研究中,该团队设计了一种理论上的“遏制算法”,通过先模拟人工智能的行为,如果认为有害,则停止人工智能的行为,从而确保超级人工智能在任何情况下都不能伤害人类。

但仔细分析后发现,在目前的计算模式下,这样的算法是无法建立的。

也就是说,目前的算法并不具备阻止人工智能的能力,因为命令AI不要毁灭世界,会在无意中阻止“遏制算法”自身的运行。

人类与机器中心主任伊亚德·拉赫万表示,如果发生这种情况,将不知道“遏制算法”是否还在分析威胁,或者它是否已经停止遏制有害的AI。

基于这些计算结果,“遏制问题”是无法计算的,没有一种算法可以找到判断人工智能是否会对世界产生危害的解决方案。

研究结果还证明,我们甚至可能不知道超级智能机器何时到来,因为决定一台机器是否表现出优于人类的智能与“遏制问题”属于同一领域。

国际科研团队的论文警告说,如果一台超级智能机器想要控制世界,伤害人类,拔掉插头也无济于事。


免责声明:本文版权归原作者所有,钱大人登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。此文如侵犯到您的合法权益,请联系我们。

分享到:
  • 在不把微商整顿一下那么你的微信产品真的很危险了 微商里面百分之九十以上都是假货 骗来骗去都是骗的身边好友 可恨又可恶 抵制微商封杀微商
    08-30 19:02

用户推荐

换一换
  • 编程的人

    “编程的人”分享有用,有趣,有范的场景技术,也会分享职业实战培训技术课程!快来加入我们吧,一起学习,分享,互助,让技术流行起来!

  • 大数据小王子

    关注金融大数据的行业资讯、技术发展、新闻动态,实时报道金融大数据最新前沿

  • 机智金管家

    机器人投顾智能管家,关注机器人投资资讯、新闻、技术、人物、行业动态

  • 肖子坤

    2009年毕业于武汉大学,次年末进入天津贵金属交易所,从事交易员对大资金投资调配控制。擅长应用江恩、波浪理论与技术形态指标,结合国际基本面分析市场走势,以短中线操作为主,实战经验丰富。

  • 机器人之心

    最新最全的机器人行业资讯,聚焦机器人投顾动态,关注机器人行业技术革新,机器人创业者