当前位置: 首页 机器人投顾 正文

科学家警告:如果超级智能机器要伤害人类,拔插头也无法阻止

来源: 机器人时代美学 2021-01-29 10:21:48.0

“人工智能(AI)叛乱”听起来像是科幻电影的情节,但这个概念是一项新研究课题。一个国际科研团队设计了一种理论上的“遏制算法”,通过模拟AI,确保其在任何情况都不能伤害人类,但结果发现无法做到。

作者:南方都市报   来源:今日头条

“人工智能(AI)叛乱”听起来像是科幻电影的情节,但这个概念是一项新研究课题。一个国际科研团队设计了一种理论上的“遏制算法”,通过模拟AI,确保其在任何情况都不能伤害人类,但结果发现无法做到。

AI多年来一直让人类着迷,我们对控制汽车、谱写交响乐或在自己的游戏中击败世界上最好棋手的机器感到敬畏。然而,巨大的力量伴随着巨大的责任,全世界的科学家都在担心超级智能系统可能带来的危险。

据报道,包括马克斯·普朗克人类发展研究所人类与机器中心的科学家在内的一个国际团队研究表明,控制一个超级人工智能是不可能的。

该团队在分析过程中使用了阿兰·图灵(Alan Turning)于1936年提出的“停止”问题,该问题的重点在于计算机程序是否会得出结论并做出“停顿”的反应。

据悉,在研究中,该团队设计了一种理论上的“遏制算法”,通过先模拟人工智能的行为,如果认为有害,则停止人工智能的行为,从而确保超级人工智能在任何情况下都不能伤害人类。

但仔细分析后发现,在目前的计算模式下,这样的算法是无法建立的。

也就是说,目前的算法并不具备阻止人工智能的能力,因为命令AI不要毁灭世界,会在无意中阻止“遏制算法”自身的运行。

人类与机器中心主任伊亚德·拉赫万表示,如果发生这种情况,将不知道“遏制算法”是否还在分析威胁,或者它是否已经停止遏制有害的AI。

基于这些计算结果,“遏制问题”是无法计算的,没有一种算法可以找到判断人工智能是否会对世界产生危害的解决方案。

研究结果还证明,我们甚至可能不知道超级智能机器何时到来,因为决定一台机器是否表现出优于人类的智能与“遏制问题”属于同一领域。

国际科研团队的论文警告说,如果一台超级智能机器想要控制世界,伤害人类,拔掉插头也无济于事。


免责声明:本文版权归原作者所有,钱大人登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。此文如侵犯到您的合法权益,请联系我们。

分享到:
  • 在不把微商整顿一下那么你的微信产品真的很危险了 微商里面百分之九十以上都是假货 骗来骗去都是骗的身边好友 可恨又可恶 抵制微商封杀微商
    08-30 19:02

用户推荐

换一换
  • 以诚点金

    贵金属协会分析师,现货黄金,原油技术分析,每日策略技术分析!任汇通财经,汇誉财经,外汇通,环球外汇等知名点评人,知名新浪财经博主

  • 大数据看世界

    分享给行业大数据、关注大数据行业的最前沿资讯,分享最有价值的大数据深度文章

  • 理财早知道

    专注金融投资市场分析,股票基金行情策略操作,理财投资技巧分析

  • 钱大人

    以机器人投顾金融资讯为核心,囊括机器人投顾、大数据、科技金融、基金和创投多个垂直领域的内容,及时价值,专业权威。

  • 机器人007

    关注人工智能机器人、分享科技行业资讯前沿,让未来在这里发声,开启智能新时代