当前位置: 首页 要闻 正文

科学家:人工智能可以迅速发展自己的偏见

来源: 机器人007 2018-09-12 16:00:58.0

【环球网科技综合报道】据英国《每日邮报》9月7日报道,来自英国卡迪夫大学和美国麻省理工学院的计算机科学和心理学专家发现,自主机器人可以通过识别、复制、学习其他机器人的行为产生偏见,某些种类的算法已经产生性别歧视和种族歧视。

  歧视看似是人类社会中特有的、需要认知才能产生的现象。但是,某些类型的计算机算法已经从公开档案等人类资料中习得了性别歧视、种族歧视等偏见。最新的一项研究甚至发现,人工智能可以进化出不同的偏见群体。

  为证实人工智能可以自己产生偏见,科学家用计算机模拟博弈。博弈中,每个个体都可以将钱送给自己所在的群体或其他群体,以测试每个个体的给予策略,观察其是否对其他群体有偏见。这一博弈由一台超级计算机模拟,其中包括上千个个体,每个个体都可以通过复制其他来自相同群体或不同群体的个体学习新的策略。

参与研究的卡迪夫大学计算机科学与信息学教授Roger Whitaker表示:“通过成千上万次模拟,我们发现了偏见是如何演化的、哪些情况可以激化偏见、哪些情况可以减弱偏见。我们的研究表明,偏见是自然产生的、影响非常大的,它很容易被激励、损害大范围的连通性。来自同一偏见群体的保护可以非主观地引起更进一步的偏见,使整个群体四分五裂。这种广泛传播的偏见很难逆转。”这些个体是通过复制那些有更高短期效益的个体使得偏见升级的,可见偏见并不需要高级认知能力。

  在另一项关于性别的研究中,研究人员发现,微软、IBM和Face++等的人脸识别服务中存在性别歧视和种族歧视。这些服务对于男性白人更加友好,而对于男性黑人和女性黑人错误率最高。微软在21%情况下无法识别黑人女性,而IBM和Face++有35%情况无法识别。(实习编译:庞雨湉 审稿:李宗泽)

本文来源:环球网

声明:本文版权归原作者所有,链播网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。此文如侵犯到您的合法权益,请联系我们。


关键字:
分享到:
  • 在不把微商整顿一下那么你的微信产品真的很危险了 微商里面百分之九十以上都是假货 骗来骗去都是骗的身边好友 可恨又可恶 抵制微商封杀微商
    08-30 19:02

用户推荐

换一换
  • 大数据小王子

    关注金融大数据的行业资讯、技术发展、新闻动态,实时报道金融大数据最新前沿

  • 科技金融资讯

    分享最前沿的科技金融资讯,这里不仅是搬运工还是创造者,欢迎关注!

  • 瞎说金融

    独特视角解说、深度报道、权威观点,财经资讯直通车带给你最新最全的财经动态。

  • 财经报道

    以独立的价值判断、独到的报道角度,全面覆盖宏观、商业、金融、证券、理财等各个领域。

  • 钱大人号

    钱大人官方帐号,发布公告消息,钱大人最新消息功能,请大家注意我们的消息!