随着人工智能在整个企业的应用越来越多,企业必须寻求人工智能的透明度和可审计性,以确保结果不受有害偏见的影响。
责任编辑:赵宁宁 来源: 千家网
人工智能(AI)具有彻底改变业务运营的巨大潜力。事实上,根据一项研究发现,67%的企业预计人工智能和机器学习用例在未来一年将会增加。这些技术在提高业务效率、产生洞察力、增强市场竞争能力和提供个性化客户体验方面具有优势。
然而,在高度监管的行业中,企业面临着与AI可解释性相关的特殊挑战。金融服务、保险和医疗保健等行业必须使用透明、可审计的决策平台,以遵守严格的法规和合规标准。如今,有很多人工智能解决方案可以自动化业务流程和决策,但很少有能够提供有意义的解释。在充满潜力的同时,企业必须绝不能忽视自动化决策和预测背后的原因。
为未来的法规做准备
如今,政治组织和社会都呼吁提高人工智能的透明度。此外,政府和消费者希望更深入地了解其信贷和贷款审批、营销活动和智能家居技术背后的算法。美国的算法问责法和全球欧盟人工智能法的拟议立法寻求建立安全、道德和透明的人工智能结果的标准。然而,由于用例仍在演变和出现,政府才刚刚开始寻找对AI实施监管的方法。
例如,纽约市议会通过了一项针对就业工具中使用的人工智能算法的法案。该法律将于2023年生效,要求雇主聘请独立审计师来评估,以及用于评估求职者和现有员工的人工智能工具。该法律要求对用于筛选求职者或提拔员工的人工智能工具进行偏见审计。对于有偏见的AI算法或未事先通知员工和候选人使用此类工具,将处以最高1,500美元的罚款。在短期内,随着法规的出现和标准的发展,企业应该专注于提高透明度的方法,为未来的法规做好准备。
利用机器学习的一个挑战是,根据定义,它是基于偏见构建的。虽然并不是所有的偏见都是有害的,但当它产生的结果对受保护阶层,如性别、种族、年龄等有利或不利,并对一个人产生负面影响,如批准临床试验、健康管理、贷款资格或信贷批准时,它就会变得有害。
保护算法和防止有害偏见的必要性是众所周知的。但要有效地消除有害的偏见,就需要了解每个决定或预测的数据。为了获得至关重要的透明度,企业必须对由机器学习和业务规则组成的算法有可见性,从而推动决策以提供完整的审计跟踪。例如,使用人工智能进行理赔审批的保险公司必须能够清楚地解释为什么要做出每个决定。
“黑匣子”问题如何加重AI创新的负担
借助人工智能,许多企业面临着一个问题,它们的人工智能解决方案提供了预测并支持自动化,但无法解释为什么它会做出某个决定以及影响结果的因素,就将企业置于重大法律或名誉损害的风险之中。
企业需要能够清楚地看到结果背后的原因,以确保算法决定返回预期的结果。将人工智能的黑匣子变成透明、可解释的“玻璃盒子”,对于防止对客户和消费者的伤害、降低公司和品牌的风险至关重要。
从本质上讲,机器学习基于历史数据进行预测。“通过意识实现公平”指的是一种方法,该方法允许企业通过使用元数据字段来确定一个模型是否对具有共享特征的各个组同样表现良好,即使该特征没有直接在模型中使用。这种意识有助于企业在导致不公平或有害的决定之前避免、量化和减轻有害的偏见。
企业人工智能未来的清晰愿景
随着人工智能在整个企业的应用越来越多,企业必须寻求人工智能的透明度和可审计性,以确保结果不受有害偏见的影响。只有当我们优先考虑并实施可解释的、透明的人工智能解决方案时,我们才能减少有害的偏见,降低风险并促进信任。
免责声明:本文版权归原作者所有,钱大人登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。此文如侵犯到您的合法权益,请联系我们。
文章评论
0条