企业想将人工智能融入自己的事务,但又害怕驾驭不了。IBM公司日前推出了一种提高人工智能透明度的技术,使企业能够更全面地驾驭人工智能的力量。这种在IBM云端运算平台上执行的软件服务,能够在人工智能进行决策时自动检测偏差并解释决策过程,进而帮助各行各业的组织管理人工智能系统。IBM服务事业部也将与企业合作,帮助他们运用这种全新的软件服务。此外,IBM研究院将会向开源社群发布一套人工智能偏差检测和缓解工具包,用先进的工具和培训促进全球协作,以解决人工智能偏差问题。
IBM认知解决方案高级副总裁David Kenny表示,“IBM曾经确立了开发新型人工智能技术的信任和透明度原则。现在是将这些原则付诸实现的时候了。任何可能有缺陷的决策都会给使用人工智能的企业带来极大的潜在风险,而我们为企业提供了加强透明度和控制的方法。”
这些技术的发展也同样印证IBM研究院的最新研究结果,该研究显示,虽然有82%的企业正在考虑运用人工智能,但有60%的企业担心责任问题,63%的企业缺乏能够可靠地管理这种技术的内部人才。
提高人工智能决策的可见度
在IBM云端运算平台上的全新信任和透明度功能,可与各种机器学习框架和人工智能建构的环境模型配合使用,例如Watson,Tensorflow,SparkML,AWS SageMaker和AzureML。也就是说,企业可以将这些新的控制工具用于大部分常见的人工智能框架。还可以对软件服务进行编码,以监控任何业务工作流程所需的独特决策因素,使其能根据特定的组织用途进行客制化。
这种完全自动化的软件服务能够解释决策并在运行时(也就是进行决策时)检测人工智能模型中的偏差,每当潜在的不公结果出现时就会立即发现。重要的是,它还能自动建议应添加到模型的数据,帮助缓解它检测到的任何偏差。
它使用通俗易懂的术语提供解释,说明是哪些因素的权重使决策朝某一方向倾斜,决策建议的可信度有多大,以及可信度背后的因素。此外,模型的准确性、性能和公正性以及人工智能系统谱系的纪录可以根据客户服务、法规或合规用途,例如GDPR合规,轻松地追踪和回顾。
所有这些功能都是透过可视化操作面板来存取,让企业客户拥有前所未有的理解、解释和管理人工智能主导决策的能力,并降低对专业人工智能技能的依赖。
使开源社群能够建构更公正的人工智能
此外,IBM研究院还将提供开源社群 AI Fairness 360工具包,这是一套包括新型算法、程序代码和教程的资源库,它将为学术单位、研究者和数据科学家提供在建构和部署机器学习模型时整合偏差检测功能的工具和知识。开源社群中的其他资源仅仅着眼于检查训练数据中的偏差,而IBM研究院建立的IBM AI Fairness 360工具包将有助于检查和缓解人工智能模型中的偏差。IBM研究院借助这一工具包,广邀全球开源社群合作推动人工智能的相关研究,降低解决人工智能偏差的困难度。
研究揭示了人工智能部署主流化的优先项目和障碍
IBM最近发布了IBM研究院2018人工智能报告,这份对5,000名企业高管的调研结果显示,对于人工智能推动商业价值和收入成长的潜力,企业领导者的看法正在发生重大变化。
报告中的重要发现:
82%的企业和93%的高绩效企业正在考虑推广人工智能应用,重点是增加收入。
60%的企业担心责任问题,63%的企业缺乏能够可靠地管理人工智能技术的人才。
首席执行官认为在IT、信息安全、创新、客户服务和风险管理方面采用人工智能可以获得最大的价值。
人工智能的应用范围正在扩大,在金融服务等数字转型程度较高的行业很可能会加速推广。