更新时间:2021-10-13 08:44:01
大家好,我是本栏目的编辑郝帅。现在我给大家解释一下上面的问题。IBM Research今天推出了AI可解释性360,这是一个开源且最先进的算法集。它使用一系列技术来解释AI模型决策。
本次发布是继一年前IBM发布AI failure 360之后的发布,用于检测和缓解AI模型中的偏差。
IBM研究员、负责任的AI领导者Saska Mojsilovic在接受VentureBeat电话采访时表示,IBM正在分享其最新的工具包,以增加人工智能的信任和验证,并帮助必须遵守法规的企业使用AI。
“这一点至关重要,因为我们知道,组织中的人不会使用或部署人工智能技术,除非他们真的相信自己的决定。因为我们为世界上很大一部分地区创建基础设施,这对我们非常重要——不是因为我们在内部部署了人工智能或我们在该领域可能拥有的产品,而是因为我们的客户创建这些功能非常重要。世界将使用它们,”她说。
Mojsilovic表示,该工具包也正在被共享,因为该行业在创建值得信赖的人工智能方面的进展“非常缓慢”。
AI可解释性360借鉴了IBM研究小组成员的算法和论文。材料包括“TED:解释其决策的人工智能教学”,这是在AAAI/ACM会议上发表的一篇论文,涉及人工智能、道德和社会,以及经常被引用的“通过自解释神经网络的稳健可解释性”发表在NeurIPS 2018上。
该工具包从解释结果的许多不同方法中吸取了经验教训,例如比较解释,这是一种试图解释重要缺失信息的算法。
该算法还针对特定场景,如用于解释原型的Protodash,以及用于向最近拒绝贷款的消费者解释信用评分模型结果的算法,或者需要解释AI模型决策的贷款官员。遵守法律。
工具包中的八种算法都来自IBM Research,但未来还会添加更多来自更广泛的AI社区的算法。
“并不是一个研究小组或一个组织就能动针;当我们携手合作时,我们都将受益,这就是为什么我们打算开发工具箱,”Mojsilovic说。