更新时间:2021-10-12 18:42:01
大家好,我是本栏目的编辑郝帅。现在我给大家解释一下上面的问题。专家表示,想要采用和开发负责任地使用AI的最佳实践的金融机构应该注意三个方面:可解释性、偏见和多样性。
TD Bank Group对1200名加拿大人进行的一项新调查发现,大多数加拿大人(72%)对使用人工智能的公司感到满意,如果这意味着他们将获得更好、更个性化的服务,但68%的人承认,他们对这项技术的了解不足以了解风险。除了调查加拿大人对人工智能的态度,运输署还聘请了来自金融服务、科技、金融科技、学术界以及公共和非营利组织的专家参与圆桌讨论,以便更好地了解金融服务中与人工智能相关的风险。
调查结果发表在加拿大经济俱乐部9月12日发布的人工智能金融服务报告中。该报告确定了三个关键领域,因为金融机构担心人工智能的未来发展:
解释性——人工智能专家和商业领袖应该如何应对技术的内在局限性,因为这与解释AI模型如何得出结论时的偏见有关——控制偏见,重新审视人工智能第一世界中的透明、公平和问责等概念。
多样性——促进多样性和包容性应该在人工智能采用的各个层面发挥作用,从行政领导到人工智能模型的团队建设,再到决策数据。
圆桌会议分析了未来的状态场景,向客户介绍了人工智能的意外后果。它发现,经理和工程师之间或公司和客户之间可能存在的沟通障碍可能与人工智能中的“可解释性”或人工智能系统如何得出结论有关。
建议在解决可解释性时,公司应实施与其模型一起开发的流程和标准,并不断测试不一致性。专家还表示,技术专家、政府和企业领导人需要“澄清并同意理解人工智能模型的技术能力和局限性,以便围绕可解释性、透明度和问责制设定现实的期望。”
至于偏见,专家指出,在不同的环境和不同的人身上,它可能意味着不同的东西。一般来说,这种担忧源于人类的偏见,这可能会导致不公平的待遇或歧视,但也可能导致统计偏差,这在AI模型中非常有用。“圆桌会议的参与者指出,当一个特征——如性别、年龄或种族——从数据中删除以消除有偏见的结果时,机器学习模型通常会为同一特征创建代理。”
最后,圆桌会议的与会者反映了与采用和实施人工智能相关的多样性和包容性。以下领域已被确定为组织需要考虑的关键因素:
建立多元化的AI团队——从工程师到管理者,团队要代表所服务客户对代表性数据集的需求——选择数据集训练AI模型时的多样性和呈现问题,服务AI系统的人员必须在数据中有所体现。
加拿大可以引领——通过多元文化社会和劳动力,加拿大有机会在全球舞台上发挥主导作用,促进人工智能领域的多样性和包容性。
当被问及他们对公司如何使用人工智能的重要因素的看法时,受访者表示如下:控制他们的数据使用(70%),使用技术的透明度(55%),以及对使用人工智能做出的决策的简单解释和理解(28%)。