更新时间:2021-10-06 17:40:25
大家好,我是本栏目的编辑郝帅。现在我给大家解释一下上面的问题。技术专家、人工智能专家克里蒂夏尔马(Kriti Sharma)向林德塞杰斐逊(Lyndsey Jefferson)讲述了人工智能的可能性,以及如何确保人类从快速发展中受益。Kriti是Good UK的AI创始人,这是一个利用AI技术应对人道主义挑战的组织。
有哪些人工智能的例子可以帮助解决世界上的一些问题?
我发现几个激励的例子是人工智能用于提供医疗保健的领域,人类的支持可能相当严格或不够。AI还可以提高准确率,以更安全的方式帮助更多的人。
另一个例子是我们在AI for Good中开发的名为rAInbow的产品,在该产品中,我们构建了一个人工智能工具来帮助发现家庭暴力和虐待的早期迹象。这是一个影响三分之一妇女的问题,无论是身体虐待、性虐待、心理虐待还是经济虐待。
这是一个例子,当人类在早期可能不是最适合和他们交谈的时候,人工智能可以提供帮助,尤其是对于被判断包围的羞耻、羞耻、尴尬和家庭暴力等问题。去年11月,我们在南非启动了该项目,自那时以来,我们收到了35万多名妇女的咨询,她们希望以非判断和不偏不倚的方式了解虐待的早期迹象。
这不是答案,也不能替代人力支持服务。事实上,我们设计的产品与不同领域的人合作,包括那些为有需要的人提供面对面支持的人。人工智能可以在帮助人们迈出第一步,然后将他们指向正确的服务方面发挥作用。这样,人们可以更加积极主动,而不是被动反应。
众所周知,决策中的算法偏见,如抵押贷款、贷款和求职,会歧视女性和少数民族背景的人。如何处理算法偏差,确保这些决策公平做出?
有三件事需要考虑。1:数据从何而来?很多时候是有偏差的,因为基础数据有偏差。它是关于积极观察其他数据集,并尽早发现偏差。
二是与不同社区的人合作。如果是同质化的技术群体,很难有这种不偏不倚的心态。将主题专家、人类学家、了解社会的人、伦理学家和律师纳入这一过程非常重要。
第三个方面是如何解释算法。一个系统可能会提取结果,但如何使用这些信息取决于我们人类。不仅仅是构建算法;而是如何运用这些见解。你是否以一种纯粹自动化的方式使用它们?
在“为善的人工智能”中,我们正在印度做一个关于生殖健康和性健康的有趣项目。我们做了很多人工干预,因为这是一个非常敏感的问题,而偏见包括人类提供者的偏见是一个大问题。判断机器可能并不总是重要的。在设计过程中,你可以在合适的时间把人带进来。