大量研究表明,人类在很多方面都有偏见,从确认偏见到性别偏见和锚定偏见。任何类型的偏见都可能是有问题的,即使人们不相信他们会成为这种思维方式的牺牲品。理解并承认各种类型的偏见有助于将它们从科学中根除;然而,在这一领域仍有大量的工作需要做。
人工智能的偏见
这一切与人工智能有什么关系?
在讨论人工智能时,偏见可以像在人类心理学中一样发挥重要作用。这是因为毕竟是人类在为人工智能编程。近年来,人们要求人工智能在如何做出决策和采取行动方面更加透明。
通过了解人工智能是如何创建的,以及在其开发中使用的输入和机器学习,我们更容易看到某些偏见可能存在的地方。教人工智能系统的常用方法之一是使用监督机器学习。在这些情况下,人工智能将利用大量的问题和解决方案。然后,系统将从提供的解决方案中学习,并确定哪些元素导致了它所面临的新问题的解决方案。
然后,该系统将接受测试,并审查结果,以确定人工智能在做出自己决策时的准确性。更多的训练和机器学习将有助于使人工智能更加准确。
然而,人工智能有可能会根据提供的数据学习偏见。如果用于训练的信息不是完全具有代表性、包容性和公平平衡的,那么人工智能就有可能因此产生偏见。
例如,如果用于人工智能的训练集的数据拒绝了大量试图获得汽车贷款的女性,人工智能可能会形成性别偏见。它可以“了解到”这是可以接受的,并根据性别而不是与贷款有关的事实做出决定。如果这种人工智能投入使用,这可能意味着当该系统使用时,女性获得汽车贷款的可能性将大大降低。
然而,不仅仅是一个人的性别会导致人工智能的偏见。如果用于训练的数据集包含一个组的数据多于另一个组的数据,这可能意味着准确性上的差异。由于某些群体的数据集会更少,人工智能对这些群体的准确性会更低。一如既往,只要数据集是平衡和公平的,包含的数据集越多,结果越好。
有偏见的人工智能的真实例子
人工智能可能歧视人类不再只是一种理论。近年来,人们在现实生活中发现了许多人工智能偏见的例子。用于创建算法的数据中的这种偏见可能会导致包括歧视在内的一系列后果。
经常使用的一个假设性例子是在教育领域。在这个假设中,人工智能算法帮助决定申请人是否会被学校的某个项目录取。然而,该算法的输入之一是申请人的地理位置。位置可能与种族有关,这意味着人工智能最终可能会偏爱某些种族而不是其他种族。
下面是现实世界中人工智能偏见的两个例子。
1. 医疗保健
大多数人同意,医疗保健和积极的健康成果应该平等地向所有人开放。然而,在2019年,研究人员发现美国医院在超过2亿人身上使用的算法存在问题。在确定谁需要额外的医疗护理时,这种算法更倾向于白人患者而不是黑人患者。
这个算法没有使用种族作为决策的基础,所以它做出这些决定的原因可能不会立即显现出来。当他们深入研究时,发现它使用了一个与种族医疗成本历史相关的变量。
这背后的原因是,成本将有助于确定患者的医疗保健需求。平均而言,在相同的情况下,黑人患者的医疗费用低于白人患者。因此,AI决定黑人患者不需要额外的医疗保健,这一切都是基于成本。
幸运的是,研究人员能够改变人工智能来降低偏见水平。然而,如果他们一开始就没有费心去调查人工智能的真实性,偏见就会继续存在。
2. 亚马逊
亚马逊已经成为一家著名的科技公司,他们在很多方面利用人工智能。这包括创建一个雇佣员工的算法。2015年,该公司发现他们的算法对女性有偏见。这样做的原因是,他们计算了过去十年里收到的简历数量,而这些简历大多来自男性。这意味着人工智能“了解到”它应该雇佣男性而不是女性。
人工智能如何才能做到公平公正
虽然当谈到人工智能的偏见和不公平时,肯定存在危险,但不一定要这样。创造公平AI的方法是可行的。然而,重要的是要意识到人工智能本质上是一台机器,所以人类理解的公平概念超出了它目前的范围。
从无偏见的数据开始。在提供供算法学习的数据之前,科学家和研究人员需要确保他们使用的数据是公平、平衡和无偏见的。机器不会像人类那样质疑所提供的数据。如果所使用的数据从一开始就有偏差,机器就无法识别问题。
即使有了所有正确的输入和数据集,公平感仍然可能存在问题。要创建一个尽可能公平和公正的算法,需要人类充当魔鬼的拥护者。他们将检查人工智能决策的结果,并寻找它做得对和错的地方。这使得设计师可以从那些寻找这些偏见的人那里得到反馈,并改变他们的算法。
定期测试应该是这个过程的一部分。建立一个算法绝不应该是一次性的事情。人工智能需要测试和透明。审查应该寻找任何有偏见的问题,这些问题可能无意中进入了系统。
创造更公平的人工智能是一个持续而艰难的过程,但这是一个需要继续下去的过程。
偏见能完全消除吗?
只要涉及到人类,即使他们像上面描述的那样扮演魔鬼代言人的角色,也有隐藏偏见的风险。由于机器从人类提供的数据中学习,这意味着人工智能始终存在偏见的风险。然而,使用上面讨论的方法可以帮助尽可能减少偏见的实例。
例如,IBM一直在使用一个三级排名系统,帮助确定所使用的数据是否无偏见。他们的目标,就像所有在这一领域工作的人一样,是减少人工智能的偏见。IBM已经成立了一个道德委员会,他们已经围绕人工智能制定了政策,并与值得信赖的合作伙伴合作。
此外,他们还为开源工具包做出了贡献,旨在帮助建立对人工智能的信任。随着对问题的认识,对这一目标的承诺和透明度的提高,应该有可能大大减少算法中的偏见。
来源:
https://hbr.org/2020/11/how-ibm-is-working-toward-a-fairer-aihttps://hbr.org/2020/11/ai-can-make-bank-loans-more-fair?ab=hero-main-texthttps://www.sciencedirect.com/science/article/abs/pii/S0004370218305988https://www1.lehigh.edu/research/consequence/are-we-all-inherently-biasedhttps://towardsdatascience.com/real-life-examples-of-discriminating-artificial-intelligence-cae395a90070https://hbr.org/2020/09/what-does-building-a-fair-ai-really-entailhttps://www.theguardian.com/technology/2018/oct/10/amazon-hiring-ai-gender-bias-recruiting-enginehttps: / / www.scientificamerican.com/article/racial-bias-found-in-a-major-health-care-risk-algorithm/