如果我们在世界上最著名、使用最广泛的搜索引擎中搜索“偏见”,我们会发现以下定义:“倾向于相信某些人、想法等比其他人更好,这通常会导致对某些人不公平地对待。 ”
因此,如果我们考虑到这一点,我们可以说人工智能偏见是指人工智能系统在提供特定主题的数据时表现出的系统性和可能不公平的偏袒或歧视。
这些偏见可能来自各种来源,包括有偏见的训练数据、有缺陷的算法或不当实施。之所以发生这种情况,是因为人工智能系统被编程为从网上现有的数据中学习,并根据这些数据中的模式和相关性做出决策。
因此,如果训练数据包含固有偏见或反映社会偏见,人工智能系统可能会在做出决策时无意中延续和放大这些偏见。
人工智能如何会产生偏见?
研究和调查揭示了人工智能偏见的存在及其影响。例如,麻省理工学院和斯坦福大学的一篇新论文发现,知名科技公司的面部识别系统对女性和肤色较深的人的错误率更高。
实验表明,对于浅肤色男性,判断性别的错误率始终低于 0.8%,而对于深色皮肤的女性,错误率明显较高,在一个案例中超过了 20%,在另外两个案例中超过了 34%。
由于人工智能系统 奥地利电子邮件列表 更容易错误识别这些人,因此它可能导致执法和招聘流程等领域出现潜在的歧视,因为这些技术可以(而且经常)用于识别可能的罪犯和执法部门通缉的人。
该研究的结果还引发了人们对这些程序中使用的神经网络的训练和评估的担忧,强调了检查面部分析系统中偏见的重要性,并表明需要进一步调查其他人工智能应用中可能存在的差异。
另一个例子是当我们分析贷款信用分析中使用的人工智能时。
贷款审批算法(也称为信用评分算法)通常被金融机构用来评估贷款申请人的信用度——如果该算法根据与少数群体相关的因素分配更高的风险分数,这些社区的个人可能难以获得贷款或受到不利的贷款条款的影响,从而延续系统性不平等并限制经济机会。
对此,负责任贷款中心拉丁裔事务主任阿拉塞利·帕纳梅尼奥 (Aracely Panameño) 表示,“输入承保算法的数据质量至关重要。 (…)如果您输入的数据基于历史歧视,那么您基本上就是在巩固另一端的歧视。”
而当谈到求职算法时,人们担心算法中的偏见可能会导致某些群体的求职者获得不公平的优势或劣势。
另一项调查显示,谷歌的求职算法存在性别偏见,在搜索结果中,薪酬更高的高管职位更倾向于男性求职者——因此,如果求职算法始终将薪酬更高的高管职位主要排在男性求职者前面,那么它可能会加剧就业市场现有的性别差异。