访问漫画网站就能得到加分,这实在让关心多样性的人心中警铃大作。正如我们所见,女性承担了全世界75%的无偿照护工作,她们可能没空花几个小时在网上聊漫画。奥尼尔还指出:“如果像大多数科技网站一样,那个漫画网站也由男性主导,并且带有性别歧视的基调,那么这个行业中的很多女性可能会避免使用它。”简而言之,Gild看起来有点像卡耐基夏校项目中那位男性计算机科学老师的算法。
毫无疑问,Gild并无意创造一种歧视女性的算法。他们的本意是消除人类的偏见。但是,如果你不了解这些偏见是如何运作的,如果你不收集数据、不花一点时间来建立基于证据的程序,你就将盲目延续过去的不公正。因此,Gild的程序员没有考虑到女性与男性在线上和线下生活的差异,他们无意中创造了一个对女性存有潜在偏见的算法。
但这还不是最麻烦的。最麻烦的是我们不知道问题到底有多严重。大多数这类算法都是保密的,并以专有代码的形式得到保护。这意味着我们不知道这些决策是如何做出的,也不知道它们隐藏了什么偏见。我们之所以了解Gild算法中的这种潜在偏见,唯一的原因是它的一个创建者碰巧告诉了我们。因此,关于这些人工智能的歧视性,这是一个双重性别数据缺口:首先是在设计算法的程序员的认知方面,其次是在整个社会的认知方面。
在晋升和招聘中,都存在就业程序不自觉偏向男性的问题。一个典型的例子来自谷歌,在这家公司里,靠毛遂自荐获得升职的女性员工少于男性。这不足为奇:女性习惯于谦逊,万一她们越过了这一既定的性别准则,就可能受到惩罚。[66]但是谷歌感到惊讶,于是开始着手解决问题——这一点值得嘉许。不幸的是,他们解决问题的方式是典型的男性默认思维。
目前还不清楚谷歌是没有还是不关心强加给女性的文化期望数据,但无论如何,他们的解决方案不是修正男性偏见的体系,而是修正女性。2012年,谷歌的人力运营主管拉兹洛·博克告诉《纽约时报》,谷歌的资深女性员工开始举办研讨会,“鼓励女性毛遂自荐”。[67]换句话说,他们举办研讨会来鼓励女性更像男性。但是,我们为什么要接受这样一个事实呢?即男人做事情的方式,男人看待自己的方式,才是正确的方式。最近的研究表明,女性往往能准确评估自己的智商,但智商为平均水平的男性则认为自己比三分之二的人更聪明。[68]在这种情况下,也许并不是女性提名