缺口。[48]这可能是一场灾难。事实上,很可能是致命的——尤其是我们已经了解到机器学习会放大既存的偏见。由于我们的医学知识严重偏向男性身体,人工智能可能对女性做出更糟糕而不是更好的诊断。
而且目前几乎没有人意识到这里正在酝酿一个大问题。2016年谷歌新闻研究报告的作者指出,在有关单词联想软件的“数百篇论文”中,没有一篇承认这些数据集构成了“公然的性别歧视”。图像标签论文的作者则指出,他们“最先证明了结构化预测模型放大偏差,同时也率先提出了减少这种影响的方法”。
我们目前的产品设计方案对女性不利。它正在影响我们有效工作的能力——有时甚至会影响我们找到工作的能力。它影响着我们的健康,也影响着我们的安全。也许最糟糕的是,有证据表明,算法驱动的产品会使我们的世界更加不平等。然而,只要我们承认这些问题,就会有解决这些问题的办法。2016年那篇“女性=家庭主妇”论文的作者设计了一种新的算法,将性别刻板印象(如“他是医生,她是护士”)至少减少了三分之二,同时保证涉及性别的词语关联(如“他可能会患前列腺癌,正如她可能会患卵巢癌”)不变。而2017年图像判读研究的作者们设计了一种新的算法,将偏向放大率降低了47.5%。
***
①这种键盘上一个八度的宽度相当于传统键盘上的七度。
②作者写作此书时,苹果公司尚未推出iPhoneSE系列的第2代。
③作者可能是指2016年在中国上市的美图手机,Keecoo手机的设计理念与美图手机相似。