有时候你可能会感觉这个世界有着满满的恶意,比如当你像那位黑人小伙一样,被Google Photos标记为了“大猩猩”时。严格来讲,这是Google Photos算法本身的不完善所致,而无处不在的算法让性别、收入、种族都有成为“有色眼镜”的潜力。
虽不明显,细思极恐
歧视:人对人就某个缺陷、缺点、能力、出身以不平等的眼光对待,使之得到不同程度的损失,多带贬义色彩,属于外界因素引发的一种人格扭曲。
直觉告诉我们机器的逻辑思维是不带感情色彩的,因此比人要更为客观和理性,如机器算法能通过卫星图像分析出缅甸的经济状况。然而,算法也有“摆乌龙”的时候。
据纽约时报报道,卡内基梅隆大学的一个研究显示,Google的广告系统学会了性别歧视。在推送高收入工作招聘信息时,男性比女性收到推送的频率高得多。哈佛大学的研究也指出,“查询被逮捕记录”的广告会更频繁地找上黑人。除了名校研究团队,美国联邦政府对歧视问题同样关注,联邦贸易委员会在调查中发现广告商更倾向于将高息贷款信息展示给低收入人群看。
机器学会歧视,与道德无关
上面说的一些“歧视”并非来自算法的个人偏好,也不带有一丝感情色彩,但计算结果中出现的歧视以及歧视带来的影响是真实存在的。伯克利大学学者说:即使程序团队没有给算法植入歧视的意图,即使产出的结果是完全理性的,它们仍然会展示出歧视性。
广告跟踪是合法的,但当算法戴着有色眼镜去跟踪用户就不合法了。为了更好地理解算法歧视的本质,卡内基梅隆大学采取了“以彼之道还施彼身”的策略,用软件工具模拟Google零浏览记录的用户去浏览求职网站。随后,在某新闻网站中统计“20万年薪高管职位”的推送数据。结果是,男性用户收到1852次推送,女性用户收到318次——仅为男性的六分之一。
这一结果似乎比想象的还要糟糕。职场中的性别歧视一直被人们诟病,目前Google的算法可能会让这种不平等更加根深蒂固。由于机器算法的复杂性,研究人员也无法判断到底是什么环节导致它们学会了歧视。Google拒绝进行解释,顾左右而言他:
广告投放者可以选择跟踪他们想触及的人群,对于兴趣导向的广告我们也有相关的政策指引。
指引中提到,“你不能使用用户的敏感信息,如网页和应用从用户中收集的确切种族资料”。那么问题就来了,即使没有确切的种族信息,大数据仍然能通过一些其他的线索标记特定人群。以黑人为例,某些黑人常用的姓名、历史上由黑人主导的兄弟会等线索都能帮助算法标记黑人群体(“猩猩事件”)。
解铃还须系铃人
本质上算法是“人算计人”用的东西,那么出了问题,修正“歧视现象”的任务还的人来做。
机器的歧视大概是无心之失,既然问题已经被提出,Google等数据公司就迎来了新的挑战。为了避免这种无心的歧视出现,程序员或许需要在一开始就把价值导向考虑进去,广告投放规则也需要更多的斟酌。毕竟,道德正确才能引导人们创造一个更和谐的网络社会。
本文来源:不详 作者:佚名