大数据时代,“穷人与狗不得入内”的鄙视链无处不在

看到网上有人用这个形象的例子来形容大数据时代无所不在的歧视和偏见:如果LV专卖店门口挂一个牌子,写着“穷人与狗不得入内”,这是不是会被无数人唾骂,甚至告上法院。但是互联网信息时代,人工智能加上五花八门的大数据算法,却可以堂而皇之地把人分成三六九等,然后把不招待见的客人剔除在门外。

大数据歧视

比如微信上的定向广告,收到宝马广告的客户在大数据和算法的逻辑里就应该比收到小米广告的用户要高端,这不就是大数据时代的“穷人与狗不得入内”么。

当然,你可以说这是个性化精准推送,不会骚扰到对宝马不感兴趣(应该是买不起宝马)的那些用户,还会觉得这种大数据算法还是不错的商业模式。那么当你知道全球最大的职业社交网站LinkedIn,它的算法里会默认把职位更高、薪水更高的工作推荐给男性用户,而把职位更低、薪水更少的工作推荐给女性用户的时候,你会怎么想?

LinkedIn全球拥有5亿注册用户,无数公司的HR视LinkedIn为发布招聘信息的最重要渠道之一。如此多的招聘信息通过LinkedIn带有“偏见”的算法处理之后,“歧视性”地把更好的工作推送给带有男性、白人等关键词信息的用户,而将较差的职位推送给女性、有色人群等,而且是在完全不公开、不透明的过程中进行。长此以往,对于整个商业社会带来的负面影响,将无法估算。

之所以存在这些歧视和偏见,其中一个原因是这些程序的设计者、机器学习专家们都是男性,甚至是白人居多。所以在全球第一届人工智能当评委的选美大赛里,皮肤黑的美女都落榜了,上榜的都是肤白腿长、社会上普遍认为的美女。足以见得,这个人工智能的算法背后,肯定是一群“直男”工程师的审美标准。

无独有偶,全球算法最牛的公司Google也存在着类似的歧视。Google在推出人脸识别的时候,能够很容易辨别白人,但是黑人等有色人种的识别率就非常差,黑人有时甚至会被机器自动识别成为黑猩猩。问题出现之后,Google虽然第一时间出来道歉,表示这是无意为之,以及承诺未来会更加注意对数据的选取和算法的设计。但是大数据算法里反映着人类普遍存在的“鄙视链”,这一点却毋庸置疑。

当然,还有更多的算法,其背后逻辑不公开、不透明,我们作为局外人也没有办法了解,设计者存在的偏见和歧视、各种商业利益都会被反应到算法之中。被大数据算法贴上了什么标签,就相当于是被划上了不同的阶层,很可能会决定这个人一生。而这也会引发一系列全新的道德问题。

穷人只配买廉价的商品,好东西都留给上等人

大数据时代,各家公司都在拼尽全力搜罗数据、尽可能地详尽了解自己的用户,并且通过自己设计的算法将其分类,并且标签化。一旦贴上标签,就直接将这个客户圈定在了一个固定的阶层。比如,招聘网站的算法推测你目前的年薪是30万元,而你交际的圈子也差不多是这个水准,那么它会在很大概率上给你推荐年薪在50万元以内的工作,尽管你可能更加胜任那个70万年薪的工作。你在根本不知道年薪70万的工作的时候,你怎么可能获得它呢?

甚至连移动电话公司都会“看人下菜碟”:他们对你标签化之后,会根据你所在的档次向你推荐这个档次的电话号码。也就是说你如果是“穷人”这档,都没有机会获得数字好一点的电话号码。而电话号码,又会在很多时候决定你在其他地方的阶层,比如一位在银行的贷款经理朋友就告诉我,139、138等好的手机号码在他们系统里的授信分值就是比其他的手机号码要高,可能获得贷款的金额、信用卡的额度都要更高。

电子商务平台的“鄙视链”就更加赤裸裸:你的每一次点击、每一张页面的浏览、每一次下单都会被记录在电商网站的大数据之中,这些都是为你打分、贴标签和划分等级的重要维度。如果你是一个精打细算的用户,“价格敏感型”就是你的标签,那么网站给你推送商品的时候,自然是优先选择价格低的,那么为了用足够低的价格吸引你,算法可以忽略掉质量。所以,在给你的产品推荐的前几页,大多都是廉价而质量也不太好的产品;那么对价格不那么敏感的用户,自然可以获得高质量产品的推荐。其实有时候,两者的价格真的不会差距很大,但是出现在价格敏感型客户推荐页上的产品真的跟价格不敏感型客户推荐页上的不一样,长期下来,两者获得的服务和生活质量还是会有差别的。