大数据时代,“穷人与狗不得入内”的鄙视链无处不在

这些大数据公司究竟是怎么样来把客户划分等级呢?这自然是各家公司最顶级的商业秘密,当然也是法律和道德没有办法约束的。就举个非常简单的例子,你以为商家给你发优惠券仅仅是为了鼓励你来购物、多购物吗?优惠券就是一个划分等级的最好方式之一。滴滴公司的朋友就曾经透露,他们通过优惠券的使用就可以很清楚地掌握这个客户所在的社会等级、家庭财富等等。

滴滴公司在几年前发展最迅猛、优惠打折最多的时候,每天会发出大量的优惠券,数据工程师通过分析这些优惠券的使用情况,就可以把客户划分为高中低三个档次。高档次,就是平时经常用滴滴叫车,就算是发了优惠券也不用,这就是有钱任性的高收入阶层;中档次,就是平时也用滴滴叫车,但是有了优惠券叫车频率会大大提高;低档次,就是平时压根不用滴滴,但是只要有优惠券就用的“屌丝客户”。当然,还有一类最被“鄙视”的:平时不用滴滴,给了优惠券到过期了也不用的。通过这个简单粗暴的办法,滴滴轻而易举地筛选出了对自己最为有利的客户,并且排除了那些毫无价值的客户。

今天,每个行业每家公司都在做这件事情,建立最适合自己公司的“鄙视链”。就比如LinkedIn,它向男性用户推荐的工作平均薪水概率上就是高于女性用户。这也不能全怪数据工程师,因为我们社会上原本就存在着这样那样的偏见和歧视,它肯定会反应在数据和算法中。数据工程师们也不是社会学专家,他们也不会考虑因为偏见和歧视所带来的的道德伦理问题。

“请你来警察局一趟,因为大数据说你有潜在犯罪的可能”

因为LinkedIn存在性别歧视,使很多人在职场得不到公正的待遇,这件事情让人觉得不公平,那么大数据带来的法律、道德和伦理问题,就更让人觉得难以接受,必须要全社会立刻重视起来。

“请你来警察局一趟,因为大数据说你有潜在犯罪的可能”,这可不是美国大片里的台词。如果你生活在芝加哥,你有可能会因为大数据的算法而被请到警察局去喝茶,还有可能会成为被重点“关注”的对象。

2017年的早些时候,美国芝加哥市的市长宣布了一个新办法来提高城市打击犯罪的能力和精准度。按照我们正常的思路,那就是扩大警察队伍、加强警察到社群巡逻等等。但是芝加哥的办法却不同,可也代表未来的趋势——他们引入了一个软件程序,用来预测居民潜在的犯罪可能性。

芝加哥警察准备用这个数据分析软件来确认城市里的哪些人有较高的犯罪可能性,以便对这些人加强监控,甚至会时不时地拜访这些人,以便更好提示他们不要犯罪,试图通过这个办法把犯罪扼杀在摇篮里。

但是显而易见,这套大数据算法不可能消除人类社会已经有的各种偏见和歧视。比如根据这套算法系统,黑人等有色人种的潜在犯罪率远远高于白人男性,甚至一个没有犯罪记录的黑人小女孩的潜在犯罪率都比一个有犯罪前科的白人男性要高;低收入者就比高收入者的潜在犯罪率要高。

小地方

如果按这个划分,在小县城生活的人,潜在犯罪率就比在一线城市生活的人要高,要被警察重点关注,这显然是不合理的。凭什么河北人民的潜在犯罪率就比北京人民高呢?

脑洞再大一点,“潜在犯罪率”高的人,是不是从此就很难进入政府部门工作、也很难获得职场的升迁?某些人的一生是不是就会因此被改变?

如何破解“数据歧视”?

提升算法的透明度是最重要的解决方法。

不论是政府部门还是商业机构,任何一点带有歧视和偏见的算法就会对不同的人群造成很大的影响,甚至会误伤很多人。解决的办法只有一个:提升算法的透明度,这样才能尽可能地保证数据采集的中立和算法的客观。

理想的状况是,任何使用大数据、算法的机构,包括政府和商业部门,每年都要像披露财务状况一样,披露数据采集的标准、核心算法的运算原理等等,以供相关部门和第三方机构核验,看是否对特定人群造成了伤害和影响。