AI没那么神 微软研究院洪小文告诉我们为什么

常常类似的一个计划,会被分成100种,200种,300种以上不同的小计划(差别不大),这样做效率不会是最高的,这也是其美丽的地方,能够让大家实现由下往上的创新。

我个人是非常乐观的,开源平台会在这样的基础上继续发展。微软近几年也热烈拥抱开源平台。我们也要尊重不同公司或个人的想法和目的,使他们能够自己的发展规划将这个计划朝不同的方向推展。

AI现在大多应用在功能性应用上,所以很多大公司领袖或者CEO们谈到AI的未来都会向公众呈现出一副喜闻乐见的态度,比如谷歌董事长表示曾表示“对于人工智能的快速发展,人们没什么好恐惧的,担心计算机胡作非为的都是些电影情节,该类技术能够帮助人类,而不是伤害人类,人工智能不会威胁到人类及其工作岗位。”

| 我觉得AI会不会威胁人类这个跟AI本身没关系,完全看AI背后的开发者(使用者)是不是拿它在作恶,您怎么看这个观点?

的确,不止我看到很多报道。我在和大众交流的过程中,大家也都有这种担心。身为科学家、科技公司的一员,我认为要给出一个更好的解释,让大家不用做一些不必要的担心,同时也要真正的指出哪些问题是大家将来必须面对的。

首先讲一个原则,大家不用担心。

AI并没有那么神,和其它的机器一样,它还是被我们控制的。我们用它去做一些重复性的事情,把重要的决定任务交给我们自己。

说到这点我要补充一个,很多公司、媒体在描述(有时候是夸大)AI的同时却又说不用担心,这是有点矛盾的。我认为大家(特别是相关从业人员、公司)在探讨AI的时候应该实事求是,把它的优点和缺点都讲清楚。

AI的优点可以和大数据结合做一些重复的事情,还能做一些决定。AI的缺点是没有创造力,背后必须有人在操作,还要目前的AI和深度学习是没办法解释它为什么会做这个决定的。

科学家和相关的从业公司在这个地方必须要讲清楚,不能含糊地带过。

再来,AI背后都是人编程的。

就像飞机、车子,大家都认为是好东西,但是它们也会被不法分子拿去做一些不好的事情。所以我们应该看得是AI背后是谁在操作它,而不只是关注在AI本身。

我们不用担心机器会自己去作恶,背后一定有人。最近有人提出要对AI做出限制,类似于“机器人六大法条”等,我个人有一些不一样的想法。法律应该是用来限制人,专门立法去限制一个非人类、机器是很奇怪的。应该把时间花在规范机器背后的人身上,要立法来限制不让他们利用机器去做非法的事情。

倒是在工作岗位上,这样一个考量确实是真的。但是这个事情也不特殊,每次技术出现颠覆性创新后,都会对相应的工作岗位造成影响。在人类历史上,特别是有颠覆性创新出现的时候,这种情况是经常出现的。比如说汽车、飞机的出现,都对相关产业的岗位造成了重大影响。

所以我个人来说是乐观的,因为我们有很多历史上的经验可以学习。如果要正视这个问题,可以从以下两个方面着手。

首当其冲的是教育方面,在学校里要教育下一代的学生哪些知识是未来所需要的,让他们适应未来的社会。

已经在职场的人员,要加强在职进修,或者说现在有个说法叫life-long learning,这个也是值得提倡的。

人类简史作者前不久提出,算法胜利,自由意志将终结这个观点,原话是“现在,一个新的转变正在发生。正如神的权力由宗教神话合理化,人的权力由人文主义思想认可,现在,高科技“大师”和硅谷“先知”正在创造一个全新的教条,让算法和大数据的权力合理化。这种新颖的教条可以称为“Dataism(数据主义)”。在数据主义的极端形式下,数据主义世界观的支持者将整个宇宙看作是一个数据流,认为生物几乎等同于生化算法,相信人类的宇宙使命是创建一个包罗万象的数据处理系统,然后融入其中。

| 我们正在变成一个巨大的系统中的微小芯片,没有人真正理解这个系统。您怎么看这个观点?