9大专家评人机大战:机器本性与人类本性

张峥:是,用少见的开局也许可以增加长距离蝴蝶效应的可能性。一进入局部就不好办了。

Q6:硬件当中会有GPU(图形处理器)和CPU(中央处理器)共同工作吗?

张峥:是的,用两种硬件协调工作是工程和资源的优化,不是本质。

田渊栋:一直是两者同时工作的,CPU搜索,GPU评估局面。

Q7:在过去的四个月中,AlphaGo的学习方式是复习历史棋局还是跟许多真人高手对決?AlphaGO是在局部算路更强的情况下,对整体势的把握是如何做的。

卫鸿泰:兼而有之。

Q8:我记得有人问Google作者,电脑是怎么下这一步的,他也不知道,不是靠背棋谱就可以知道的。为什么Google作者自己都不知道电脑怎么下棋的呀?不是他们设置学习机制的吗?

田渊栋:设置了机制,但是不知道这个机制如何学得棋谱模式。所以,AlphaGo可以走很好的棋,但是制作者不知道这个是通过什么推理方式算出来的。要是知道了,对AI来说是非常大的突破。

Q9:所以,机器思考的过程现在还是个黑匣子?

田渊栋:是的,在这点上人工智能还是有很长的路要走。

Q10:电脑的弱点之一是,算法可以解决局部的问题,但对整体局势的评估会弱一些。

田渊栋:不一定,深度神经网络往往是倒过来,整体强而局部弱,需要加上搜索,DarkForest是这样。所以有时候死活,对杀会有问题。

张峥:难说,狗狗的结构是从局部到全局的。

Q11:我们能否说AlphaGo现在已经能够判别局势,而不是只判断接下来的几步范围内,哪个位置最优?

田渊栋:Value Network和Playout都是用来判断局势的,判断哪步棋最优也要靠这两个,Policy Network给出候选的走子,然后由上面这两个判断哪步比较好。

“狗狗”早点去博物馆不好吗?

Q12:“阿狗”和对手下得越多,胜利的机会也就随之增加?

张峥:狗狗哪天的左手也很强,就不要你了!它左右手互搏是现在成长的环境一环。

Q13:如果AlphaGO在棋力水平超过了大部分用于训练的“高手棋局”,想进一步提升棋力,这时如果再用这些水平低于自身水平的棋局数据进行训练是否不利于自身棋力水平增长?更多的使用“左右互搏”棋局训练是否更好?

田渊栋:是的。

董飞:我之前思考过电脑如果只是学习网上的棋谱,这些大多都不是高手,超一流的棋局又那么少,跟三流学,怎么可能下过一流的选手呢?但它那种可以自我对弈,选择倾向赢棋的路径,这样想只要它不断电,有大量计算资源,这样就进化直到永生,想到这就是一部科幻片了。大家还记得那部片子叫《超验骇客》,主人翁要死了,委托他女友把大脑移植到电脑中,后来就入侵银行,去一个乡下造了一个巨大data center,一直进化,研究各种新技术,可以移植修复,copy他的思想,最后谁也没法阻挡,世界被他控制。我觉得那部电影还是挺有哲学意义的,本意是想那些人类都不如他,他要去拯救世界,给他们最好的东西,但这样就是独裁。

Q14:没有了人类的挑战,AlphaGo的能力很快就到顶,进步的空间就不大了?

张峥:让狗狗早点去博物馆不是好事吗?

Q15:为什么?

张峥:因为就去战下一个更好的问题了。

Q16:AlphaGo的算法已经公开发表,是否意味着别的团队同样可以做出AlphaGo?商业化公司发表公开论文的动力在哪里?

田渊栋:细节有很多还是不清楚的,当然大致的技术路线都很明确了。动力在于提高自己公司知名度,这个很重要的,而不只是为了赚钱。有知名度就对招人和公共形象都有好处。

机器还是真人,你分得清吗?

Q17:如果不告诉您黑白棋对应的是电脑还是真人,您能分辨出来谁是谁么?