13位最强AI达人对话AlphaGo投资人

总的来说,我很高兴自己能帮助 AI 研究和 “价值观对接” 的研究搭建桥梁。此外,Deepmind 现在能专注于 “价值观对接” 的研究上,我还是有一点点的小功劳的(笑)。

赵云峰(新媒体 “机器之心” 创始人)

Q: 继 Elon Musk,Stephen Hawking 之后,近日 Michio Kaku(加来道雄,美籍日裔理论物理学家)也表示我们应该担忧人工智能,很多人工智能产业之外的名人和大众也比较关注这个话题。但是,人工智能领域的从业者往往是从解决具体问题出发,对这个问题好像不是特别在意,或者只是提出一些较为宏观的解决方案,比如说 DeepMind 的道德委员会,你认为对于防范人工智能风险,我们应该采取哪些具体的、马上可以开始行动的方案吗?

A: 有趣的问题。加来道雄真的认为我们应该对此感到焦虑吗?他之前是不相信 AI 风险的(至少我是这么认为的)。如果他的态度发生转变,这是一个好消息(越来越多人开始正视问题存在了)。

关于研发者的态度,我觉得你是对的。他们的确没有动力去考虑系统的风险(更准确的说,是关于价值观对接的问题),但他们有动力去提高系统的性能。就如 Holden Karnofsky 所说:“目前从文化和机构层面来看,研发者没有多大的动力去关心这些问题。但即使如此,还是有小部分有关人士开始关心这些潜在问题。所以我相信,未来会有更多的人加入这一思考。”

(这里有一篇非常棒的文章,列举了许多优秀的 AI 研发者对于风险的思考 http://slatestarcodex.com/2015/05/22/ai-researchers-on-ai-risk/)

目前如何预防这种风险?当 “价值观对接” 领域缺乏资金的问题得到缓解后,紧接着的瓶颈是缺乏这方面的人才(素质要求与 AI 研发的其它领域不同)。我们需要更多的人和机构,来解决各种研究上的问题——从运算理论上升到哲学思想。

就像我前面提到的,解决 AI “价值观对接” 的问题不仅非常重要,而且是有趣的!

陈孝良(声智科技CEO)

Q: 机器学习理论与神经科学、人类行为学都有着密切的联系。因此,Deepmind 使用的“深度强化学习算法”需要海量的案例去训练 AI。但如我们所知,我们人类往往可以通过单一案例举一反三,从而学习一个概念,还能通过比机器算法更丰富的方式学习。为了解决这个问题,科学家正尝试利用贝叶斯推论法让 AI 通过简单案例学习。你怎么看贝叶斯推论和深度学习的未来?下一步 AI 又要如何模仿接近人类的想象力和推理能力?

A: 嗯...…据我所知,神经网络大体建立在函数逼近上,与神经生理学只有一些偶然的联系。

我对贝叶斯学习法了解不算深入,我认为虽然它是理论上最优的,但是特别消耗计算资源。此外,最近还有一个很有趣的所谓 “终极” 贝叶斯 AI 产品 AIXI。

的确,从通用的角度,目前的方法都还不够好。我的朋友 Gary Marcus 已多次重申这个观点。他自己也创立了一家公司来探索能够通用化的技术:Geometric Intelligence(我投资的项目!)。

高始兴(思必驰创始人)

Q: 你觉得未来人们有没有可能有自己个人的大数据?

A: 从某种程度上来说,有可能。我投资了两个创业项目,都与 “私有云” 有关:Sandstorm(http://sandstorm.io/ )和 Urbit (http://urbit.org/)。

但这样说吧,公共数据(public data)的规模和价值都会更 “大”。随着传感器的广泛应用,数据量会呈几何倍增长。此外,越来越先进的分析技术能利用部分数据和历史数据来推断出更多信息。

刘维(联想之星合伙人)

Q: 非结构化的数据的未来发展该会是怎样?如何才能充分使用它们?我们有没有必要结合框条化的学习与深度学习呢?此外,大量数据就能解决一切问题吗?如果,在一些条件下,失败的代价很大,并且很难去穷尽它的边界条件(比如说:自动驾驶)?”

A: 从根本上来说,我认为非结构化的数据最终能满足需要。就像小孩子就可以从非结构化的感观信息开始学习,我并不认为人脑里有什么 “神奇” 的东西。