说出来你可能不信,AI可以帮你找到合适的住处

媒体注:本文作者 Silver Keskkula 是Teleportinc 创始人之一 ,也是Skype 核心团队的首席研究员。作者从五个方面讲述了,如何通过AI 技术让你足不出户就能找到一处适合自己居住的地方。文章由图普科技翻译。

我曾经在《AI将如何重组人口》一文中打趣过我的读者们。就像在线约会网站决定谁跟谁将制造一个婴儿,我们将也让AI技术决定谁将搬去哪儿。所以,我们如何知道如今哪些城市才能被称为好城市?

我们读新闻,听到朋友的好消息,看到照片和视频,从那里得到最好的工作机会,而非常平常的是,我们经常只是走马观花地去看城市。

我不会去深入剖析AI是如何参与决定哪些新闻,朋友的帖子,视频或城市的照片将被我们看到,但我将要阐述我们如何使用在Teleport中的AI技术去帮助你更客观地看待城市。 自从我被《每个孩子都开始编程》一文深深吸引后,接下来,我将通过简单的代码示例来演示这个文中的过程,以说明使用所有工具玩转AI已经是一件很容易的事情。

以下想法主要受到来自MIT的StreetScore项目的启发。

通过AI的眼睛探访城市

让我们从Teleport Developers API中抓取爱沙尼亚Tartu区域,并生成10,000个随机地理坐标。你可能会问,为什么是一万个?因为科学!

这样在地理上的均匀分布当然会使我们对城市的看法有一定意见,因为大多数时候我们在树林里或者屋顶上都几乎看不到任何东西。但幸运的是,在Google Maps API的帮助下,我们可以任意移动坐标,并得到更像这样的东西:

正如你所看到的,我们计划访问的位置(红点)或多或少在热闹的道路和街道上,而不是一些长满了树的地方。

现在我们已经拥有我们的位置,现在是时候进入观看位了,并熟悉Google街景视图图像API。基本上我用我的坐标调用他们的API,并在本地保存生成的图像。

经过一些反向地理编码和一些常规遵循后,Google的API让我得到了每个坐标返回的照片(而均匀分布则会显示的“对不起,我们没有图像”)。

然后通过我的代码,我就可以窥视成千上万的Tartu的图像,而不需要离开房间(或我的电脑?)。

图像HAL层上有什么?

为了简化事情,我通过公共可用的机器视觉API运行我们的图像集。 我们有很多这种类似的选择,比如Microsoft Computer Vision API / Google Cloud Vision API / IBM Vision Recognition API / Cloud / Sight API / Clarifai等等

但为了这个例子,我去了微软的牛津项目。微软研究组织使我印象深刻,老实说,他们的API免费使用条款是最吸引我的。他们甚至慷慨到提供Python 的快速开始代码。

实质上,您只需将图片上传到其API,并返回一行描述场景的文本。这里有一个来自Tartu的图像示例,以及来自MS Vision API的输出文本。

智能压缩

通过他们的API,我将来自Tartu的8.5GB原始图像像素数据压缩成255KB的文本数据。 如果研究过压缩和智能的关系,那么这个减小了35,294倍的尺寸或许能说明一些问题。

无论如何,现在我们终于有了描述场景的自然语言,我们可以开始研究统计数据,看看我们能否找到一些说服某人搬家的理由。