把测试环节放在第一位,免得你不在乎这个能力的意义。(下图为修复后的作者本人。他不惊讶,也不会写这个新闻。)
来自英国诺丁汉大学和金斯顿大学的一群AI研究人员最近创造了一种方法,让AI只通过一张平面肖像就能创造出原始的三维模型。在研究人员将大量人脸数据输入卷积神经网络(CNN/卷积神经网络)后,神经网络本身学会了如何从一张从未见过的照片中猜出这个人的真实长相。
该小组在网站上公布了相关文件和代码。下面是对这项技术的简短介绍:
“三维人脸重建是计算机视觉中一个非常困难的基础问题。当前的系统通常假设有多个面部图像(有时来自同一对象)作为输入,并且必须解决许多方法上的挑战,例如大量面部手势、表情和不均匀光照之间的对应。通常的方法需要复杂且低效的建模和匹配工作。
然而,在这个项目中,我们试图用包括2D图像和3D面部模型或扫描图像在内的材料来训练卷积神经网络,以避免以前方法的瓶颈。现在我们的神经网络只需要输入单张二维人脸图像,就可以重建出整个三维人脸模型,还可以识别任何面部姿势和表情。"
在36Kr此前报道的《A16Z合作伙伴如何看待无人车的网络效应》一文中,我们分析了计算机视觉对于自动驾驶技术非常重要,无人车只有知道自己在哪里,周围的车辆和行人在做什么,周围有什么信号,才能在路上安全行驶。目前,由于计算机视觉无法从大量2D照片中判断路况,大多数无人驾驶车辆。公司还需要使用多种传感器和高精度地图为无人车导航。
但是现在,我们可以使用的测试揭示了计算机视觉发展的冰山一角。如果无人车能像人类一样通过眼睛判断路况,大部分无人车。公司发展路径将被打乱,特斯拉——少数等待计算机视觉重大突破的无人车。公司一是正确的赌注。