最新相機文章

Image credit:

Google 解释 Pixel 3 是如何靠 AI 改进人像功能的

机器学习依然是核心。

Sanji Feng
2018 年 12 月 1 日, 下午 04:02

跟前代相比,Google 今年出的 Pixel 3 系列在处理人像拍摄时的表现要来得更好。考虑到两者用的都是单颗主相机的设计,所以改进大部分还是来源于软件。那说到底,Google 究竟做了些什么让 Pixel 3 的人像算法变得更强?今天他们就决定发文来解释一下。

Pixel 2 推出的时候,Google 是利用神经网络和相机上的相位对焦技术(后者主要是跟视差效果有关)来确定拍摄时处于前景的对象。但这套方案在面对变化不大的场景时就容易出错,而且在以小光圈进行拍摄的时候也比较容易发生问题。为了改善这些,Google 在 Pixel 3 上运用了新的神经网络,希望通过对象的常规形状、场景中不同点的清晰度等多项因素,来更准确地判断对象距离。另外在训练这套系统时,Google 也采用了一些创造性的办法。比如说他们曾做出过把五台 Pixel 3 绑在一起的「Frankenphone」,以同步记录深度信息,来消除光圈、视差方面的不足。

看到 Google 在 AI 上投入了那么多的资源,可见他们对单相机方案的决心是多么之大。当然啰,你也可以反过来想。Google 一直坚持这种小众做法的原因,搞不好也是为了探索算法的极限,从而秀出自己在人工智能领域的「肌肉」呢。

article