Google街景 服务在 2007 年推出,让使用者可以透过手机或电脑浏览器饱览街道、建筑地标、博物馆等更多全景,这些全景图的制作非常复杂,除了大家熟知的街景车绕街拍摄细节照片外,拼接时的算法更是复杂,日前 Google 宣布将改良算法提供使用者更没有接缝的视觉体验。
在 Google 街景 中的每一个制作都是需要经过各种软硬件的配合,首先大家都知道会有装载被称为“Rosette”多相机设备的街景车,以缓慢速度移动以拍摄下每一寸街道景象。 Rosette 上总共有 15 个相机镜头,可全面地捕捉但还是难免需要校准与产生接缝的部分。
▲最右边的图将 Rosette 上的每个摄影机可拍摄范围可视化,深灰色是相邻镜头之间重叠拍摄的部分。
为了能够提供更无缝接合的街景图像,Google 将以“Optical flow”技术微妙地扭曲每个镜头输入的影像,在经过精密计算后在两张边界互通的照片中找到两者之间的对应点,利用这些共享的对应点可以校准影像的偏移。
接下来是影像的全面改良,以便叠合对齐区域内的所有对应点,当拼接成全景图时,这组便型的影像就会自动认定对应点而对齐。在这个部分具有一定的挑战性,因为每张图片的叠合区域仅有一小部分,导致可能点的部分不太足够,为了让影像在视觉上更令人满意,这个部分则是利用 Google本身的 Ceres Solver 技术来处理。
接下来我们看看 Google 街景在全球影像改良部分的成果
而下面是 Google 街景改良的整个流程演示影片:
未来,我们将可以看到更完美的街景,不再有鬼影、叠合不全的状况出现,这对于喜欢透过 Google街景 观赏世界各地景色的人来说将会是更高阶的视觉飨宴,让人好期待!