增強現實和Lens會是谷歌搜索的未來嗎?

【獵雲網(微信號:)】5月9日報道(編譯:福爾摩望)

想象一下,當你在考慮購置椅子時,可以先用谷歌搜索一些成品,然後在客廳裡試用。或者,當你正在查看東京地鐵地圖時,你會突然看到關於走哪條路線的建議,而這些建議會被翻譯成你熟悉的語言。也許,Google AR和Google Lens可能要比你想象的來得更快。

當我在山景城參加今年的谷歌I/O大會時,我通過谷歌沉浸式實驗室裡裡的手機鏡頭,在桌子上查看了一份餐館菜單。看到感興趣的食物?顯示屏會閃爍,並突出顯示了食物選擇。

這些並不是狂野舞龍或全息化身,沒有口袋妖怪可以找,也沒有奇怪的新頭顯需要佩戴。谷歌今年的增強現實願景是對實用性和輔助性的雙重關注,AR被應用於谷歌搜索,而Google Lens則幫助人們閱讀。雖然它看起來比幾年前更溫和,也不像最近涉及漫威的谷歌增強現實項目那樣引人注目,但該公司正試圖合理地提供幫助。在經歷了幾十個智能眼鏡和增強現實頭顯的洗禮之後,我們需要真正的理由來使用這項技術。谷歌能找到前進的道路嗎?

距離谷歌眼鏡初次涉足智能眼鏡領域已有六年時間,距離Google Tango實驗性增強現實手機已有五年時間,距離Google Lens初次提供一種用手機攝像頭掃描世界的方法也有兩年時間了。谷歌對AR的看法可能正在轉變,也許這也是不可避免的。隨著手機中的增強現實已經從新奇事物轉變為無處不在的現實,谷歌的下一個任務似乎是找到增強現實的好用途。

“我們認為,隨著增強現實技術的發展,谷歌有機會提供更大的幫助,”虛擬和增強現實副總裁Clay Bavor在談到谷歌今年即將推出的各種增強現實更新時表示。你也可以說谷歌正在為下一個大事件打好基礎。該公司必須成為這個尚不完全存在的服務世界的數字粘合劑。就目前而言,這意味著需要讓計算機視覺更加有效。谷歌今年提出了一些新的實驗想法,下面我們會對此進行概述。

即時全息圖

當我在搜索“老虎”時,可以看到一個點擊文件,它會啟動一個充滿轟鳴聲的動畫3D文件。然後我可以在房間裡使用AR,看到增強現實的老虎形象。我可以把美國宇航局火星好奇號探測器的比例模型放入房間,或者可以看到人類手臂骨骼和肌肉組織的解剖模型。

谷歌今年將AR引入了搜索之中,下面是它的工作原理:兼容的Android和iOS設備將在搜索中看到3D對象鏈接,該鏈接會調出3D模型,然後以適當的比例放入現實世界中。谷歌搜索將使用glTF格式整合3D文件,而不是蘋果iOS 12中ARKit所使用的USDZ格式。據谷歌稱,開發者只需添加幾行代碼,就可以讓3D資產出現在谷歌搜索中。

“事實證明,很多零售合作伙伴都擁有3D資產,而他們所要做的就是三行代碼,”相機和AR產品副總裁兼總經理Aparna Chennapragada說。“內容提供商不需要做太多其他事情。”谷歌已經與美國國家航空航天局、New Balance、三星、Target、Visible Body、沃爾沃和Wayfair進行合作,將3D資產整合到谷歌搜索中。增強現實效果推出了一個新的Android功能,叫做場景查看器。

當我嘗試演示時,給我留下深刻印象的是一個簡單的想法:我使用谷歌搜索作為思考方式的延伸。如果啟用增強現實搜索最終能被添加到一副增強現實眼鏡中,也許這意味著可以毫不費力地將物體變到現實世界中,而不需要啟動任何應用。

Google Lens不斷髮展

與此同時,使用Google Lens已經感覺像一副沒有鏡片的智能眼鏡。支持攝像頭的應用已經可以用於物體識別、翻譯、購物和世界認知。

但是谷歌正在探索全新的Lens功能,這些功能將在2019年讓Lens得到進一步的發展,並開始更加積極地將事物疊加到現實世界中。Chennapragada說:“我們將Google Lens從一個識別工具變成了一個增強現實瀏覽器,從而可以讓你在相機上疊加信息。”

我親手嘗試了Google Lens的最新功能,它們讓人感覺不僅是詮釋現實,更像是轉變現實。Lens現在可以顯示其他語言的翻譯,翻譯結果可以無縫地映射到符號或物體上,並停留在空間中,就好像文本真的存在一樣。這屬於谷歌翻譯的進化,但是現在谷歌可以從餐館菜單開始,分析整個文檔的上下文。

當我看著一份樣本菜單時,突然菜單上的菜被高亮顯示。根據谷歌地圖餐館的信息,它們是受歡迎的菜餚。輕按菜單項可以即時調出照片和評論。這幾乎就像是註釋過的現實。

博物館也在尋求類似的想法。谷歌正在舊金山的德揚博物館進行實驗,在用Google Lens分析時,可以將精選的彈出信息鏈接到公認的藝術品上。策展人會在有編碼信息的地方建造圍欄空間嗎?也許吧。

新的購物、餐飲、翻譯和文本過濾器,能夠幫助Lens全自動地瞭解上下文的內容。例如,購物過濾器幫助識別桌子上的植物,並找到購買該植物的地方。這就是挑戰所在之處:如果你拿著一個能看到一切的神奇鏡頭,這個鏡頭會如何解釋你需要什麼呢?

適用於低端手機

然而,Bavor和Chennapragada最感興趣的是Google Lens可以適用於運行Android Go軟件的低端手機。即時翻譯和閱讀幫助能夠依靠雲服務,運行在對ARCore來說不夠強大的手機上。

“我們遇到的一個問題是,如果我們能教相機閱讀,那能使用相機幫助人們閱讀嗎?”Chennapragada說。“顯然,這是有用的,尤其是當你在一個語言不通的外國城市時。”Chennapragada講述了自己在印度長大的經歷:“我在印度長大,除了英語,我還會說三種語言,但仍然有其他20種語言不會說。所以,如果我進入一個鄰近州府,我是絕望的,因為我除了盯著商店的招牌,什麼也做不了。”

我馬上想知道這是否能在某種程度上作為盲人閱讀世界的視覺輔助。Chennapragada認為這種技術是“情境素養”,在未來,它很可能代替導盲犬成為通用的翻譯和閱讀器。

這一新功能將在Android Go上的Google Go應用中推出,只需點擊一個按鈕就可以使用。谷歌不再依賴高端硬件,而是在50美元的低端手機上運行Lens功能,這引發了另一個問題:谷歌能否讓輔助增強現實在未來的低功耗增強現實頭顯上輕鬆運行嗎?

“未來外形因素”

Bavor承認,谷歌正處於邁向手機以外新技術的“深度研發”階段,但目前的目標是首先解決手機使用問題。然而,一些其他類型的硬件方案即將出現。

“如果你考慮語音搜索,你得到的網絡答案會很好地翻譯給Assistant。我們在這裡也採用了同樣的方法,它在智能手機領域非常有用,但也可以很好地轉化為未來的外形因素,”Chennapragada說。對她來說,Lens正轉向成為一個“增強現實瀏覽器”。

由於今年的谷歌I/O大會沒有推出新的虛擬現實或增強現實硬件,所以谷歌對服務和實用程序的關注可能表明,Lens可能會演變成其他平臺的現實瀏覽器。

當然,現在這還是個謎。Bavor表示,目前還沒有對微軟HoloLens或Magic Leap等平臺做出承諾,但他承認,“你甚至不必懷疑,這些東西有太多的共同點,我認為谷歌有構建平臺和服務的歷史,這些平臺和服務可以被廣泛使用,並試圖儘可能廣泛地向每個人提供幫助和效用。我想我們會採取類似的策略。”

與此同時,所有這些谷歌增強現實功能都讓人感覺像是一場繼續實驗,包括谷歌即將推出的地圖增強現實導航功能。在今年的I/O大會上,甚至I/O應用都內置了AR功能來指導與會者參加會議。這一功能可能是未來增強現實導航發展的一個線索,當然,也很有可能不會。

相關推薦

推薦中...