在十多年來關注度最高的一次 WWDC 大會上,蘋果也不出市場預料地以 one more thing 炸場,發佈了其繼 Mac、iPhone、iPad、Watch 之後的全新計算平台——混合現實頭顯 Vision Pro。 從發佈會現場演示和後續的媒體試用評價來看,作為首款完全在庫克領導下開發的硬件終端,Vision Pro 的確不負眾望,集蘋果十多年來積累的工業設計和工程學能力於一體,堪稱 “世界上最先進的消費電子設備”,也表現出了庫克所期待的成為下一部 iPhone 的潛力。 不過,雖然 Vision Pro 在發佈會上技驚四座,但隔夜美股蘋果股價卻最終小幅收跌。 知名蘋果分析師郭明錤認為,這主要是因為 Vision Pro 高昂的售價(高達 3499 美元,無緣大眾市場)和遙遠的發售日期(明年初美國市場首發)不利於短期投資情緒,且在演示環節中,沒有明確展現出日常使用的必要性。 簡單來説就是,雖然頭顯很酷很有科幻感,但缺乏類似手機、電腦那樣的必要性。華爾街見聞在此前文章中提及,市場普遍質疑,消費者為什麼要把在傳統設備上能輕鬆完成的事情,轉移到轉移到一台價格高達 3000 美元、交互更麻煩的頭顯上? 儘管如此,蘋果和庫克,也是毋庸置疑的贏家。通過這場時長 2 個多小時、內容量大管飽的 “科技春晚”,蘋果不僅展現了其在軟硬件研發上無可撼動的實力,在類似 AI 和腦機接口這樣的新技術領域,也低調務實地小小秀了一下肌肉。 Vision Pro:什麼元宇宙?別沾! 從發佈會的演示來看,Vision Pro 這款產品的確科幻感拉滿。 在交互上,這款酷似滑雪鏡的頭顯可以只靠眼睛、語音和手勢來操作,沒有笨重的外置手柄或此前市場猜測的智能手環。 戴上頭顯並通過 Optic ID(虹膜 ID)解鎖後,就能體會到類似鋼鐵俠電影的場景: 眼睛所見的依然是你周圍的世界,但整個 Vision 操作系統將會浮現在你眼前,包括蘋果生態中的幾十萬個 App,以及微軟 office 辦公軟件、蘋果自帶相冊、備忘錄等,只需要自然注視和雙指捏合,就可以打開你需要的 App。 在娛樂體驗上更是碾壓同類競品,在發佈會現場演示中,蘋果展現了 Vision Pro“空間計算” 的能力。只需要轉動頭顯上的旋鈕,就可以將眼前正在播放的電影畫面無限放大,讓周圍的環境與你觀看的內容融為一體。想象一下,在高鐵上、飛機上、任何一個房間裏,只要打開 Vision Pro,你就能擁有一個私人影院。蘋果還在發佈會現場直接拉來了迪士尼 CEO Bob Iger,官宣迪士尼內容將登陸 Vision Pro。 此外,蘋果還格外強調 Vision Pro 不是一款會將用户和環境隔絕開的設備。當有人靠近你時,頭顯的前玻璃就會變成透明狀態,方便別人看到你的眼睛與你進行交流;當你在進行沉浸式體驗時,頭顯則會呈現為不透明狀態,提醒別人你看不到他們。 相比 Meta Oculus 家族那樣純粹的 VR 設備,Vision Pro 能夠無縫連接現實與虛擬世界。無愧為當今最好最貴的頭顯,至少在觀感上,遠超市面上所有錨定 “元宇宙” 的 VR 設備。 華爾街見聞此前提及,庫克非常不喜歡元宇宙這個概念,在整個發佈會進行中,蘋果沒有提到過一次 “元宇宙”。 WWDC 發佈會之後,好事的網友做出瞭如下對比圖: 蘋果通過 AI 技術和十多個攝像頭生成的用户數字角色(Digital Persona) 扎克伯格虛擬人 低調務實的 AI 策略 儘管新推出的混合現實頭顯設備 Vision Pro 幾乎吸引了人們的所有目光,但蘋果並沒有大談特談在 AI 這方面的技術進展,而是 “用事實説話”,告訴人們 AI 技術落地能實現什麼,從而更切實際地改進用户們的體驗。 事實上,作為一家產品公司,蘋果通常不喜歡談論 “人工智能” 本身,而是喜歡 “機器學習” 這一更具有學術性質的詞語,或者僅僅談論技術落地所能帶來的變革。這可以讓蘋果更專注於研發和展現產品本身,以及如何優化用户體驗。 具體來看,在大會上,蘋果宣佈改進了基於機器學習程序的改進型 iPhone 自動糾錯功能,該功能使用轉換語言模型,與支持 ChatGPT 的技術相同。蘋果表示,它甚至會從用户的文本和打字方式中學習,從而優化用户的體驗。 此外,蘋果還改進了 AirPods Pro 的用户體驗,它可以在用户進行對話時自動關閉降噪功能。雖然蘋果並沒有將這一改進定義為 “機器學習” 功能,但這是一個很難解決的問題,而解決方案卻是基於 AI 模型的。 另一個蘋果很實用的創意是用新數字角色(Digital Persona)功能對用户的臉部和身體進行 3D 掃描,用户在戴着 Vision Pro 頭顯與其他人進行視頻會議時,就可以虛擬地重現他們的模樣;蘋果還提到了其他幾項利用該公司在神經網絡方面進展的新功能,比如識別在 PDF 中需要填寫字段的功能。 頭顯設備暗藏腦機接口技術? 週二,一位在 AR/VR 領域工作十年、擔任蘋果 AR 神經技術研究員的網友 Sterling Crispin 發推文,介紹了蘋果 AR 的神經技術研發過程。 據 Crispin 介紹,他在蘋果的工作包括支持 Vision Pro 的基礎性開發,正念體驗,還有更多極具挑戰的神經技術研究。總的來説,他的很多工作涉及到用户在沉浸式體驗中的身體和大腦的數據檢測其精神狀態。 用户在混合現實或虛擬現實體驗中,AI 模型試圖預測用户是否感到好奇、思維遊離、害怕、注意、回憶過去的經歷,或其他一些認知狀態。 這些可以通過眼球追蹤、大腦中的腦電活動、心臟跳動和節律、肌肉活動、血液密度、血壓、皮膚傳導等測量來推斷,使預判行為成為可能。 根據蘋果的專利説明和 Crispin 的介紹,蘋果的神經技術可以做到預測用户行為、根據用户狀態調整虛擬環境。 最酷的結果是在用户實際點擊之前預測他們會點擊什麼,人們的瞳孔在點擊之前往往有反應,原因是人們會期望在點擊之後會發生什麼。 這時可以通過監測用户的眼睛行為來創造生物反饋,並實時重新設計用户界面,以創造更多預期的瞳孔反應。這是一個通過眼睛實現的粗略 “腦機接口”,用户不用接受侵入性的腦部外科手術。 推斷認知狀態的其他技術,包括以用户可能無法察覺的方式向他們快速閃現視覺或聲音,然後測量他們的反應。 另一項專利詳細介紹了使用機器學習和來自身體和大腦的信號來預測用户注意力有多集中,或放鬆,或學習效果如何,然後更新虛擬環境以增強這些狀態。 想象一下自適應的沉浸式環境,通過改變背景中看到和聽到的東西來幫助你學習,或工作,或放鬆。