时隔十年,谷歌重磅推出Android XR系统,这是安卓生态首次推出针对XR设备的专用平台。
2013年,谷歌推出了Google Glass,但由于高昂的价格、隐私顾虑和技术限制,这款AR眼镜未能取得成功。随后,谷歌又推出了Google Daydream平台,试图将智能手机转变为VR设备,但因市场接受度低,该平台于2019年停产。如今,谷歌与三星和高通合作,再次出击,推出了涵盖头显、AR眼镜和AI眼镜等设备的Android XR操作系统。
Android XR系统将首先在头显设备上推出,首款设备由三星制造,代号为Project Moohan,预计明年上市。此次发布中,三星的MR头显外观概念图首次曝光,三星还将独家负责开发谷歌的视觉透视(VST)头显。
三星的头显将搭载于12月11日发布的Gemini 2.0 AI,支持自然语言对话控制、任务规划以及即时信息检索功能。用户只需通过一个简单的手势,便可即时获取眼前物体的相关信息。与苹果和Meta的设备不同,这款头显支持同时感知真实与虚拟内容,并提供内外视图切换功能。
▲使用简单手势在Android XR头显设备上搜索内容(图源:谷歌)
三星未透露头显的具体硬件信息。在处理器配置上,高通已确认将配备高通骁龙XR2+ Gen 2芯片。
AR眼镜也将在未来推出,谷歌计划开始测试原型眼镜。其首个合作伙伴为中国消费级AR眼镜制造商Xreal,该公司由Magic Leap、谷歌和AMD的前员工创立,负责开发谷歌光学透视(OST)AR眼镜。该眼镜预计将采用micro-OLED显示技术,具体供应商尚未确定。
▲Android XR眼镜上的翻译(图源:谷歌)
据谷歌介绍,Android XR是“为下一代计算构建的全新操作系统”,目前已发布面向开发者的预览版。索尼、Xreal及MR头显制造商Lynx Mixed Reality等公司已承诺为该操作系统提供支持,谷歌还将继续与Magic Leap合作开发XR技术和未来产品。
一、三星头显:搭载Gemini AI,可感知虚拟内容,支持内外视图切换
谷歌Android生态系统总裁萨米尔·萨马特(Sameer Samat)谈道,谷歌已开发Android XR多年,但”暂停”重建软件以围绕AI展开。随着Gemini 2.0的到来,AI功能现已成为操作系统的核心。
昨天,在加州山景城谷歌办公室的一系列演示中,谷歌和三星公司展示了三星头显的功能以及几款谷歌开发的眼镜原型。
三星尚未公布这款头显的具体价格和上市时间,但暗示其售价将低于Apple Vision Pro的3499美元。
1、AI能力是Android XR操作系统核心
此前,在谷歌I/O期间DeepMind发布的Project Astra AI项目,是谷歌探索通用 AI 助手未来功能的研究原型。谷歌当时展示了一个原型概念:用户戴上AR眼镜,不仅能理解现实世界中的各种元素,眼镜还能记录和提醒用户关于特定物件的位置等信息。
12月11日,谷歌推出了Gemini 2.0,这是面向Agent时代的新AI模型。作为谷歌探索通用AI助手未来功能的研究原型,Project Astra AI现已集成Gemini 2.0,提供了更强大的交互能力。
借助Gemini 2.0,用户可以通过自然语言对话控制设备、规划任务、研究主题并完成各种任务。此外,Circle to Search功能允许用户只需一个简单手势即可快速获取面前物体的相关信息。
Gemini 2.0内置的Android XR能够同时感知真实和虚拟内容,支持头显内外的视图切换。这一点区别于苹果的visionOS(Siri仅支持真实世界视图)和Meta Horizon(实验性AI只支持现实世界视图)。
萨马特将Android XR操作系统分为三个层次:
第一层是二维应用,这些是Google Play商店中现有应用的放大版本;
第二层是空间化应用程序,例如媒体应用程序,它们将某些元素(如YouTube评论)分布到用户周围的空间中,以便于查看;
第三层是完全沉浸式应用程序,专门为混合现实构建的应用程序。
Android XR操作系统的设计让人联想到苹果的visionOS,支持多个可移动和调整大小的窗口,用户可以像使用标准计算机一样操作,配合鼠标和键盘控制。它集成了许多核心Android应用程序和服务,包括Maps、YouTube、Google TV、Photos、Docs和Chrome。
Google TV:提供曲面屏幕显示,信息面板从主窗口伸出,实现了所谓的“空间化”。
▲Android XR头显设备上的Google TV(图源:谷歌)
Google Photos:布局重新设计,自动将照片和视频转换为3D格式,并提供3D回忆功能。
▲Android XR头显设备上的谷歌相册(图源:谷歌)
YouTube:支持大曲面屏幕及360度、180度和3D内容库。
▲Android XR头显设备上的YouTube(图源:谷歌)
Chrome:支持多浏览器窗口,实现浏览网页时的多任务处理,可配合Android XR内置的蓝牙鼠标和键盘支持。
Google Maps:提供完全沉浸式的街景摄影和三维场景视图(基于高斯飞溅)。
2、搭载骁龙XR2+ Gen 2芯片
谷歌和三星已确认该头显设备将采用高通提供的理论上,骁龙XR2+ Gen 2芯片。
高通在其新闻稿中指出,骁龙 XR2+ Gen 2支持单只眼睛高达4.3K分辨率,以每秒90帧的速度运行,这将显著提升视觉体验,使VR环境更加逼真。
在性能方面,相比为Meta Quest 2提供动力的骁龙 XR1芯片,XR2+ Gen 2的CPU和GPU频率分别提升了3%和3%。此外,与前代产品XR2 Gen 2相比,XR2+ Gen 2的GPU和CPU频率分别提高了15%和20%,进一步增强了整体性能。
骁龙 XR2+ Gen 2不仅支持高分辨率显示,还最多可以支持12个具有全彩视频直通和深度感应功能的并发摄像头,以增强用户的沉浸感和交互性。同时,该芯片集成了最新的Wi-Fi 7和6E标准,确保快速稳定的网络连接。
理论上,骁龙 XR2+ Gen 2将允许三星的VR头显输出比Meta Quest 3更高的单眼分辨率。不过,三星是否会推出如此高分辨率的显示器仍有待观察。
3、或采用micro-OLED显示屏
三星在新闻稿中表示,Moohan头戴式设备将配备“最先进的”显示屏,但未透露具体硬件细节。
业界普遍认为,这款设备可能会采用micro-OLED显示屏,但目前尚不清楚这些显示屏是来自三星内部还是第三方供应商。有传言称,由于三星自己的micro-OLED技术预计要到2026年才能成熟,该公司可能从竞争对手处采购显示器。
Apple Vision Pro使用的是索尼提供的micro-OLED显示屏。如果三星确实选择采用类似的显示技术,那么Moohan头显有望在图像质量和沉浸感方面达到新的高度。
4、较Vision Pro更轻便、佩戴更舒适
据彭博社报道,三星Moohan头显在设计上与Apple Vision Pro有不少相似之处,包括曲面正面、内置扬声器和高分辨率显示屏。它同样具备在VR和AR模式之间切换的功能,并通过电缆连接外部电池组。
▲三星Moohan头显(图源:谷歌)
这款硬件被灰色塑料包裹,配有衬垫,支持有光密封或无光密封两种佩戴方式,以适应不同的使用场景。电池组可互换并通过USB-C接口连接,用户可以根据需要选择不同电池寿命的电池组,灵活调整使用时间。
三星设备的一个显著优势是其更轻的设计,长时间佩戴更为舒适。它配备了一个大垫子支撑用户的后脑勺,并有一个环绕头部的可调节塑料件,确保稳固贴合。
三星头显的视野比Vision Pro更大,允许用户一次看到更多内容。用户可以通过双击侧面按钮在AR和VR模式之间轻松切换,从而在现实世界视图和虚拟环境(如山脉或其他背景)之间自由转换。
相比之下,Vision Pro用户通过转动类似手表表冠的控制器来调整沉浸程度。此外,三星设备支持手眼控制,用户需举起双手进行交互;而Vision Pro用户可以将手放在膝盖上,依靠手势识别技术完成操作。
三星或在即将到来的Galaxy Unpacked活动中公布更多关于其VR头显的细节,并展示其XR智能眼镜。
5、视频内容与开发者支持
Android XR支持所有现有的二维Android应用,默认情况下,Play Store中的应用都会兼容这个新系统,除非开发者选择退出。这意味着从发布之初,Android XR设备就拥有大量可用的应用程序,为用户提供了即时的丰富体验。
为了促进内容生态的发展,谷歌推出了多项措施来支持开发者。新的Jetpack XR SDK、Android XR模拟器以及与Unity合作提供的扩展工具,旨在帮助开发者更轻松地创建和测试空间应用程序。
在视频内容方面,谷歌计划充分利用YouTube上已有的立体视频资源,为用户提供丰富的沉浸式体验。与苹果为Vision Pro资助原创VR视频内容并逐步增加材料的做法类似,谷歌也将通过第三方应用程序的软件开发工具包(SDK),确保用户可以从Google Play商店访问现有的Android手机和平板电脑应用程序,进一步扩展其内容库。
二、AR眼镜:Xreal独占开发权,智能手机外接屏幕,全天候智能辅助
目前,针对Android XR的具体智能眼镜产品尚未正式推出。据爆料,中国厂商Xreal独占了光学透视(OST)AR眼镜的开发权。谷歌方面表示,未来其智能眼镜将很快成为智能手机的外接屏幕工具。
Gemini 2.0是Android XR计划的核心组件,而紧凑型智能眼镜则是该计划的关键载体之一。这种新型眼镜在保持普通眼镜外观的基础上,提供了平视显示和AI对话时的音频反馈功能。与十年前的Google Glass相比,新一代智能眼镜设计更加时尚智能,几乎肯定会配备摄像头用于数据收集和环境感知。
谷歌展示的第一批眼镜原型属于其Project Astra计划的一部分。这些原型不仅能提供行人转弯导航等功能,还可以利用内置的AI助手完成家务等任务。
这些设备依赖于Raxium公司创建的microLED技术——谷歌两年前收购的这家公司专注于增强现实眼镜的制造。MicroLED技术能够在低功耗的情况下实现明亮图像,使眼镜通过外部摄像头收集数据并与用户的手机同步。
截至目前,谷歌尚未透露第一款配备Android XR的眼镜何时正式上市。萨马特说,公司正在向测试人员提供原型,并将在“有意义的时候”将产品推向市场。谷歌的目标是推出一系列既时尚又舒适的眼镜,让用户愿意每天佩戴,并与他们的其他Android设备无缝协作。
未来,用户可一键激活Gemini,无需使用手机即可获取有用的信息,如路线指引、翻译服务或消息摘要。所有这些信息都将直接呈现在用户的视线范围内或通过耳中传递,确保信息获取的便捷性和即时性。
▲Android XR眼镜上的导航(图源:谷歌)
结语:Android XR生态系统或吸引大批XR制造商
自2022年以来,AI技术发展迅速,AI应用场景不断扩展,特别是在XR领域。搭载Gemini 2.0的Android XR操作系统,使三星头显设备能够同时感知和交互虚拟与真实世界的信息,这一功能超越了市场上现有的Vision Pro和Meta雷朋眼镜。
除了头显设备,谷歌还在加速开发AR眼镜和AI眼镜,推动XR技术的广泛应用。
XR行业仍处于初期阶段。虽然苹果和Meta在早期占据了一定优势,谷歌凭借其强大的生态系统和开发者社区,具备吸引更多XR设备制造商加入Android XR平台的潜力。
文源:智东西