Vision Pro专题报告:消费科技新高度,空间计算新时代

Vision Pro专题报告:消费科技新高度,空间计算新时代

首页休闲益智像素流道更新时间:2024-04-28

(报告出品方/作者:天风证券,孙谦、潘暕)

Visionpro哪里不一样?

Vision Pro介绍

硬件端亮点:M2 R1芯片;1.4英寸Micro OLED屏幕 3P Pancake光学方案;12摄像头 5传感器 6麦克风。堆料带来的是极大的用 户体验升级。 设计端亮点:裸手 眼动 语音,趋于直觉的交互;Eyesight打破传统社交隔阂;旋钮调节 VST方案,防止现实信息丢失。 软件端亮点:我们认为开发者生态 苹果全家桶或是最大护城河。

硬件端:M2 R1双芯片方案

M2芯片是 Vision Pro 的主处理器,主要用于运行VisionOS、执行计算机视觉算法等任务。基于ARM架构,釆用台积电5nm工艺,包 含200亿个晶体管,此前更多应用在13寸 MacBook Pro 、13寸和15寸MacBook Air (M2 芯片机型)当中。 R1芯片与 Vision Pro 同时发布,是一颗协处理器,专注于实时传感器任务。它处理 12 个摄像头、5 个传感器和 6 个麦克风采集的数据, 并在12毫秒之内将图像流式传输至显示屏,从而让我们在浏览真实世界的实时影像时,几乎感受不到延迟。 低延迟是影响头显体验的核心要素:这将有助于减少消费者“眩晕”的可能性。如果人眼在戴着耳机四处走动时能检测到延迟,可能会 开始感到眩晕和恶心,而Apple R1芯片就是防止这种情况的发生。

硬件端:Micro OLED 3P Pancake 光学方案

苹果Vision Pro的外屏为柔性AMOLED,内屏则是搭载了两块1.42英寸Micro OLED显示屏。 据苹果官方的数据,这组Micro OLED显示屏的像素密度约为3400 PPI,拥有2300万 像素,可提供单目4K级分辨率。相较于其他技 术路径,Micro OLED显示屏具有自发光、能耗低和体积小等特性,可实现更高色域、分辨率及发光效率等优势,天然适配于近眼显示 设备。 究其原因,Micro OLED采用单晶硅晶圆为背板,是在用造芯片的技术造屏幕。

苹果Vision Pro的光学方案,选用的是目前逐渐成为主流的Pancake折叠光路透镜,不一样的点是,Vision Pro采用了3P Pancake设 计。 XR光学透镜发展路径基本可以视作单一路径的不断演化:非球面透镜——菲涅尔透镜——Pancake折叠光路。Pancake较之菲涅尔透 镜,更加轻薄化,成像效果更好。相比于1P、2P Pancake,3P Pancake可实现清晰度更高、畸变/鬼影更低、色差更小。 VR 行业常用每 1° 视野中像素点(角分辨率,PPD)综合评判头戴设备的显示效果,达到人眼的效果需要到 60。现在的设备普遍只有 20 左右,而 Vision Pro 做到了 40。

硬件端:12摄像头 5传感器,多传感器为感知和交互提供基础

由于苹果Vision Pro选择采用手、眼、口结合的自然交互方式,以及对于VST透视功能的较强需求,Vision Pro在传感器上足足配置了 12路摄像头和5路专用传感器。 传感器包括以下几类:RGB摄像头,红外摄像头,dToF激光雷达,结构光相机,以及鱼眼红外摄像头。

设计端:眼动 裸手 语音,趋于直觉的交互方式

Vision Pro,采取的是“手 眼 口”的自然交互模式,且这套交互模式是自成体系,相互可协同的。 手势交互:不仅限于去手柄,更是脱离视觉范围的交互。基于多方位摄像头,用户把手放在腿上,Vision Pro也能识别操作指令。手势 操作被设计的简单自然,捏合手指就能选择,轻拂可以滚动,手眼的组合还能呈现出用意念控制一般的感觉。 眼动追踪:当眼睛注视到浏览器搜索框时,搜索框即进入听写输入状态,此时只需语音说出想要检索的内容,即可自动键入文本,进而 进行搜索。 从深层次的交互逻辑来说,Vision Pro采取了趋于直觉的交互方式:传统的手柄操控模式下,“查找”、“选择”、“确认”等人机交 互,只能单线程处理,即查找应用、选中图标、点击确认,是需要按流程一步步完成的。但就正常的人类交互逻辑来看,这些事情是可 以多线程同步完成的。Vision Pro致力的人机交互逻辑,则是通过三维的交互方式,实现一步到位。

应用端:我们预计开发者生态 苹果全家桶或是最大护城河

移植苹果生态:Vision Pro搭载的VisionOS建基于MacOS、iOS和iPadOS之上,这一点为Vision Pro可以正常使用苹果生态内的App提 供了天然优势。Vision Pro的开发团队也一直在致力于使App Store中“数以百万计”的应用程序能够兼容VisionOS。值得一提的是, 前些日子的微信iOS版本更新中,也明确表示可visionOS 1.0系统。 开发者生态:目前,全球共有8个Vision Pro开发者实验室投入使用,所在地包括:上海、库比蒂诺、伦敦、慕尼黑、新加坡、东京、纽 约和悉尼。 ARKit:7年时间已为苹果储备超过14000款AR应用。我们认为背后培养的大量 AR 开发者,以及所完成的用户教育,将成为苹果 MR 眼镜内容生态的巨大财富。

空间计算:历史新起点

空间计算:人机交互由2D升维到3D

类比Mac将用户带入到个人计算时代,Iphone将用户带入移动计算时代,我们预计Apple Vision Pro有望带领用户进入空间计算时代。 空间计算(spatial computing)技术可以参照现实的物理世界构建一个数字孪生世界,将现实的物理世界与数字的虚拟世界连接在一起。 使我们能够进入并且操控 3D 空间,并用更多的信息和经验来增强现实世界。通俗点说,就是人机交互由2D升维到3D,现实 虚拟 人 三者进行交互,本质上是拓展信息输入和输出的边界。 我们认为,空间计算的基础是强感知 强交互 强计算 强显示。

空间计算:Vision OS,专为空间计算打造的操作系统

Vision OS,基于macOS、iOS和iPad OS的基础构建。 新增了空间计算支持:实时执行引擎-可担当高性能需求任务;多应用3D引擎-让不同的应用同时在一个3D空间中运行;动态注视点渲 染管线-确保每一帧眼镜注视的地方都有最优的图像质量;给现有应用支持空间体验做拓展。 定位:彻底为空间计算打造的操作系统。

可能涌现Killer App的赛道

空间视频/相机:尽管还未发售,但一众开发者、媒体人在体验过Vision Pro之后,大部分人都不约而同提到了一个概念:Vision Pro的 空间视频,更像是回忆而不是视频。简单来说,Vision Pro并不像传统VR头显那样过分强调虚拟现实的沉浸感,空间视频是以真实空间 为核心,以“真”乱真。

iPhone15 pro 三方软件,将为空间视频带来平民时代。以往 3D 拍摄需要专业的设备和技术,只有影视制作公司或专业机构、摄影师 才能完成,而且成本高昂,播放方式也受限。这导致了 3D 视频内容的供给相对稀缺,主要以 PGC(专业生产内容)为主,而 UGC (用户生产内容)近乎没有,很少流通。iPhone 15 Pro 空间视频拍摄功能的出现,打破了这种局面,让 3D 拍摄的门槛降低到了手机, 让普通用户也可以轻松拍摄出具有立体感和逼真感的视频,从而有利于促进 UGC 的发展,不仅可以丰富视频内容的多样性,也可以激 发用户的创造力和参与度。

穿透关键零部件,洞察未来趋势

对比Meta Quest3/Pro和Pico 4,可以看出Apple Vision Pro综合成本构成中主要差异的部件在于屏幕和芯片。芯片绝对成本并不比其 他旗舰头显低,但自研仍有一定优势,同时Vision Pro加大了对显示硬件的投入。

屏幕:Micro OLED为中短期主流方案,12寸成本优势明显

Vision Pro的屏幕像素显著升级,但距离理想的XR屏幕仍有较大差距。以单目像素趋近8K,PPD接近人眼标准60的水平来看,当前方案 仍有2-3年距离 。对于VR头显来说,Micro OLED更高的PPD、高亮度、高分辨率、高填充系数、更高的效率和更长的寿命能力更能满足屏幕的需求。 YOLE预测,在VR/AR显示技术上,2026年之前很难有相对成熟的Micro LED商业方案落地。

光学方案:Pancake由单透镜向贴合式三透镜演进

Pancake光学方案是一种折叠光路方案。基于Pancake光学方案的VR眼镜,显示屏发出的光束进入半反半透功能的镜片BS(分束镜/半反 半透膜)之后,光线在镜片、四分之一波片以及反射式偏振膜之间多次折返,最终从反射式偏振膜射出进入人眼。

相比传统的三片式Pancake光学方案,AVP的贴合三片式Pancake光学方案的间距更小。从AVP的Pancake结构图中,有两片透镜采用 非规则设计,靠近显示屏的透镜顶部薄、中间厚,中间的透镜顶部厚、中间薄,并且这两个透镜都具有旋转对称性。

芯片:协处理器优势明显

从交互算法到数据传输再到显示渲染,协处理器将会显著改善VR/AR设备的延迟与功耗。 延迟这一参数主要取决于3个因素,一是交互算法,其中头部空间定位主要取决于SLAM技术;二是数据传输;三是显示渲染。 在有协处理器的情况下,SLAM视觉链路延迟会降低至13-14毫秒,这带来最大的好处是IMU积分的时间大幅缩短,对于诸如加速度器 这样需要二次积分的传感器来说,不仅能提升传输精度,还能有效降低抖动。

传感器:新交互与新功能带来新增量

苹果的手眼交互模式对传感器数量有较高的要求。如前文所说,Vision Pro的手势互动不必要在头显正前方,这意味着传感器的必然增 加,比如向下的两个红外摄像头,比如结构光相机用来支持前向区域的精细手势追踪。 AVP的VST功能也对传感器提出了新要求。通过前向高像素VST摄像头代替人眼对外部真实环境进行拍摄,再通过VST技术将拍摄的画面 显示在左右眼两个显示区域。为了实现VST和虚拟界面的最佳融合,虚拟阴影的最佳投射效果,需要由LiDAR提供外部真实环境的深度 信息来实现最佳比例的透视关系。 不仅仅是终端头显设备,上游的内容生产设备对3D影像硬件的需求也会随之增加。比如苹果公司早早的就在iPhone中加入dToF LiDAR 和结构光相机,用以支持手机端生产3D内容。

散热:石墨烯性能优异,从手机进入头显

散热性能是影响头显体验的核心要素之一。越是计算性能强悍的芯片,其发热问题就越需要引起重视,M2芯片带来强力算力的同时, Vision Pro的散热也越发需要引起重视。 苹果专门设计了一套能够有效降噪的散热管理系统,设备内部分设支撑件,可以通过流道将部件中的热量向外引出,并且在降温过程中 产生的声调噪音将被支撑件自身频率中抵消或是掩盖。 自2018年首次被华为应用于Mate20X手机后,石墨烯散热膜逐渐被包括荣耀、努比亚、小米、OnePlus、OPPO、ROG、联想等众多 手机厂商接受并使用,特别是在旗舰机和游戏机上,也拓展应用到平板电脑等电子产品,已经成为主流热管理方案之一。

报告节选:

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

精选报告来源:【未来智库】。

,
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved