中新经纬6月6日电 题:苹果MR头显来了,带来哪些行业机会?
作者 杨艾莉 中信建投传媒互联网行业首席分析师
(相关资料图)
刘双锋 中信建投电子行业首席分析师
王天乐 中信建投电子行业分析师
2023年,苹果的全球开发者大会备受瞩目。苹果正式发布了混合现实(MR)头戴式设备“Apple Vision Pro”,预计将于2024年初开售,售价为3499美元(约合人民币2.5万元)。如果说此前苹果Mac、iPhone等产品的推出都是“划时代”的产品,引领了整个行业的蜕变,此次苹果的MR头显能否再次颠覆行业?又将带来哪些行业机会?
第一代头显自2015年左右开始研发,配备了性能可以媲美最新款Mac的先进处理器,而且搭载了超高分辨率屏幕。目前设备进入量产准备阶段。第二代Apple AR/MR(增强现实/混合现实)预计2025年上半年出货,零组件供应商预计2024年下半年供货。苹果公司首席执行官库克表示,AR是一个像智能手机一样伟大的想法,苹果希望AR眼镜能在10年后取代iPhone。那么,可以预计它未来的总销量将会达到数十亿台。
苹果自从2014年开始,即为AR/VR(HMD头戴式显示设备)积累了大量专利。其中包括显示类、扫描类、手部识别、眼球追踪、音频、导航、监测、AI算法、操控、识别等多方面技术。
生成式AI的快速发展将为XR(扩展现实)设备销量的提升带来契机。一方面,大语言模型及SAM(图像分割)等模型带来的理解能力提升将为XR设备的语音交互、物体识别等带来更多的可能,带来更具有沉浸式的交互体验;另一方面,生成式AI降低了3D资产制作的成本和门槛,为VR游戏、VR视频、AR应用程序等专业内容制作降本增效,通过文字或语音即可建立3D模型甚至程序将极大丰富UGC(用户原创内容)。
Meta发布图像分割模型,有望接入XR设备识别物品。未来,SAM有望接入XR设备,例如可用于通过AR眼镜识别日常物品,用户仅需要使用目光注视物体,SAM对用户看到的画面进行分割,配合AR眼镜应用,为用户展示所注视物体的提醒和说明。大语言模型极大提升文字理解能力,为XR设备实现深层次语言交互奠定基础。一方面,大语言模型能够理解更复杂的自然语言,完成更复杂的自然语言处理任务,进而能够听懂用户以语音形式给出的复杂指令并做出响应,使得XR设备除肢体、眼睛交互外增加一种深层次的语音交互方式,使得用户与设备之间的交互更加综合。另一方面,大语言模型可为虚拟助手、聊天机器人或其他支持语音的交互式XR应用程序提供更逼真、更自然的对话,这有助于通过提供更自然和直观的交流方式来改善整体交互体验。
生成解决方案:帮助游戏开发者以更低成本创造风格多样、贴近现实的虚拟城市,提升3D虚拟场景的生产效率。这样,一座大规模城市的3D构建,过去往往需要多名美术师以年为单位的时间才能完成,而结合AI只需要数周。
VR游戏:大幅降低VR游戏开发成本,促进更多开发者投入。AI驱动虚拟主播,降低VR内容制作成本。OpenAI的大模型技术支持对玩家对话内容、游戏情节、关键物品和行为等进行解析,结合微软TTS技术进行语音合成和声纹模仿,创造出与人类主播非常相似的虚拟主播。
VR社交/虚拟人:降低普通用户3D内容创作门槛,极大丰富UGC。AI驱动的3D资产生产力提升,达数倍甚至数十倍。若以腾讯AI Lab提出的3D虚拟场景自动生成解决方案测算,其将构建大规模3D城市时间由数年减少到数周,带来的是生产力数十倍的提升。
在全球智能手机出货量下滑背景下,手机龙头公司苹果的第一代MR产品意义非凡,我们看到,SAM模型助VR/AR内容更好生成,也革新了VR/AR的交互体验;AI提升VR内容的制作效率,提升供给。(中新经纬APP)
本文由中新经纬研究院选编,因选编产生的作品中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。选编内容涉及的观点仅代表原作者,不代表中新经纬观点。
责任编辑:孙庆阳
标签: