谷歌在发布Android XR SDK开发者预览版3的同时,推出了Jetpack Projected与Jetpack Compose Glimmer这两个新库,助力开发者打造AI眼镜体验;此外,支持AI眼镜的ARCore for Jetpack XR也得到了扩展,新增了运动跟踪和地理空间功能。
Android XR SDK开发者预览版3新引入的库,能让开发者借助内置的扬声器、摄像头和麦克风,拓展现有移动应用与AI眼镜之间的交互方式,还可以在眼镜的显示屏(若具备该功能)上呈现信息。
在不少场景下,您的应用或许需要用到AI眼镜硬件。比如,视频会议类应用能够增设一个UI控件,让用户可以把视频流从手机摄像头切换至AI眼镜摄像头,从而提供第一人称视角。
第一个库是Jetpack Projected,它能让主设备(比如安卓手机)把应用的XR体验投射到AI眼镜上,投射内容可以是音频、视频,或者两者兼具。这个库支持应用检测目标设备是否配备显示屏,还能等待该设备处于可用状态。另外,按照安卓标准权限模型的要求,应用在访问设备硬件之前,必须先申请运行时权限。
您可以从AI眼镜活动和标准应用中访问AI眼镜硬件,前提是您获得有效的投射上下文。音频支持很简单,因为AI眼镜音频设备表现为标准蓝牙音频设备。
用眼镜摄像头拍摄照片或视频的操作相对复杂,这是因为需要实例化多个类来完成硬件可用性检查、相关设置,还得把活动生命周期与摄像头绑定,确保摄像头能随着活动状态的变化而开启或关闭。
另一方面,Jetpack Compose Glimmer作为一套UI组件与视觉语言,旨在为搭载显示屏的AI眼镜打造增强型体验。其全新的视觉语言借助光学透视技术,将视觉效果与周围环境相融合,同时着重强调清晰度、可读性以及低干扰性。该工具支持的组件涵盖文本、图标、标题芯片、卡片、列表和按钮等。所有组件均构建于“表面”这一基础概念之上,开发者可通过调用这一概念来创建非标准组件。
Glimmer组件支持通过修饰符进行自定义,以此调整布局、外观与行为,还能沿z轴堆叠,借助阴影营造出深度感。谷歌也已在Android Studio里引入AI眼镜模拟器,用于UI预览以及模拟用户交互,涵盖触控板和语音输入功能。
关于最新Android XR SDK版本的最后一点补充:谷歌对ARCore for Jetpack XR进行了扩展,这是一套用于构建增强现实体验的API,涵盖平面数据获取、将内容锚定在空间固定位置等功能。此次更新新增了运动跟踪支持,能让眼镜根据用户的移动做出响应;同时还加入了地理空间姿态功能,允许将内容锚定到谷歌街景覆盖的位置。
Android XR SDK预览版3在将模拟器升级至最新版本(36.4.3 Canary或更高版本)后,即可在Android Studio Canary中使用。