1、概述
MTVerseXR SDK 是摩尔线程GPU加速的虚拟现实(VR)流媒体平台,专门用于从远程服务器流式传输基于标准OpenXR的应用程序。MTVerseXR可以通过Wi-Fi和USB流式将VR内容从Windows服务器流式传输到XR客户端设备, 使相对性能低的VR客户端可以使用高性能图形服务器的渲染能力。
2、环境准备
MTVerseXR SDK包括服务器驱动程序、客户端SDK和示例客户端应用程序。Windows上运行的服务端和VR头盔内的应用程序共同实现了Windows系统(边缘云)的SteamVR与VR头盔客户端的连接。
2.1 MTVerseXR 服务器驱动
运行平台要求
-
系统:x86 CPU + Windows10
-
显卡:摩尔线程MTT S80, MTT S70, 驱动程序 v240.50或更新版本
-
软件:SteamVR
-
基于OpenXR的Windows VR应用
2.2 MTVerseXR 客户端SDK
客户端SDK目前只支持Android系统。包含头文件、Android so库文件和资源文件,通过AAR的方式提供。
3、服务器驱动安装和启动
- 安装SteamVR:
- 下载并安装Steam
- 在Steam中安装SteamVR
- 安装运行时库
- 下载并安装vc_redist.x64.exe
- 安装Vulkan驱动:
- 依次运行 VulkanRT-1.3.261.1-Installer.exe 和 VulkanSDK-1.3.261.1-Installer.exe 安装Vulkan
- 链接如下:
https://sdk.lunarg.com/sdk/download/1.3.261.1/windows/VulkanRT-1.3.261.1-Installer.exe
https://sdk.lunarg.com/sdk/download/1.3.261.1/windows/VulkanSDK-1.3.261.1-Installer.exe
- 安装 MTVerseXR驱动:
- 以管理员权限运行 MTVerseXRSetup-v1.0.0.exe 安装程序;
- 按照安装向导的步骤进行安装,在最后一页,记得勾选“注册驱动”。如果未勾选注册驱动,可以通过以管理员权限运行安装目录下的 driver_install.bat 文件来完成注册;
- 重启计算机
- 启动SteamVR
- 确认MTVerseXR驱动启用, 查看SteamVR 【设置】-【启动/关闭】-【管理加载项】-【MTXR_VHMD】选项是开启状态(如果【设置】页面没有【启动/关闭】,点击【设置】页面的左下角【高级设置】下方的【显示】)
4、客户端开发指南
基于Client SDK 开发App的C++部分大致框架如下:
int main() {MySetupGLES3-2MySetupXRSessionMySetupDeviceDesc(&ddesc);MySetupCallbacks(&callbacks);MySetupReceiverDesc(&rdesc, ddesc, callbacks)MTXRCreateReceiver();MTXRConnect();while (!*exiting*) {MyPlatformEventHandling();if (client_state < connected) {MyRenderConnectionProgress();}else if (client_state == connected) {UpdateTrackingState();MTXRFetchFrame()MTXRRenderFrame(framesFetched);MTXRReleaseFrame()}else {MyHandleDisconnect();exiting = true;}}MTXRDestroyReceiver()
}
请注意,此处的UpdateTrackingState是伪代码中更新位姿回调的占位符。在UpdateTrackingState中,可以处理头盔、手柄的位姿和手柄事件,保存最新的位姿信息,在回调中更新。
Java部分需要在Activity的onCreate中调用MTXRClient.init 初始化客户端SDK组件。
SDK同时提供了工具类MTXRServerDiscover和MTXRUSB。其中MTXRServerDiscover用于探测局域网中的MTVerseXR Server,MTXRUSB用于打开USB配件模式的文件描述句柄,具体参考示例代码。
4.1 引用SDK包
在app的gradle中添加aar依赖。
手动或者使用gradle脚本解压aar文件后,在CMakeLists或者Android.mk中引用SDK的头文件和so文件。解压后头文件的路径为assets\include, so的路径为jni\arm64-v8a。
4.2 初始化
Java部分的初始化:
- 在App MainActivity的onCreate中调用 MTXRClient.init 完成。
protected void onCreate(Bundle savedInstanceState) {setContentView(R.layout.xr);// 初始化MTXRClientMTXRClient.init(getBaseContext());// do super first, as that sets up some native things.super.onCreate(savedInstanceState);boolean usMic = false;enableMicrophone(usMic);……
}
C++部分初始化:
- OpenGLES 3.2上下文环境初始化(SDK目前仅支持OpenGLES环境下的显示,版本要求>=3.2);
- OpenXR Sessioin环境初始化(非必须通过OpenXR);
- 获取设备相关参数填充MTXRReceiverDesc的成员变量,包括:显示分辨率、刷新率、音频接收状态等;
- 设置MTXRClientCallbacks中需要的回调函数,包括GetTrackingState(必须实现以同步最新的位姿和手柄输入)和GetHapticCallback(手柄震动反馈);
- 调用MTXRCreateReceiver 创建Receiver对象,用于和服务器端通信的重要对象;
- 调用 MTXRConnect(Wifi连接)或者MTXRConnectUSB(USB连接) 连接服务器。
void XRScene::Start(const std::string& serverIp, int fd, bool enableMic) {m_desc.deviceDesc.posePollFreq = 0;m_desc.clientCallbacks.GetTrackingState = [](void *context, MTXRVRTrackingState *trackingState) {reinterpret_cast<XRScene*>(context)->GetTrackingState(trackingState);};m_desc.clientCallbacks.ReceiveMicrophoneData = NULL;m_desc.clientCallbacks.GetHapticCallback = [](void* context, MTXRHapticFeedback *haptic) {XRScene* that = reinterpret_cast<XRScene*>(context);if (NULL != that->m_haptic_callback && NULL != that->m_context) {that->m_haptic_callback(that->m_context, haptic);}};……m_desc.deviceDesc.receiveAudio = true;m_desc.clientContext = this;m_desc.requestedVersion = MTXR_VERSION_DWORD;m_desc.deviceDesc.sendAudio = enableMic;if (enableMic) {m_desc.clientCallbacks.ReceiveMicrophoneData = [](void* context, unsigned char* data, int size)->bool {return reinterpret_cast<XRScene*>(context)->ReceiveMicrophoneData(data, size);};}MTXRError ret = MTXRCreateReceiver(&m_desc, &m_receiver);if (MTXRError_Success == ret) {if (fd > 0) {MTXRConnectUSB(m_receiver, fd);} else {MTXRConnect(m_receiver, serverIp.c_str());}}
}
4.3 主循环
MTVerseXR客户端App的主循环中需要根据当前的状态做出不同的行为。
-
Receiver未创建:显示一些交互UI,比如服务器的IP地址,让用户可以选择不同的连接方式。
-
未连接到服务器:显示加载提示,告知用户正在连接服务器。
-
成功连接到服务器:开始接收服务器传输的音视频数据。
-
有可用的视频帧:判断当前是否有可用的视频帧,根据结果显示最新的视频或者缓存的视频帧。
-
连接断开:用户主动断开连接后,应用需要清理相关资源。
渲染服务器视频流步骤:
- 获取可用视频帧:调用MTXRFetchFrame获取当前可用视频数据。
void XRScene::BeginFrame(int64_t predictedDisplayTime, const MTXRVRTrackingState& pose, const std::vector<XrView>& xrViews, bool showPerfUI) {{std::lock_guard<std::mutex> guard(m_poseLock);m_xrState = pose;}……m_xrFrame = std::make_shared<MTXRFramesFetched>();MTXRFetchFrame(m_receiver, m_xrFrame.get(), predictedDisplayTime, 0);
}
- 渲染视频帧:MTXRFetchFrame成功后,调用MTXRRenderFrame显示当前最新视频帧,否则跳过绘制或者显示之前的缓存。注意需要在激活GLES 3.2上下文环境的渲染线程中调用。
void XRScene::RenderFrame(const XrCompositionLayerProjectionView &layerView, int viewId) {MTXRPosef pose;pose.position = {layerView.pose.position.x, layerView.pose.position.y, layerView.pose.position.z};pose.orientation = {layerView.pose.orientation.x, layerView.pose.orientation.y, layerView.pose.orientation.z, layerView.pose.orientation.w};MTXRFovf fov = {layerView.fov.angleLeft, layerView.fov.angleRight, layerView.fov.angleUp, layerView.fov.angleDown};MTXRRenderFrame(m_receiver, m_xrFrame.get(), viewId == 0 ? MTXRFrameMask_Left : MTXRFrameMask_Right, &pose, &fov);
}void RenderView(int viewID,XrTime predictedDisplayTime,std::shared_ptr<XRScene> xrScene,const XrCompositionLayerProjectionView &layerView,const XrSwapchainImageBaseHeader *swapchainImage,int64_t swapchainFormat) override {glBindFramebuffer(GL_FRAMEBUFFER, m_swapchainFramebuffer);const XrSwapchainImageOpenGLESKHR* swapchainImageGLES = reinterpret_cast<const XrSwapchainImageOpenGLESKHR *>(swapchainImage);const uint32_t colorTexture = swapchainImageGLES->image;glViewport(static_cast<GLint>(layerView.subImage.imageRect.offset.x),static_cast<GLint>(layerView.subImage.imageRect.offset.y),static_cast<GLsizei>(layerView.subImage.imageRect.extent.width),static_cast<GLsizei>(layerView.subImage.imageRect.extent.height));glFrontFace(GL_CW);glCullFace(GL_BACK);glDisable(GL_CULL_FACE);glEnable(GL_DEPTH_TEST);const uint32_t depthTexture = GetDepthTexture(colorTexture);glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_TEXTURE_2D, colorTexture, 0);glFramebufferTexture2D(GL_FRAMEBUFFER, GL_DEPTH_ATTACHMENT, GL_TEXTURE_2D, depthTexture, 0);// Clear swapchain and depth buffer.glClearColor(BackgroundColor[0], BackgroundColor[1], BackgroundColor[2], BackgroundColor[3]);glClearDepthf(1.0f);glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT | GL_STENCIL_BUFFER_BIT);if (xrScene) {xrScene->RenderFrame(layerView, viewID);}glBindFramebuffer(GL_FRAMEBUFFER, 0);// Swap our window every other eye for RenderDocstatic int everyOther = 0;if ((everyOther++ & 1) != 0) {ksGpuWindow_SwapBuffers(&window);}
}
- 释放视频帧:绘制完成后,需要调用MTXRReleaseFrame通知MTVerseXR SDK内部释放和回收视频资源。
void XRScene::EndFrame() {MTXRReleaseFrame(m_receiver, m_xrFrame.get());m_xrFrame = nullptr;
}
4.4 资源清理
退出客户端应用前,需要调用MTXRDestroyReceiver释放MTVerseXR的相关资源。
note
相关安装包、源码可以通过开发者社区下载:MTVerseXR SDK | 摩尔线程开发者)