图像捕获_立体声360图像和视频捕获

2023-11-03 08:10

本文主要是介绍图像捕获_立体声360图像和视频捕获,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

图像捕获

We are proud to announce that in 2018.1 creators can now capture stereoscopic 360 images and video in Unity. Whether you’re a VR developer who wants to make a 360 trailer to show off your experience or a director who wants to make an engaging cinematic short film, Unity’s new capture technology empowers you to share your immersive experience with an audience of millions on platforms such as YouTube, Within, Jaunt, Facebook 360, or Steam 360 Video. Download the beta version of Unity 2018.1 today to start capturing.

我们很自豪地宣布,在2018.1版本中,创作者现在可以在Unity中捕获立体360度图像和视频。 无论您是想要制作360度预告片以展示您的经验的VR开发人员,还是想要制作引人入胜的电影短片的导演,Unity的新捕获技术都可以使您与数百万平台上的观众分享沉浸式体验如YouTube上 , 在 , 短途旅游 , Facebook的360 ,或蒸汽360视频 。 立即下载Unity 2018.1 Beta版以开始捕获。

如何使用此功能 (How to use this Feature)

Our device independent stereo 360 capture technique is based on Google’s Omni-directional Stereo (ODS) technology using stereo cubemap rendering. We support rendering to stereo cubemaps natively in Unity’s graphics pipeline on both Editor and on PC standalone player. After stereo cubemaps are generated, we can convert these cubemaps to stereo equirectangular maps which is a projection format used by 360 video players.

我们与设备无关的立体声360捕获技术基于使用立体立方体贴图渲染的Google全向立体声(ODS)技术。 我们支持在编辑器和PC独立播放器上的Unity图形管道中本地渲染到立体立方体贴图。 生成立体立方体贴图后,我们可以将这些立方体贴图转换为立体等矩形贴图,这是360个视频播放器使用的投影格式。

To capture a scene in Editor or standalone player is as simple as calling Camera.RenderToCubemap()  once per eye:

在编辑器或独立播放器中捕获场景就像调用Camera一样简单。 每只眼睛一次渲染RenderToCubemap ( ) :

1

2
3
4
5
camera.stereoSeparation = 0.064; // Eye separation (IPD) of 64mm.
camera.RenderToCubemap(cubemapLeftEye, 63, Camera.MonoOrStereoscopicEye.Left);
camera.RenderToCubemap(cubemapRightEye, 63, Camera.MonoOrStereoscopicEye.Right);

1

2
3
4
5
camera . stereoSeparation = 0.064 ; // Eye separation (IPD) of 64mm.
camera . RenderToCubemap ( cubemapLeftEye , 63 , Camera . MonoOrStereoscopicEye . Left ) ;
camera . RenderToCubemap ( cubemapRightEye , 63 , Camera . MonoOrStereoscopicEye . Right ) ;

During capture of each eye, we enable a shader keyword which warps each vertex position in the scene according to a shader ODSOffset() function which does the per eye projection and offset.

在捕获每只眼睛的过程中,我们启用了一个着色器关键字,该关键字根据着色器ODSOffset()函数对场景中的每个顶点位置进行扭曲,该函数对每个眼睛进行投影和偏移。

Stereo 360 capture works in forward and deferred lighting pipelines, with screen space and cubemap shadows, skybox, MSAA, HDR and the new post processing stack. For more info, see our new stereo 360 capture API.

立体360捕捉可在向前和向后的照明管道中工作,并具有屏幕空间和立方体贴图阴影,天空盒,MSAA,HDR和新的后处理堆栈。 有关更多信息,请参见我们新的立体声360捕获API 。

To convert cubemaps to stereo equirectangular maps, call RenderTexture.ConvertToEquirect() :

要将立方体贴图转换为立体等角图,请调用RenderTexture 。 ConvertToEquirect ( ) :

1

2
3
cubemapLeftEye.ConvertToEquirect(equirect, Camera.MonoOrStereoscopicEye.Left);
cubemapRightEye.ConvertToEquirect(equirect,Camera.MonoOrStereoscopicEye.Right);

1

2
3
cubemapLeftEye . ConvertToEquirect ( equirect , Camera . MonoOrStereoscopicEye . Left ) ;
cubemapRightEye . ConvertToEquirect ( equirect , Camera . MonoOrStereoscopicEye . Right ) ;

Using Unity frame recorder, a sequence of these equirect images can be captured out as frames of a stereo 360 video. This video can then be posted on video websites that support 360 playback, or can be used inside your app using Unity’s 360 video playback introduced in 2017.3.

使用Unity帧记录器 ,可以将这些等价图像的序列捕获为立体声360视频的帧。 然后可以将此视频发布在支持360回放的视频网站上,也可以使用2017.3引入的Unity 360视频回放在您的应用程序内部使用。

For the PC standalone player, you need to enable the “360 Stereo Capture” option in your build (see below) so that Unity generates 360 capture enabled shader variants which are disabled by default in normal player builds.

对于PC独立播放器,您需要在构建中启用“ 360 Stereo Capture”选项(请参见下文),以便Unity生成启用了360捕获的着色器变体,默认情况下在常规播放器构建中将其禁用。

In practice, most of 360 capture work can be done on the PC in Editor/Play mode.

实际上,大多数360捕获工作都可以在PC上以编辑器/播放模式完成。

For VR applications, we recommend disabling VR in Editor when capturing 360 stereo cubemaps (our stereo 360 capture method doesn’t require VR hardware). This will speedup performance without affecting the captured results.

对于VR应用程序,我们建议在捕获360立体立方体贴图时禁用编辑器中的VR(我们的立体360捕获方法不需要VR硬件)。 这将提高性能,而不会影响捕获的结果。

Stereo 360 Capture的技术说明 (Technical Notes on Stereo 360 Capture)

For those of you using your own shaders or implementing your own shadowing algorithms, here are some additional notes to help you integrate with Unity stereo 360 capture.

对于那些使用自己的着色器或实现自己的阴影算法的人,这里有一些其他说明,可帮助您与Unity Stereo 360捕捉集成。

We added an optional shader keyword: STEREO_CUBEMAP_RENDER. When enabled, this keyword will modify UnityObjectToClipPos()  to include the additional shader code to transform positions with ODSOffset()  function (see UnityShaderUtilities file in 2018.1). The keyword will also let engine setup the proper stereo 360 capture rendering.

我们添加了一个可选的着色器关键字:STEREO_CUBEMAP_RENDER。 启用后,此关键字将修改UnityObjectToClipPos ( )以包括其他着色器代码,以使用ODSOffset ( )函数转换位置(请参阅2018.1中的UnityShaderUtilities文件)。 该关键字还将使引擎设置正确的立体声360捕获渲染。

If you are implementing screen space shadows, there is the additional issue that the shadow computation of reconstructed world space from depth map (which has post ODS Offset applied) and view ray is not the original world space position. This will affect shadow lookup in light space which expects the true world position. The view ray is also based on the original camera and not in ODS space.

如果要实现屏幕空间阴影,则存在另一个问题,即根据深度图(应用了后期ODS偏移)和视线对重建的世界空间进行阴影计算不是原始的世界空间位置。 这将影响希望获得真实世界位置的光空间中的阴影查找。 视线也基于原始相机,不在ODS空间中。

One way to solve this is to render the scene to create a one-to-one mapping of world positions with screen space shadow map and write out the world positions (unmodified by ODS offset) into a float texture. This map is used as true world positions to lookup shadow from light space. You can also use 16-bit float texture if you know the scene fits within 16-bit float precision based on scene center and world bounds.

解决此问题的一种方法是渲染场景,以使用屏幕空间阴影贴图创建世界位置的一对一映射,并将世界位置(未经ODS偏移修改)写入浮动纹理。 该地图用作从光空间查找阴影的真实世界位置。 如果您知道场景适合于基于场景中心和世界范围的16位浮点精度,则也可以使用16位浮点纹理。

We’d love to see what you’re creating. Share links to your 360 videos on Unity Connect or tweet with #madewithunity. Also, remember this feature is experimental. Please give us your feedback and engage with us on our 2018.1 beta forum.

我们希望看到您正在创造什么。 在Unity Connect上共享指向您的360视频的链接,或通过#madewithunity进行鸣叫。 另外,请记住此功能是实验性的。 请给我们您的反馈并在我们的2018.1 Beta论坛上与我们互动 。

翻译自: https://blogs.unity3d.com/2018/01/26/stereo-360-image-and-video-capture/

图像捕获

这篇关于图像捕获_立体声360图像和视频捕获的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/336784

相关文章

Java如何获取视频文件的视频时长

《Java如何获取视频文件的视频时长》文章介绍了如何使用Java获取视频文件的视频时长,包括导入maven依赖和代码案例,同时,也讨论了在运行过程中遇到的SLF4J加载问题,并给出了解决方案... 目录Java获取视频文件的视频时长1、导入maven依赖2、代码案例3、SLF4J: Failed to lo

Python实现多路视频多窗口播放功能

《Python实现多路视频多窗口播放功能》这篇文章主要为大家详细介绍了Python实现多路视频多窗口播放功能的相关知识,文中的示例代码讲解详细,有需要的小伙伴可以跟随小编一起学习一下... 目录一、python实现多路视频播放功能二、代码实现三、打包代码实现总结一、python实现多路视频播放功能服务端开

Python实现视频转换为音频的方法详解

《Python实现视频转换为音频的方法详解》这篇文章主要为大家详细Python如何将视频转换为音频并将音频文件保存到特定文件夹下,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. python需求的任务2. Python代码的实现3. 代码修改的位置4. 运行结果5. 注意事项

基于WinForm+Halcon实现图像缩放与交互功能

《基于WinForm+Halcon实现图像缩放与交互功能》本文主要讲述在WinForm中结合Halcon实现图像缩放、平移及实时显示灰度值等交互功能,包括初始化窗口的不同方式,以及通过特定事件添加相应... 目录前言初始化窗口添加图像缩放功能添加图像平移功能添加实时显示灰度值功能示例代码总结最后前言本文将

Python视频处理库VidGear使用小结

《Python视频处理库VidGear使用小结》VidGear是一个高性能的Python视频处理库,本文主要介绍了Python视频处理库VidGear使用小结,文中通过示例代码介绍的非常详细,对大家的... 目录一、VidGear的安装二、VidGear的主要功能三、VidGear的使用示例四、VidGea

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

《x86汇编语言:从实模式到保护模式》视频来了

《x86汇编语言:从实模式到保护模式》视频来了 很多朋友留言,说我的专栏《x86汇编语言:从实模式到保护模式》写得很详细,还有的朋友希望我能写得更细,最好是覆盖全书的所有章节。 毕竟我不是作者,只有作者的解读才是最权威的。 当初我学习这本书的时候,只能靠自己摸索,网上搜不到什么好资源。 如果你正在学这本书或者汇编语言,那你有福气了。 本书作者李忠老师,以此书为蓝本,录制了全套视频。 试

SAM2POINT:以zero-shot且快速的方式将任何 3D 视频分割为视频

摘要 我们介绍 SAM2POINT,这是一种采用 Segment Anything Model 2 (SAM 2) 进行零样本和快速 3D 分割的初步探索。 SAM2POINT 将任何 3D 数据解释为一系列多向视频,并利用 SAM 2 进行 3D 空间分割,无需进一步训练或 2D-3D 投影。 我们的框架支持各种提示类型,包括 3D 点、框和掩模,并且可以泛化到不同的场景,例如 3D 对象、室