Unity中URP下实现深度贴花(雾效支持和BRP适配)

2024-01-13 15:04

本文主要是介绍Unity中URP下实现深度贴花(雾效支持和BRP适配),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 一、让我们的贴画支持雾效
    • 1、我们舍弃内部的MixFog方法
    • 2、使用 雾效混合因子 对最后输出颜色进行线性插值相乘
  • 二、在Shader中,限制贴花纹理的采样方式
    • 1、申明 纹理 和 限制采样方式的采样器
    • 2、在片元着色器进行纹理采样
  • 三、BRP适配
    • 1、C#脚本中,打开摄像机深度图
    • 2、适配代码
  • 四、最终代码
    • 1、地缝效果
    • 2、魔法阵
    • 3、芙宁娜贴花


前言

在上一篇文章中,我们实现了贴花的效果。但是,细节效果需要优化。

  • Unity中URP下实现深度贴花

我们在这篇文章中,来优化一下贴花Shader的细节。


一、让我们的贴画支持雾效

  • 原雾效使用方法是只支持不透明对象的。
  • 但是,我们的贴画是半透明的。所以,需要对其进行调整。

1、我们舍弃内部的MixFog方法

col.rgb = MixFog(col.rgb,i.fogCoord);

2、使用 雾效混合因子 对最后输出颜色进行线性插值相乘

  • 这样就可以实现 贴花 融入 雾 的效果
  • 针对Blend One One 的半透明雾效混合

col.rgb*=col.a;
col.rgb *= saturate(lerp(0.5,0,i.fogCoord));


二、在Shader中,限制贴花纹理的采样方式

  • 防止在Unity中,针对单独的纹理设置了不同的重和平铺方式,影响最终效果。

1、申明 纹理 和 限制采样方式的采样器

TEXTURE2D(_MainTex);
#define smp _linear_clamp
SAMPLER(smp);

2、在片元着色器进行纹理采样

half4 mainTex = SAMPLE_TEXTURE2D(_MainTex, smp, uv);


三、BRP适配

1、C#脚本中,打开摄像机深度图

Camera.main.depthTextureMode = DepthTextureMode.Depth;

2、适配代码

	SubShader{Tags{//渲染类型"RenderType"="Transparent"//渲染队列"Queue"="Transparent"}Pass{Blend One OneZWrite OffName "Unlit"CGPROGRAM#pragma vertex vert#pragma fragment frag#pragma multi_compile_fog// Pragmas#pragma target 2.0// Includes#include "UnityCG.cginc"sampler2D _MainTex;float4 _MainTex_ST;sampler2D _CameraDepthTexture;struct appdata{float3 positionOS : POSITION;float2 uv : TEXCOORD0;};struct v2f{float4 positionCS : SV_POSITION;float2 uv : TEXCOORD0;float3 positionOS : TEXCOORD1;float3 positionVS : TEXCOORD2;};v2f vert(appdata v){v2f o;o.positionCS = UnityObjectToClipPos(v.positionOS);o.uv = TRANSFORM_TEX(v.uv, _MainTex);o.positionOS = v.positionOS;//2、通过模型面片的求出像素在观察空间下的坐标值o.positionVS = UnityWorldToViewPos(mul(unity_ObjectToWorld,o.positionOS));return o;}half4 frag(v2f i) : SV_TARGET{//思路:float4 depthVS = 1;//1、通过深度图求出像素所在视图空间的Z值float2 screenUV = i.positionCS.xy / _ScreenParams.xy;half4 depthTex = tex2D(_CameraDepthTexture, screenUV);half depthZ = LinearEyeDepth(depthTex.r);//2、通过模型面片的求出像素在观察空间下的坐标值//这个在顶点着色器中完成//3、结合两者求出 深度图中像素的 XYZ值depthVS.z = depthZ;depthVS.xy = i.positionVS.xy * depthZ / -i.positionVS.z;//4、再将此坐标转换到模型的本地空间,把XY作为UV来进行纹理采样float4 depthWS = mul(unity_CameraToWorld, depthVS);float4 depthOS = mul(unity_WorldToObject, depthWS);float2 uv = depthOS.xz+0.5;half4 col = 0;half4 mainTex = tex2D(_MainTex,uv);col += mainTex;//针对Blend One One 的半透明雾效混合col.rgb*=col.a;return col;}ENDCG}}

四、最终代码

1、地缝效果

请添加图片描述

2、魔法阵

请添加图片描述

3、芙宁娜贴花

请添加图片描述

//深度贴花
Shader "MyShader/URP/P4_4_2"
{Properties{[Header(MainTex)]_MainTex("MainTex",2D) = "white"{}}SubShader{Tags{//告诉引擎,该Shader只用于 URP 渲染管线"RenderPipeline"="UniversalPipeline"//渲染类型"RenderType"="Transparent"//渲染队列"Queue"="Transparent"}Pass{Blend One OneZWrite OffName "Unlit"HLSLPROGRAM#pragma vertex vert#pragma fragment frag#pragma multi_compile_fog// Pragmas#pragma target 2.0// Includes#include "Packages/com.unity.render-pipelines.core/ShaderLibrary/Color.hlsl"#include "Packages/com.unity.render-pipelines.universal/ShaderLibrary/Core.hlsl"#include "Packages/com.unity.render-pipelines.universal/ShaderLibrary/Input.hlsl"CBUFFER_START(UnityPerMaterial)float4 _MainTex_ST;CBUFFER_ENDTEXTURE2D(_CameraDepthTexture);SAMPLER(sampler_CameraDepthTexture);TEXTURE2D(_MainTex);//SAMPLER(sampler_MainTex);#define smp _linear_clampSAMPLER(smp);//struct appdata//顶点着色器的输入struct Attributes{float3 positionOS : POSITION;float2 uv : TEXCOORD0;};//struct v2f//片元着色器的输入struct Varyings{float4 positionCS : SV_POSITION;float2 uv : TEXCOORD0;float fogCoord : TEXCOORD1;float3 positionOS : TEXCOORD2;float3 positionVS : TEXCOORD3;};//v2f vert(Attributes v)//顶点着色器Varyings vert(Attributes v){Varyings o;o.positionCS = TransformObjectToHClip(v.positionOS);o.uv = TRANSFORM_TEX(v.uv, _MainTex);o.fogCoord = ComputeFogFactor(o.positionCS.z);o.positionOS = v.positionOS;//2、通过模型面片的求出像素在观察空间下的坐标值o.positionVS = TransformWorldToView(TransformObjectToWorld(o.positionOS));return o;}//fixed4 frag(v2f i) : SV_TARGET//片元着色器half4 frag(Varyings i) : SV_TARGET{//思路:float4 depthVS = 1;//1、通过深度图求出像素所在视图空间的Z值float2 screenUV = i.positionCS.xy / _ScreenParams.xy;half4 depthTex = SAMPLE_TEXTURE2D(_CameraDepthTexture, sampler_CameraDepthTexture, screenUV);half depthZ = LinearEyeDepth(depthTex.r, _ZBufferParams);//2、通过模型面片的求出像素在观察空间下的坐标值//这个在顶点着色器中完成//3、结合两者求出 深度图中像素的 XYZ值depthVS.z = depthZ;depthVS.xy = i.positionVS.xy * depthZ / -i.positionVS.z;//4、再将此坐标转换到模型的本地空间,把XY作为UV来进行纹理采样float4 depthWS = mul(unity_CameraToWorld, depthVS);float4 depthOS = mul(unity_WorldToObject, depthWS);float2 uv = depthOS.xz + 0.5;half4 col = 0;half4 mainTex = SAMPLE_TEXTURE2D(_MainTex, smp, uv);col += mainTex;//针对Blend One One 的半透明雾效混合col.rgb *= col.a;col.rgb *= saturate(lerp(1, 0, i.fogCoord));//col.rgb = MixFog(col.rgb,i.fogCoord);return col;}ENDHLSL}}SubShader{Tags{//渲染类型"RenderType"="Transparent"//渲染队列"Queue"="Transparent"}Pass{Blend One OneZWrite OffName "Unlit"CGPROGRAM#pragma vertex vert#pragma fragment frag#pragma multi_compile_fog// Pragmas#pragma target 2.0// Includes#include "UnityCG.cginc"sampler2D _MainTex;float4 _MainTex_ST;sampler2D _CameraDepthTexture;struct appdata{float3 positionOS : POSITION;float2 uv : TEXCOORD0;};struct v2f{float4 positionCS : SV_POSITION;float2 uv : TEXCOORD0;float3 positionOS : TEXCOORD1;float3 positionVS : TEXCOORD2;};v2f vert(appdata v){v2f o;o.positionCS = UnityObjectToClipPos(v.positionOS);o.uv = TRANSFORM_TEX(v.uv, _MainTex);o.positionOS = v.positionOS;//2、通过模型面片的求出像素在观察空间下的坐标值o.positionVS = UnityWorldToViewPos(mul(unity_ObjectToWorld, o.positionOS));return o;}half4 frag(v2f i) : SV_TARGET{//思路:float4 depthVS = 1;//1、通过深度图求出像素所在视图空间的Z值float2 screenUV = i.positionCS.xy / _ScreenParams.xy;half4 depthTex = tex2D(_CameraDepthTexture, screenUV);half depthZ = LinearEyeDepth(depthTex.r);//2、通过模型面片的求出像素在观察空间下的坐标值//这个在顶点着色器中完成//3、结合两者求出 深度图中像素的 XYZ值depthVS.z = depthZ;depthVS.xy = i.positionVS.xy * depthZ / -i.positionVS.z;//4、再将此坐标转换到模型的本地空间,把XY作为UV来进行纹理采样float4 depthWS = mul(unity_CameraToWorld, depthVS);float4 depthOS = mul(unity_WorldToObject, depthWS);float2 uv = depthOS.xz + 0.5;half4 col = 0;half4 mainTex = tex2D(_MainTex, uv);col += mainTex;//针对Blend One One 的半透明雾效混合col.rgb *= col.a;return col;}ENDCG}}
}

这篇关于Unity中URP下实现深度贴花(雾效支持和BRP适配)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/601858

相关文章

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

Kubernetes PodSecurityPolicy:PSP能实现的5种主要安全策略

Kubernetes PodSecurityPolicy:PSP能实现的5种主要安全策略 1. 特权模式限制2. 宿主机资源隔离3. 用户和组管理4. 权限提升控制5. SELinux配置 💖The Begin💖点点关注,收藏不迷路💖 Kubernetes的PodSecurityPolicy(PSP)是一个关键的安全特性,它在Pod创建之前实施安全策略,确保P

工厂ERP管理系统实现源码(JAVA)

工厂进销存管理系统是一个集采购管理、仓库管理、生产管理和销售管理于一体的综合解决方案。该系统旨在帮助企业优化流程、提高效率、降低成本,并实时掌握各环节的运营状况。 在采购管理方面,系统能够处理采购订单、供应商管理和采购入库等流程,确保采购过程的透明和高效。仓库管理方面,实现库存的精准管理,包括入库、出库、盘点等操作,确保库存数据的准确性和实时性。 生产管理模块则涵盖了生产计划制定、物料需求计划、

基于UE5和ROS2的激光雷达+深度RGBD相机小车的仿真指南(五):Blender锥桶建模

前言 本系列教程旨在使用UE5配置一个具备激光雷达+深度摄像机的仿真小车,并使用通过跨平台的方式进行ROS2和UE5仿真的通讯,达到小车自主导航的目的。本教程默认有ROS2导航及其gazebo仿真相关方面基础,Nav2相关的学习教程可以参考本人的其他博客Nav2代价地图实现和原理–Nav2源码解读之CostMap2D(上)-CSDN博客往期教程: 第一期:基于UE5和ROS2的激光雷达+深度RG

韦季李输入法_输入法和鼠标的深度融合

在数字化输入的新纪元,传统键盘输入方式正悄然进化。以往,面对实体键盘,我们常需目光游离于屏幕与键盘之间,以确认指尖下的精准位置。而屏幕键盘虽直观可见,却常因占据屏幕空间,迫使我们在操作与视野间做出妥协,频繁调整布局以兼顾输入与界面浏览。 幸而,韦季李输入法的横空出世,彻底颠覆了这一现状。它不仅对输入界面进行了革命性的重构,更巧妙地将鼠标这一传统外设融入其中,开创了一种前所未有的交互体验。 想象