[Unity]大批量物体渲染学习笔记(一)
-
最近摸鱼的时候打算对demo里的大面积草地做一些优化,顺便记一些笔记备忘。标题的大量物体特指场景中的重复物体,比如大片的草地、树林等等,它们数量极多,如果直接用GameObject的形式实现,电脑多半是要爆炸的。关于大量物体渲染网上已经有很多文章介绍,这里仅记录在通用渲染管线(URP)下的学习与实现过程,算是比较基础的部分,如有错误欢迎指正。
怎么做
方案有很多,先来试试常用的GPU Instancing,用到的核心的API为Graphics.DrawMeshInstancedIndirect,绘制部分基本围绕它展开。
它还有个好兄弟Graphics.DrawMeshInstanced,它们都能批量绘制网格,区别在于,好兄弟需要在每一帧将数据从CPU提交至GPU,单个批次有着1023的实例数量限制;而DrawMeshInstancedIndirect可以在GPU侧缓存数据,并且单个批次没有数量限制。
在使用这个API时,Unity不会帮我们做视锥剔除与遮挡剔除,如果用它绘制十万颗草,不论草是否在视野内,都会被一视同仁统统绘制,也就是说剔除工作需要我们自己完成。
官方示例
先按照官方示例写个Hello world,在文档中,官方十分贴心地给出了绘制部分的代码,复制粘贴就能运行的那种。运行效果长这样,在场景中一口气绘制了十万个方块:
这里要在URP下实现,C#部分基本不需要改动,Shader部分需要重新写,顺便把阴影投射也加上,最终效果:
大致流程:
- 准备好物体的网格、材质,以及渲染用到的数据,比如十万份方块的位置与大小。
- 将数据设置到GPU缓冲区。
- 调用DrawMeshInstancedIndirect渲染。
C#部分
先看C#部分的一些变量:
ExampleClass.cs
public int instanceCount = 100000; public Mesh instanceMesh; public Material instanceMaterial; public int subMeshIndex = 0;
分别是要绘制的物体数量、网格与材质,使用时在编辑器里赋值,像这样:
再看其他的一些变量:
private int cachedInstanceCount = -1; private int cachedSubMeshIndex = -1; private ComputeBuffer positionBuffer; private ComputeBuffer argsBuffer; private uint[] args = new uint[5] { 0, 0, 0, 0, 0 };
这里定义了两个ComputeBuffer,利用它们可以将数据传至GPU侧,positionBuffer用来存放所有物体的位置,argsBuffer则是DrawMeshInstancedIndirect绘制需要用到的参数,各项参数通过args变量存放。
Update中的逻辑很简单,必要时更新ComputeBuffer,然后渲染:
void Update() { // 更新Buffer UpdateBuffers(); // 方向键改变绘制数量 ... // 渲染 Bounds renderBounds = new Bounds(Vector3.zero, new Vector3(100.0f, 100.0f, 100.0f)); Graphics.DrawMeshInstancedIndirect(instanceMesh, subMeshIndex, instanceMaterial, renderBounds, argsBuffer); }
这一堆参数看得眼花,argsBuffer怎么赋值我们也还不清楚,所以先来看看UpdateBuffers中是怎样更新这些ComputeBuffer的:
void UpdateBuffers() { // 不需要更新时返回 if ((cachedInstanceCount == instanceCount || cachedSubMeshIndex != subMeshIndex) && argsBuffer != null) return; // 规范subMeshIndex if (instanceMesh != null) subMeshIndex = Mathf.Clamp(subMeshIndex, 0, instanceMesh.subMeshCount - 1); ...
没啥好说的,接下来是对positionBuffer的初始化:
... // 初始化位置Buffer if (positionBuffer != null) positionBuffer.Release(); positionBuffer = new ComputeBuffer(instanceCount, sizeof(float) * 4); Vector4[] positions = new Vector4[instanceCount]; for (int i = 0; i < instanceCount; i++) { float angle = Random.Range(0.0f, Mathf.PI * 2.0f); float distance = Random.Range(10.0f, 90.0f); float height = Random.Range(-5.0f, 5.0f); float size = Random.Range(0.05f, 1f); positions[i] = new Vector4(Mathf.Sin(angle) * distance, height, Mathf.Cos(angle) * distance, size); } positionBuffer.SetData(positions); instanceMaterial.SetBuffer("positionBuffer", positionBuffer);
可以看到ComputerBuffer的构造方法中需要指定数量与单个数据占用空间大小,这里物体的位置为Vector4类型,在Shader中对应float4,xyz分量存放坐标,w分量存放大小。之后为每个物体随机设置位置与大小,然后通过ComputerBuffer的SetData方法设置数据,最后设置到材质中,那么大致可以这样认为,经过这一步,每个物体的位置数据已经向GPU侧提交了。
然后是对argsBuffer的初始化:
// Indirect args if (argsBuffer != null) argsBuffer.Release(); argsBuffer = new ComputeBuffer(1, args.Length * sizeof(uint), ComputeBufferType.IndirectArguments); if (instanceMesh != null) { args[0] = (uint)instanceMesh.GetIndexCount(subMeshIndex); args[1] = (uint)instanceCount; args[2] = (uint)instanceMesh.GetIndexStart(subMeshIndex); args[3] = (uint)instanceMesh.GetBaseVertex(subMeshIndex); } else { args[0] = args[1] = args[2] = args[3] = 0; } argsBuffer.SetData(args); cachedInstanceCount = instanceCount; cachedSubMeshIndex = subMeshIndex; }
这个也没啥好说的,总之挨个赋对应的值就完事了(敷衍),通过设置instanceCount,argsBuffer将决定有多少实例会被渲染。
回过头来看Update,基本上可以理解DrawMeshInstancedIndirect各个参数的意义了:
void Update() { ... // 渲染 Bounds renderBounds = new Bounds(Vector3.zero, new Vector3(100.0f, 100.0f, 100.0f)); Graphics.DrawMeshInstancedIndirect(instanceMesh, subMeshIndex, instanceMaterial, renderBounds, argsBuffer); }
我们需要传入绘制的网格(instanceMesh)、指定的子网格(subMeshIndex)、什么材质(instanceMaterial)、渲染的范围(renderBounds),以及argsBuffer。
可以发现并不需要传positionBuffer,因为它早在上一步就被设置到材质中了,只要物体的数量或者位置没有发生改变,就不需要再变动positionBuffer。这样Update中基本不存在耗时操作,虽然要绘制的实例数量很多,但只有在数据有变动时才要做循环。
Shader部分
在C#部分,包含每个物体位置的positionBuffer已经设置到了材质中,那么在Shader中我们主要关心的是如何获取这些位置数据,官方给出的Shader中,可以看到positionBuffer的声明:
#if SHADER_TARGET >= 45 StructuredBuffer<float4> positionBuffer; #endif
StructuredBuffer在Shader中是只读的,它将接收从C#传递过来的位置数据,需要注意这里的SHADER_TARGET >= 45,说明这个功能最低支持的编译目标级别为4.5,即OpenGL ES 3.1。
关于Shader的编译目标级别可以参考官方文档。
这篇文章介绍了DrawMeshInstancedIndirect在真机上的兼容情况。
在顶点函数中使用positionBuffer:
v2f vert (appdata_full v, uint instanceID : SV_InstanceID) { #if SHADER_TARGET >= 45 float4 data = positionBuffer[instanceID]; #else float4 data = 0; #endif float rotation = data.w * data.w * _Time.x * 0.5f; rotate2D(data.xz, rotation); float3 localPosition = v.vertex.xyz * data.w; float3 worldPosition = data.xyz + localPosition; ...
通过SV_InstanceID语义获取当前的实例id,使用instanceID作为下标,就能从positionBuffer中获取到实例的位置数据了。这里的rotate2D函数让物体平行于xz面绕y轴旋转,旋转速度由物体大小决定;由于不存在其他变换,世界空间下的顶点坐标就等于模型空间下的坐标加上传入的坐标。
了解Shader中都要做些什么后,可以依葫芦画瓢来写URP下的Shader了,这里也像官方示例中那样,实现物体公转、基础光照、阴影接收与自带雾效,再加上阴影投射。
新建一个Shader:
InstancedShader.shader
Shader "Custom/URP/Instanced Shader" { Properties { ①... } SubShader { Tags { "RenderType" = "Opaque" "RenderPipeline" = "UniversalRenderPipeline" } HLSLINCLUDE ②... ENDHLSL Pass { Tags { "LightMode" = "UniversalForward" } HLSLPROGRAM ③... ENDHLSL } Pass { Tags { "LightMode" = "ShadowCaster" } HLSLPROGRAM ④... ENDHLSL } } }
定义需要用到的属性,纹理、颜色、高光反射系数与高光反射颜色:
①
Properties { [MainTexture] _BaseMap("Albedo", 2D) = "white" {} [MainColor] _BaseColor("Color", Color) = (1,1,1,1) _Gloss("Gloss", Range(8, 256)) = 16 _SpecularColor("Specular Color", Color) = (1,1,1,1) }
HLSLINCLUDE中放一些通用的代码,比如包含URP的一些库,通用的属性与函数等:
②
HLSLINCLUDE #include "Packages/com.unity.render-pipelines.universal/ShaderLibraryCore.hlsl" #include "Packages/com.unity.render-pipelines.universal/ShaderLibraryLighting.hlsl" CBUFFER_START(UnityPerMaterial) float4 _BaseMap_ST; half4 _BaseColor; half _Gloss; half4 _SpecularColor; #if SHADER_TARGET >= 45 StructuredBuffer<float4> positionBuffer; #endif CBUFFER_END TEXTURE2D(_BaseMap); SAMPLER(sampler_BaseMap); void rotate2D(inout float2 v, float size) { float s, c; float rotation = size * size * _Time.x * 1.5f; sincos(rotation, s, c); v = float2(v.x * c - v.y * s, v.x * s + v.y * c); } ENDHLSL
positionBuffer需要和其他属性一样放在cbuffer块中。
在UniversalForward Pass中计算光照、物体公转、雾效等等,需要加上相关的预处理指令:
③
HLSLPROGRAM #pragma target 4.5 #pragma multi_compile _ _MAIN_LIGHT_SHADOWS #pragma multi_compile _ _MAIN_LIGHT_SHADOWS_CASCADE #pragma multi_compile _ _ADDITIONAL_LIGHTS_VERTEX_ADDITIONAL_LIGHTS #pragma multi_compile _ _ADDITIONAL_LIGHT_SHADOWS #pragma multi_compile _ _SHADOWS_SOFT #pragma multi_compile_fog ...
虽然加了额外光源关键字,但这里只计算了主光源。
采用逐像素光照,雾效因子随便找个空位放一下,这里与法线放一起:
③
... #pragma vertex Vertex #pragma fragment Fragment struct Attributes { float4 positionOS : POSITION; float3 normalOS : NORMAL; float2 texcoord : TEXCOORD0; }; struct Varyings { float4 positionCS : SV_POSITION; float2 uv : TEXCOORD0; float4 normalWSAndFogFactor : TEXCOORD1; float3 positionWS : TEXCOORD2; }; ...
顶点函数:
③
... Varyings Vertex(Attributes IN, uint instanceID : SV_InstanceID) { Varyings OUT; // 旋转与坐标变换 #if SHADER_TARGET >= 45 float4 data = positionBuffer[instanceID]; #else float4 data = 0; #endif rotate2D(data.xz, data.w); float3 positionWS = data.xyz + IN.positionOS.xyz * data.w; OUT.positionWS = positionWS; OUT.positionCS = mul(unity_MatrixVP, float4(positionWS, 1.0)); OUT.uv = TRANSFORM_TEX(IN.texcoord, _BaseMap); // 法线与雾效因子 float3 normalWS = TransformObjectToWorldNormal(IN.normalOS); float fogFactor = ComputeFogFactor(OUT.positionCS.z); OUT.normalWSAndFogFactor = float4(normalWS, fogFactor); return OUT; } ...
与示例中一样,根据传入的位置数据,计算出世界空间下的顶点坐标与裁剪空间下的顶点坐标。雾效因子使用ComputeFogFactor函数计算,与世界空间下的法线放在同一个变量中。
片元函数:
③
... half4 Fragment(Varyings IN) : SV_Target { half4 albedo = SAMPLE_TEXTURE2D(_BaseMap, sampler_BaseMap, IN.uv) * _BaseColor; // 获取主光源 Light light = GetMainLight( TransformWorldToShadowCoord(IN.positionWS)); half3 lighting = light.color * light.distanceAttenuation * light.shadowAttenuation; // 计算光照 float3 normalWS = IN.normalWSAndFogFactor.xyz; half3 diffuse = saturate(dot(normalWS, light.direction)) * lighting; float3 v = normalize(_WorldSpaceCameraPos - IN.positionWS); float3 h = normalize(v + light.direction); half3 specular = pow(saturate(dot(normalWS, h)), _Gloss) * _SpecularColor.rgb * lighting; half3 ambient = SampleSH(normalWS); half4 color = half4(albedo.rgb * diffuse + specular + ambient, 1.0); float fogFactor = IN.normalWSAndFogFactor.w; color.rgb = MixFog(color.rgb, fogFactor); return color; } ENDHLSL
获取带阴影衰减的主光源、计算漫反射、高光、环境光,最后混合雾效。
至于ShadowCaster Pass就偷懒直接照抄ShadowCasterPass.hlsl中的代码,加上位置变换:
④
HLSLPROGRAM #pragma target 4.5 #pragma vertex Vertex #pragma fragment Fragment struct Attributes { float4 positionOS : POSITION; float3 normalOS : NORMAL; float2 texcoord : TEXCOORD0; }; struct Varyings { float2 uv : TEXCOORD0; float4 positionCS : SV_POSITION; }; float3 _LightDirection; Varyings Vertex(Attributes IN, uint instanceID : SV_InstanceID) { Varyings OUT; #if SHADER_TARGET >= 45 float4 data = positionBuffer[instanceID]; #else float4 data = 0; #endif rotate2D(data.xz, data.w); float3 positionWS = data.xyz + IN.positionOS.xyz * data.w; float3 normalWS = TransformObjectToWorldNormal(IN.normalOS); float4 positionCS = TransformWorldToHClip(ApplyShadowBias(positionWS, normalWS, _LightDirection)); #if UNITY_REVERSED_Z positionCS.z = min(positionCS.z, positionCS.w * UNITY_NEAR_CLIP_VALUE); #else positionCS.z = max(positionCS.z, positionCS.w * UNITY_NEAR_CLIP_VALUE); #endif OUT.positionCS = positionCS; OUT.uv = TRANSFORM_TEX(IN.texcoord, _BaseMap); return OUT; } half4 Fragment(Varyings IN) : SV_TARGET { return 0; } ENDHLSL
由于不需要Alpha裁剪,片元函数中直接省略掉了这一步。
运行结果与官方示例差不多,有了阴影后看起更加自然:
如果是ShaderGraph连连看玩家,可以参考这个Gist:DrawMeshInstancedIndirect with ShaderGraph and URP,小编亲自试了一下,发现效果还不错,敏感肌也能用:
到现在相当于把官方示例抄了一遍,仅实现了物体位置数据的传递,没有自身旋转和真正意义上的缩放,实际的草地或树林肯定没有这么规整;另外也还没有做剔除,视野内外的物体都会被渲染,白白消耗了性能。
下一篇来实现物体的旋转、缩放,并用ComputeShader做视锥剔除。