'분류 전체보기'에 해당되는 글 81건

  1. 2016.08.29 shader constant array를 이용한 Mesh Instancing
  2. 2016.08.29 SSAO (Screen Space Ambient Occlusion) 링크 모음
  3. 2016.08.29 [번역] Two-part shadow maps :wolfire ( AO와 Shadow map)
  4. 2016.08.29 [번역] Environment shadows - step 4 By David Rosen on April 10th, 2009
  5. 2016.08.29 망할 SSAO halo 현상 !!!
  6. 2016.08.29 KGC2010 후기들
  7. 2016.08.29 C9 Rendering 1
  8. 2016.08.29 Encoding floats in GPU
  9. 2016.08.29 RGBA16 버퍼(unsigned 64bit)에 두 개의 값 밀어넣기
  10. 2016.08.29 GameTech11 후기들
  11. 2016.08.29 NDC11 세션 후기들
  12. 2016.08.29 유니티 라이팅이 안이뻐요. 딱딱하고 입체감이 없어요. 어떻게해야하나요?
  13. 2016.04.29 유니티에서의 텍스쳐 밉맵과 필터링 (Texture Mipmap & filtering in Unity) 5
  14. 2016.01.12 유니티 UI 위에 3D 오브젝트 그리기 (Rendering 3D objects on Unity's UI) 1
  15. 2016.01.06 저사양 기기에서 스탠다드 쉐이더 사용하기 (Using Standard Shader on low-end devices)
  16. 2016.01.06 유니티에서 ETC2 텍스쳐 사용 시 애매한 사항들 (Ambiguous things by using ETC2 on Unity 4
  17. 2016.01.03 PBS 느낌을 흉내내기 위한 Metallic MatCap 쉐이더 1
  18. 2015.12.09 유니티 5.3 WebGL 업데이트 (UNITY 5.3 WEBGL UPDATES)
  19. 2015.10.08 쉐이더에서 한번에 샘플링 할 수 있는 텍스쳐 갯수는? (How many textures do you sample in Shader?)
  20. 2015.09.30 커스텀쉐이더에서 리플렉션 프로브 사용하기 (Using Reflection Probes in Custom Shader)
  21. 2015.09.23 유니티5의 라이트맵 빌드 시간이 향상됩니다. (라이트맵 분산 빌드 & 점진적 빌드 소개)
  22. 2015.09.18 유니티 패치 릴리즈 계획 (UNITY PATCH RELEASE PLAN)
  23. 2015.09.16 몇 번의 클릭만으로 유니티 서비스를 사용해보세요 (UNITY SERVICES ARE JUST A FEW CLICKS AWAY)
  24. 2015.09.10 유니티 5.2 - 유니티 서비스로 가는 길 (original: UNITY 5.2 – YOUR GATEWAY TO UNITY SERVICES)
  25. 2015.09.01 Unity WebGL 로드맵(Roadmap) (한글)
  26. 2015.08.24 몹의 다양화(variation) 작업을 위한 파츠 컬러 쉐이더(Parts Color Shader) 2
  27. 2015.08.18 "게임은 어떻게 만드나요?" 라는 질문에 뭐라고 대답해야 할까요? (질문글 작성 가이드)
  28. 2015.06.12 유니티 5.1부터는 Unity Analytics가 기본적으로 통합되었습니다.
  29. 2015.06.12 유니티 배우려는데 무슨 언어로 배워야할까요? C#? 아니면 자바스크립트? 3
  30. 2015.06.09 모바일 기기의 Tile Based Rendering(타일 기반 렌더링)과 유니티에서의 주의 사항 #2 : TBR 대응 리소스 제작시 주의점 2
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 10년도 글 백업임

---------------------------------


shader constant array를 이용한 Mesh Instancing Game develop

이번엔 인스턴싱에 대해 이야기 해보고자 한다. instancing에 대한 정의 및 정리는 다른 분들이 잘 해주신 것들이 많기에 괜히 내가 어설프게 따로 정리하지는 않는다. 다만 내가 사용 한 조금 다른 방식을 소개하고 조언을 구하고자 한다. 우선 인스턴싱에 대하여 잘 모르시는 분은 다음 링크들을 살펴보면 되겠다.

: 이 글 내에도 더 많은 인스턴싱 뿐 아닌 Batching 관련 용한 링크들이 있다.
: XNA 기준으로 작성이 되어 있지만 함수 프로퍼티만 다를 뿐, 개념 및 설명은 정말 잘 되어 있다.
: DX10 기준으로 설명이 되어 있다. VS에서의 텍스쳐 읽기(VTF)는 Ndc2010 전형규 마비노기2 캐릭터 렌더링 기술에도 응용하고 있다.
http://zeuxcg.blogspot.com/2007/09/particle-rendering-revisited.html
: 파티클에 instancing을 응용하는 방법이 설명되어 있다. 여기서 버텍스의 위치를 정하는 방법은 SpeedTree, SpeedGrass등에서도 쓰이는 방법과 비슷하다.

최근의 대중화된 그래픽카드들은 웬만하면 Shader Model 3.0이상을 지원하므로, 우리 엔진도  secone Vertex Buffer를 사용하는 Hardware Instancing를 이용한다. 
그러기 위해서는 매번 second Vertex Buffer에 대하여 lock/unlock를 수행해야 한다. 나는 buffer lock없이도 오브젝트들을 transform 시키고 컬링에서 걸러질 수 있을 지 고민하다 셰이더 상수 배열을 이용하기로 했다. 위 링크에 나온 방식에서 특별히 크게 다른 것도 아니고, 쉽게 생각 할 수 있는 방식이라 이미 누군가 사용하다 버린(내가 생각했던 것 보다 효울이 그렇게 좋지는 않았기 때문에) 것일 지도 모르겠다.
 - second Vertex Buffer의 자료형은 오로지 float하나만으로 이루어져 있다. 
 - 한번에 수용 가능한 인스턴스의 갯수만큼의 크기 n의 크기로 버퍼를 생성하고, 0,1,2~(n-1)로 채운다. 이 숫자들은 변경될 일이 없으며, 상수 배열의 인덱스로 쓰인다.
 - 셰이더에서는 인스턴스의 트랜스폼을 결정 할 매트릭스 배열 m[n]을 선언한다. 
 - 오브젝트의 위치 변화가 있을떄 혹은 매 프레임마다 인스턴스들의 world matrix들을 m에 셋팅해준다.
 - VS에서는 second stream의 내용을 m[]의 인덱스 첨자로 사용하여 world matrix를 결정하고 transform한다.

이렇게 되면 Vertex Buffer의 실시간 Lock/Unlock비용에서 해방될 수 있다. 
하지만 단점으로는, 
 - 1. 상수 갯수의 제한이 있다보니 한번에 100단위의 갯수를 그려내지 못한다. 이것 저것 따지다보면 기껏 해봐야 3,40개 정도가 수용 가능하다. 하지만, 실제 게임에서 랜더링 하다보면 같은 메쉬를 그 이상 그려낼 일이 많이 없다. 100단위 혹은 1000단위로 그려내는 것은 테스트 컷 외에는 발생하지 않으므로, 이 단점이 큰제약이 되지는 않는다.
 - 2. matrix array를 셰이더로 넘겨주는 것이 생각보다는 무겁다. VB lock보다는 낫긴 하지만 생각보다 드라마틱한 효과는 보지 못했다.
 - 3. 실제 그리려는 인스턴스의 갯수와는 상관 없이 m[n]의 크기에 따라  SetMatrixarray()를 통한 상수 설정 시간이 결정된다. SetMatrixarray(,,1)을 하든 SetMatrixarray(,,40)을 하든 상관 없이 n에 따라 비례한다. 이를 극복할 수 있는 방법이 있으면 조언을 부탁드린다.

만약 우리 게임이 작은 우주선이 2,300개씩 나오는 RTS라면 이 방식이 쓰이지 못할 것이다. 하지만 우리 엔진에는 꽤 적합한 방식이라 생각하고 있다. 작업 양이 그리 크지도 않으므로 이런 방식으로도 한번 시도해보시길 바란다. 작업시 문제점과 개선점도 공유해주시고말이다~ 굽신~굽신~ 


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 2010년도 작성 된 글임. 현재는 더 많은 SSAO 기법들이 있으므로 최신 자료들도 찾아보셈

------------------------------------------------------------------------------------------------------------------


SSAO (Screen Space Ambient Occlusion) 링크 모음 Game develop


AO(Ambient Occlusion)는 사실적인 그림자 효과 라이팅의 방법 중 하나로써, 전역 조명 과정에서 한 점의 차폐 양을 계산 하는 것을 나타낸다. 이로써 장면 내의 입체 볼륨감을 더욱 부각시킬 수 있다. SSAO는 이를 Screen Space에서 수행하는 것이다. HBAO, SSDO등도 이와 한 뿌리다. 

실제 적용 해보면 제일 애를 먹는 것이 half-resolution에서 AO 처리를 한 뒤 upscale을 하는 부분인데, 이는 inferred lighting의 DSF필터를 적용 하면 쉽게 해결 될 듯 하다.( DSF 적용 해보진 않음;; 언능 해봐야집)


하지만 지글지글 문제는 해결이 안되지 싶은데.. 이놈때문에 엔진 디폴트로 AO는 꺼트린 상태다. 섬바뤼헬미~

관련 링크 (문서 내 링크 중복도 많이 있다 =ㅈ=):
http://kyruie.tistory.com/31 (한글)
http://www.eppengine.com/zbxe/programmig/2982 (한글)
http://www.gamedev.net/community/forums/topic.asp?topic_id=545825
http://en.wikipedia.org/wiki/Screen_Space_Ambient_Occlusion
http://www.gamedev.net/community/forums/topic.asp?topic_id=545825
http://developer.amd.com/gpu_assets/S2008-Filion-McNaughton-StarCraftII.pdf
http://www.gamerendering.com/2009/01/14/ssao/
http://www.gamedev.net/community/forums/topic.asp?topic_id=550699
http://www.vizerie3d.net/
http://developer.download.nvidia.com/presentations/2008/SIGGRAPH/HBAO_SIG08b.pdf
http://developer.download.nvidia.com/presentations/2008/GDC/GDC08_Ambient_Occlusion.pdf
http://developer.download.nvidia.com/SDK/10.5/direct3d/Source/ScreenSpaceAO/doc/ScreenSpaceAO.pdf
http://gamepro.tistory.com/539
http://www.gamedev.net/reference/programming/features/simpleSSAO/


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 10년도에 작성 된 글 백업임. 망할 이글루스

0-------------------------------------------------------



[번역] Two-part shadow maps :wolfire ( AO와 Shadow map) Game develop

앰비언트 오클루전은 게임 그래픽에서 입체감을 부여하기 위해 자주 쓰이게 된다. 대부분 Screen-space AO(SSAO링크 모음)를 주로 사용하고 우리 엔진 역시 이를 사용한다. 하지만 하드웨어 요구사항 및 아티스트의 제어 난해함으로 인해 SSAO가 아닌 방법을 사용하는 사례도 눈에 띄곤 한다.( 대표적으로 스프린터 셀 : GDC2010 : Hill Stephen Rendering Tools Splinter Cell Conviction)

회사 동료를 통해 그러한 사례를 하나 더 발견하게 되어 소개해드리고자 한다. OverGrowth란 게임에서 쓰인 방식인데, 반구로부터 64방향으로 그림자를 만들어 AO를 생성한다. 기왕 소개하는 김에 본인과 같이 나랏말쏘미 미쿡에 달아 서로 사맛디 아니할쌔 이런 전차로 미쿸말을 싫어하는 분을 위해 번역하여 올린다. 발로 번역하였으므로 미쿸말과 친한 분이라면 정신 건강을 위해 원문을 읽는 것을 권장한다.

이번 이글루스 권한 오류 대란에도 아무 피해를 입지 않은, 아무도 찾지않는 바람부는 언덕의 잡초 블로그지만, 혹시나 이 글을 퍼가도 되나 망설이시는 분이 있다면 마음놓고 퍼가셔도 된다. 어짜피 나도 포스트 작성자 허가 없이 가져와서 번역한거다.

원문 : Two-part shadow maps By David Rosen on March 17th, 2010

Two-part shadow maps

 

Overgrowth에서 쓰인 shadow map은 두가지 파트(direct shadows와  ambient occlusion)를 포함하는 일반적이지 않은 방법을 사용 한다. 이는 야외 씬의 하늘과 태양 두가지 라이트 소스에 해당한다. 사막에 집이 있는 다음 씬을 가지고 이 방식이 어떻게 작동하는지를 설명하겠다.

쉐도우 맵의 첫번째 파트는 direct shadows로 이루어져있다. 우리는 씬을 그리드로 나누어 계산하고 고정밀 뎁스 맵 쉐도우로 축적한다. 이는 매우 높은 연산 속도를 위해서 그래픽카드에서 완료된다. 다음 그림은 이 씬의 direct shadows를 나타낸다.

shadow map의 두번째 파트는 ambient occlusion(스카이 반구로 부터 얼마나 많은 빛이 도달하는 가에 대한)이다. 이는 하늘 반구의 64 포인트로부터의 direct shadows를 누적함으로써 계산된다. 다음 그림은 이 씬의 ambient occlusion을 나타낸다.

두 shadow map을 나누어서 저장할 수 있지만, 효과적으로 하기 위해서는 그 둘을 하나의 shadow map에 섞을 수 있다. 그래픽 카드는 이미지를 3개의 컬러 채널(RGB)로 저장하므로 우리는 direct shadows를 red 채널에, ambient occlusion을 green 채널에 저장할 수 있다.다음 그림은 direct shadows, ambient occlusion, 두 파트를 섞은 shadow map을 각각 나타낸다.

그림자 처리된 라이팅을 적용하기 위해서는, 우리는 direct shadows에 의한 direct 라이트와 ambient occlusion에 의한 ambient 라이트를 조절하면 하면 된다. 그다음에 direct와 ambient가 조절된 라이팅을 각각의 픽셀의 최종 라이팅에 더한다. 다음 그림에서 조절된 direct 라이팅과 조절된 ambient 라이팅과 합성된 최종 라이팅을 볼 수 있다.

이제 라이팅을 컬러맵과 합성해야하여 최종 이미지를 얻게 된다. 다음 그림에서 합산 라이팅, 컬러맵, 그리고 최종 이미지를 볼 수 있다.

최근 이 포스트에서 왜 ambient occlusion이 케릭터에게 중요한지를 상의했다. 그리고 같은 이유로 환경에도 중요하다( 공간을 정의하고 그림자 영역에 깊이를 더해주는 것을 도와준다). 좌측에 ambient occlusion이 없는 이미지와 우측에 ambient occlusion이 있는 이미지를 아래에 비교해놓았다. 구석 공간을 어떻게 정의하는 것을 도와주는지를 확인하기 위해서 어닝(차양지붕) 아래와 나무 통로를 살펴보면 된다.

많은 게임이 cascading shadow maps, screen-space 깊이 비교( 역주: SSAO를 가리키는 듯), deferred light 누적을 이용하여 직접광원과 간접광원의 근사치를 낸다. 이 텍크닉들은 강력하고 사용하기에 재밌지만 그것들의 결과물들과 하드웨어는 요구사항은 Overgrowth에는 적합하지 않다. 우리는 효과적이고 정확한 구워진  shadow map을 만드는 것이 더 나은 선택이다. 


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

[번역] Environment shadows - step 4 By David Rosen on April 10th, 2009 Game develop

이 글 역시 앰비언트 오클루전의 필요성에 대해 간단하면서도 와닿게 설명 하는 글인 것 같아 소개한다. 이 양반들 개발 과정 중 포스팅을 작성 하는게 매우 인상깊어 보인다. 

원문 : http://blog.wolfire.com/2009/04/environment-shadows-step-4/

Environment shadows - step 4
By David Rosen on April 10th, 2009

최근에 ambient occlusion을 lightmap으로 구워놓는 작업을 시작했다. 이는 현재 하늘로부터 랜덤한 64개의 라이트 소스를 통한 그림자를 누적시켜서 구현된다. 그리고 ambient occlusion의 결과 map을 간접광에 곱한다. ambient occlusion이 있는(위) 것과 없는(아래) Foothold map이 요기잉네: 

Shadow image

Shadow image

이는 매우 민감한 효과지만, 이러첨 복잡한 씬의 공간적 관계를 알기 쉽게 만들어 준다 생각한다. ambient occlusion map이 요기잉네:

Shadow image

이 그림은 간접광 그림자가 왜 중요한지를 나타낸다. 직접적인 태양광이 없더라도, 터널과 내부 영역은 야외 영역보다 다소 어두워야 한다.

Shadow image


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 10년도 글 백업임

---------------------------------------------


망할 SSAO halo 현상 !!! Game develop

siggraph 2010 문서 링크에 있는 문서 중 "Rendering techniques in Toy Story 3"를 이제야 보게 되었습니다. Toy Story라길래 CG이야기인줄알고 천천히 보려 했는데, 알고보니 게임이더군요 -ㅈ- 게임의 존재를 에니메이션을 보고 엔딩 크레딧 올라갈때 알았습니다;; 

우선춫현: PowerPoint Slides (121 MB),  PDF Slides (16.8 MB), Video (21 MB)

SSAO를 포함해서 라이팅 및 그림자에 대한 이야기를 하고 있군요. 대박 문서입니다. 이걸 왜 이제야 봤을까 싶네요. 근데 보면서 느낀거는... AO와 오브젝트 경계 사이의 미세한 halo는 아무도 신경을 쓰지 않는다는 겁니다. 
언차티드도 그러고 토이 스토리도 그러고 크라이시스도 그러고... 다들 완전히 없애지 않네요. 그동안 그거 없애려고 얼마나 많은 삽질을 했는데 다들 걍 냅두네요. 아마 별수 없나봐요.
 픽사도 못하는데 아마 난 안될거야 OTL

작업자 눈에만 보이는 현상인가봐요. 회사 동료분들도 아무도 안거슬린다더군요. 난 거슬리는데;; 하지만 픽사도 별수 없으니 나도 깔끔하게 포기하렵니다. ( 이미지를 그림판에서 jpg로 저장하다보니 뭉개져서 티가 잘 안나네요. 원본을 보셔요)

제가 표시해놓은 부분 거슬리시는 분 손~! 
저요 저요 저요 !

혹시 SSAO halo때문에 고민하시는 분들 bilateral이니 depth bais니 filter따위 포기하시고 마음 푸셔요.

안생겨요 -> 무조건 생겨요


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 10년도 작성한 KGC2010 후기들 백업임


 

메가 스플래팅 (Mega Splatting) - KGC2010 Game develop

오늘 KGC2010에서 "메가 스플래팅" 세션을 듣고 왔지요. 바로 적용 해볼 수 있는 유용한 팁을 얻은 것 같습니다. 강연자분께서 바로 발표자료를 올려주셨네요. 

링크 : 메가 스플래팅 (Mega Splatting) - KGC2010 발표 by 노동진

솔직히 처음에는 초큼 실망이였습니다. "메가 스플래팅"이라길래 저는 존 카멕 아저씨의 "메가 텍스쳐"를 이야기 하는 줄 알았더랬지요. 하지만 반전이였어요. 강연자분이 개량하신 스플래팅 기법의 네이밍이더군요. 게다가 초반에는 터레인 텍스쳐링의 역사를말씀하시고 "메가 스플래팅"은 꼴랑 한장에 업급되더군요. 다른 세션 들으러 갈까 하고 잠깐 흔들렸습니다.
그러나 실망은 잠시였습니다.
저희 엔진은 원경의 패치는 미리 구워놓은 통맵으로 랜더링 해서 비용을 절약하고 있습니다. 하지만 노동진님은 이 방식을 삽질사례#2로 편입시키고,  꽤 좋은 아이디어를 말씀해주시더군요. 

한마디로 간략하게 하자면, 멀리 있는 패치( DP호출하는 단위 묶음. 각가 이를 칭하는 용어가 다른데 저는 이렇게 부르는게 편합니다;;)부분은 매번 스플래팅으로 그리는게 아니고 랜더 타겟에 스플래팅으로 한번 랜더링 하고 그 결과를 매번 가져다 써서 비용을 절약한다는 것입니다. 멀리 있는 것일수록 해상도는 낮게 하구요.  

한가지 우려되는 것은 랜더 타겟 생성 및 삭제 관리를 어떻게 하느냐였습니다. 패치 단위로 랜더 타겟을 보유하고 있고, 시야에 들어 올 시점에 타겟을 생성하고, 시점 반경에서 멀어지면 타겟을 삭제하는 등의 행위가 필요할텐데, 이 과정이 느리지는 않을까 말이죠. 강연자분은 그 과정이 우려하는 만큼 시간이 걸리지는 않는다더군요. 
얼마나잘 관리하느냐가 관건일 것 같습니다만 설사 문제가 된다 하더라도, 케릭터가 열심히 달리기만 하는 경우는 살짝씩 프레임이 떨어져도 큰 문제가 없지 않을까 싶기도 해요. 전투중의 이동은 패치 디테일이 크게 변할 일이 없을테니까요. 아, 카메라 회전은 있겠네요.
아이디어가 복잡하지도 않고 기존 랜더 파이프를 크게 바꾸지 않고 적용을 해 볼수 있을 것 같으니 저도 한번 적용해서 테스트 해 봐야지 싶습니다.


저사양 고퀄리티 MMORPG의 개발사례 - KGC2010 Game develop

저는 이번 KGC2010에서 한빛소프트의 "저사양 고퀄리티 MMORPG의 개발사례"를 듣게 되었죠. 
제가 너무 욕심을 냈던 것일까요. 저는 뭔가 한빛 소프트만의 독자적인 노하우를 알려주실거라 기대했습니다. 
하지만 초반에는 저사양 저용량이면 뭐가 좋고 고퀄리티면 뭐가 좋고 이러쿵 저러쿵 당연한 이야기만 나오더군요. 아.. 또 낚였구나 싶었습니다. 파닥 파닥
세션 제목이 "저사양 고퀄리티"가 아니라 "저사양 대비 고퀄리티"가 되어야 했습니다. 사양을 낮추기 위해 SM1.1로 작업을 했고 노말맵을 안썼고, 림 라이팅을 PS가 아니라 VS에서 했고 등등 특별한 노하우보다는 일반적인 이야기만 나오더라구요. 
김진호PD님 강태공이였습니다. 
아뇨, 사실은 제 잘못입니다. 무슨 게임에 관한 내용인지, 그 게임이 어떤 게임인지를 알고 갔어야 했지요. 세션 제목만 보고 멋대로 덥썩 환상을 가져버린 제 탓이지요. 

하지만, "게임 시장의 동향 및 신기술 소개 :AUTODESK"처럼 슈퍼 대어 월척은 아니였습니다. 사양 대비 고퀄리티인 것 만은 확실하더군요. 쥐포네마리 VGA에서도 돌아가는 정도면 "MU" 정도의 사양인데, 퀄리티는 그에 비할바가 아니더군요. 그렇다고 뮤가 퀄리티가 구리다는것은 아니니 오해 마시길 바랍니다. 그만큼 에이카의 퀄리티가 높다는 것입니다. 뭐, 직접 게임을 해보지는 않고 스샷만 본것이지만요.
Geforce4에서 나올 수 있는 그래픽이라기엔 너무 좋지 않나요.

그리고, 듣다보니 중반부터 쓸만해 보이는 아이디어들이 나오더군요. 아직 김PD님이 세션 강연 자료를 올리시지는 않은 것 같습니다. 제가 개인적으로 직찍한게 있긴 하지만 폰카라 구리고, 다른 분들이 잘 정리해서 올려주신 것이 있어 자세한 내용은 아래 링크로 보시길 바랍니다.


개인적으로 기억에 남는 아이디어들:
- 리플렉션도 특성상 필요한 부분에만 사용 : 반사 효과는 비용이크기때문에 항상 최적화가 필요한 부분입니다만, 에이카에서는 과감하게 쓸데 안쓸데를 구분해서 사용하네요. 마을같이 프레임이 상대적으로 떨어져도 상관 없는 부분은 퀄리티를 높이기 위해 반사를 사용하고, 사냥터같은 부분에서는 최대한 억제한다네요.
- 케릭터가 100개 넘으면 100개만 랜더 (메모리 pool 이야기 중): 전쟁같이 한 화면에 케릭터가무수히 나올 경우 100개가 넘으면 100개인지 110개인지 유저 눈에는 그저 사람이 많은걸로만 보입니다. 그래서 편법으로 100개 넘으면 100개만 랜더한다고 하네요. 
- byte alignment : 잘모테써효 ㅠㅠ 그동안 쌩까고 코딩하고 있었어요. 자신을 돌아보는 계기가 되었습니다.

결론적으로는 1시간이 아깝지 않은 세션이였습니다. 짝짝짝~! ( 씹고 뜯고 맛보고 즐기고 -ㅈ-;)


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

C9 Rendering Game develop

C9 Rendering



최대한 MRT를 배제하고 64bit 하나에다 깊이 노말등을 때려 박는게 인상적이네요.
스킨이랑 헤어 관련 이야기도 나왔으면 더 좋았으련만..

의문 사항 :

Zcull ( EalryZ ) 를 통해 평소 20~25fps -> 40fps이상 유지
 G-buffer를 구축하기 전에 early-Z 패스를 따로 두어서 처리를 했다는 의미인지, 
 G-buffer 패스가 early-Z의 효과를 가졌다는 의미인지

- A16FR16FG16FB16 포멧으로 설정
- A : Depth
- B : ViewPosition과의 거리
 Depth 정보가 있는데 뭣하러 ViewPosition과의 거리를 따로 저장 하는지


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 10년도 작성 글 백업

-------------------------------------------------


Encoding floats in GPU Game develop


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 10년도 작성 된 글 백업임

--------------------------------------------------------------------



RGBA16 버퍼(unsigned 64bit)에 두 개의 값 밀어넣기 Game develop

최근 작업 중 짱나는 부분이 있어 여러분께 조언을 좀 여쭙고자 글을 씁니다.

64bit unsigned 랜더 타겟에 두 개의 값(디퓨즈,일루미네이션)을 끼워넣는 시도를 하였습니다.
각 채널 당 unsigned 16bit이므로 각각 8비트씩 할당하여 한 채널에 두 개의 값을 저장하는 것입니다.

Write 부의 절차는 대강 이러합니다:
1. 디퓨즈, 일루미네이션 각각의 0~1의 float값에 255를 곱하여 0~255의 int로 변환
2. 1의 디퓨즈에 256을 곱하여 8bit shift 효과(DX9의 PS에서 bit shift 연산 사용 불가)
3. 2의 쉬프트된 값과 1의 일루미네이션 값을 더함(앞8bit:디퓨즈 뒤8bit:일루미네이션)
4. 3의 값을 25535로 나누어 타겟으로 출력

Read 부의 절차는 대강 이러합니다:
1. 읽은 0~1의 float값에 25535를 곱하여 int로 변환
2. 1의 값을 256으로 나누어 8bit 쉬프트 효과
3. 디퓨즈 값 = 2의 값 / 255
4. 2의 값에 256을 곱하여 앞8bit:디퓨즈 뒤8bit:0 으로 만듦
5. 일루미네이션 값 = (1의 값 - 4의 값) / 255 

일단은 의도대로 성공 했습니다...만, 지포스 7600에서는 비 정상 작동하더군요.
다른 카드도 더 검증을 해봐야겠습니다.

왜 어떤 VGA는 되고 어떤 VGA는 안되고 그러는지 답답하더군요. 제일 중요한 문제는 이 방법이 정상 작동 하는지의 판단 기준을 어떡해야 할지를 모르겠다는겁니다.(원인 파악이 되면 자연스레 해결 될 수도 있겠지만요::) 어떤 기능의 지원 여부에 따른 것이라면 쿼리를 날리던 캡스를 뒤지던 할 텐데... 

혹시 의심가는 부분이라던가 비슷한 문제 사례가 있으시면 한모금 던져주시면 로또맞으실겁니다 ㅎㅎ

덧글

  •  cagetu 2010/12/29 11:05 # 삭제 답글

    설마 텍스쳐 포멧을 지원하지 않는것은 아니겠죠?! ^^;;
  •  오즈라엘 2010/12/29 11:13 # 수정 삭제

    해당 포맷으로 랜더 타겟은 정상 생성 되고 PIX로 확인해보면 출력도 됩니다.ㅠㅠ
  •  냥냥양 2010/12/29 23:41 # 삭제 답글

    이게..

    직접적인 ( / 25535 ), ( * 255 ) 요런식으로 하는게 아니라. ceil(), floor(), 요런건로 써서 해보세요.

    기억이 맞다면 될거같아요..ㅡ_ㅡ;;;

    근데 frac() 요건 그래픽카드마다 결과값이 달라서..영...amd에 문의 해도 대답없고;;;

    그리고...64 unsigned int 이거 느리지않던가요??
  •  오즈라엘 2010/12/30 11:02 # 수정 삭제

    답변 감사합니다만 제가 이해가 안가서 자세히 풀어서 설명좀 부탁드릴게요 ㅠㅠ
    올림, 내림이 무슨 연관이 있는 것인지 ㅠㅠ
    ATi나 NVIDIA에 문의 메일은 의미가 없어요ㅋ 절대 대답 안해줌 ㅋ
    개발 가이드 문서의 틀린 내용도 바로 바로 수정 안하는 녀석들인데요 뭐 ㅋ
    uint 64bit은 아직 속도 체크는 아직 안해봤는데, RT를 낭비하지 않으려면 선택의 여지가 없어서요 ㅎㅎ
  •  냥냥양 2010/12/30 17:33 # 삭제 답글

    http://theinstructionlimit.com/?p=33 바로 밑에 이거 얘기 한거에요.

    렌더타겟줄이실라고 그런거죠?

    제가 방금 테스트해봤는데, amd계열은 속도가 훌륭하고, nvidia계열은 암울하네요...어흑
  •  오즈라엘 2010/12/31 01:28 # 수정 삭제

    감사합니다 ㅎ

    " there is no native integer math on GPUs before SM4.0"
    이 문장을 제대로 보질 못했었네요 ㅎ 이 문장 대로 제대로 처리를 못해서 7600에서는 결과가 이상하게 나오나봅니다. 
    아래에 링크된 글들을 보면 흐름과 컨셉은 알겠는데, 왜 frac()이 비트 쉬프트의 의미를 가지게 되는지 이해는 안가더라구요. 소수부의 숫자들이 어떻게 bitwise의 효과를 가지게 되는 건가요ㅜㅜ?

    nvidia 계열은 어떤 모델로 테스트해보신건지요? 저는 PF64랑 UINT64랑 별 속도 차이는 없어보이던데''
    아직 7600에서는 정상적으로 돌지 않아 비교를 안해봤고 8600이상에서 비교해봤습니다.
  •  냥냥양 2011/01/01 13:55 # 삭제 답글

    float Float2Encode( float2 vecEncode )
    {
    vecEncode = floor( float2( vecEncode.x * 255.0f, vecEncode.y * 255.0f ) );
    float fResult = floor( floor( vecEncode.x * 255.0f ) + vecEncode.y ) / 65535.0f;
    return fResult;
    }

    float2 Float2Decode( float fDecode )
    {
    fDecode = floor( fDecode * 65535.0f );

    float2 vecResult;
    vecResult.x = floor( fDecode / 255.0f );
    vecResult.x /= 255.0f;
    vecResult.y = frac( fDecode / 255.0f );

    return vecResult;
    }

    이렇게 대충 코딩해 봤는데 문제는 Decal때문에 AlphaBlend를 하고있는 부분이 깨지네요..ㅠㅠ
  •  오즈라엘 2011/01/03 13:59 # 수정 삭제

    알파 블렌드로 하면 OTL ㅠㅠ G-buffer에서 사용하고 계시지 않으신가요? 데칼 등 알파 블렌드가 필요한 부분은 별도 패스로 덧그리셔야 할겁니다 ㅜㅜ
    그나저나 7600에선 여전히 비정상이네요 ㅠㅠ
  •  냥냥양 2011/01/04 01:04 # 삭제 답글

    걍 필요한 부분만해서 큰득은 봤네요.. 그나저나 7600구해서 저도 돌려봐야겠네요..
  •  오즈라엘 2011/01/04 11:30 # 수정 삭제

    지포스 7시리즈, 6시리즈 모두 그러더군요. 개네덜은 반정밀도로 계산을 하는건가;; D3DXSHADER_PARTIALPRECISION 옵션을 넣지도 않았는데 그러네요.. 쩝;;
    6,7 시리즈는 좀 까리까리한게 있는데, 개발 가이드 문서(http://developer.download.nvidia.com/GPU_Programming_Guide/GPU_Programming_Guide_Korean.pdf)에서는 A16B16G16R16 텍스쳐가 지원 되지 않는다고 나와 있습니다. 하지만 실제로 caps를 뒤져보면 지원을 하더군요. 애초에 지원을 하지를 말던가.. 원..
  •  오즈라엘 2011/01/07 00:48 # 수정 삭제

    7600에서 돌려보셨나요? 엔비댜에 문의하니 낮은 정밀도로 연산 된다거나 하는 것은 딱히 없다고 하네요. 문서에 UINT64 포맷 지원 안한다 나와있는 것은 실수지만 언제 고칠지는 모른다능 ㅋ
  •  냥냥양 2011/01/11 10:15 # 삭제 답글

    제 주위에 7시리즈가 없네요..ㅠㅠ 6600하나 있긴한데 그거 달아서 테스트하기는 귀찮아서..

    전 6&7은 버텍스단위에서 라이트계산하고 그림자도 빼고, 포워드로 렌더링하려구요.. 그런거 다 하기엔 

    넘힘드네요.. 것보다.. m330에서 돌려봤더니 좌절이라. 그쪽 최적화해야겠어요
  •  오즈라엘 2011/01/12 23:13 # 수정 삭제

    저 역시 6,7 시리즈는 답이 없어서 걍 bit-wise 하는 행위를 그냥 빼버렸습니다. ㅎ 
    테라처럼 쌩 디퓨즈만 지원하는 옵을 추가해서 커버하려구요
    해상도가 점점 커져가는데 6,7 이넘들은 이를 따라올 수가 없네요.
    mx330 말씀하시는 것인가요? 그넘도 지원하시나요 +ㅈ+?
  •  냥냥양 2011/01/15 09:39 # 삭제 답글

    m330은 그냥 노트북용이에요.. 요즘 노트북으로 게임하는 유저들이 많아져서..
  •  오즈라엘 2011/01/15 14:52 # 수정 삭제

    아.. 노트북용 ㅋㅋ 제가 무식한 소릴 했었네요 죄송함다 ㅋㅋ
    노트북용 하면 인텔 GMA가 대박이죠 ㅎ 
    인텔칩도 스펙상으로는 허용 범위라 신경써야될 밴더가 더 많아졌습니다
    OTL


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 11년도 작성 된 글 들 백업임

-------------------------------------------------------


Game Tech 2011 - 테라에 사용된 렌더링 테크닉 Game develop

"테라에 사용된 랜터링 테크닉"은 게임테크 2011 참관기 (이어서)에서 잘 소개되어 있습니다. 저보다 앞자리에,서 저보다 정면에서, 거기다가 저보다 좋은 화질로(쳇, 은근히 샘나요;;) 있으니 참고하시면 될겁니다 ㅎ 그리고 다음주면 게임 테크 슬라이드들이 풀린다는 소식이;;;

 GameTech 2011 - MMORPG 게임, 엔진 최적화 기법 Game develop

나능야 남들 다 "예"할때 혼자 "아니오"라고 하는 남자! 모두들 사마리아인 데모를 볼때 나는 "MMO 게임, 엔진 촤적화 기법" 세션을 보러 갔습니다. 솔직히 사마리아인 보고싶어서 뒈지는줄 알았습니다만, 영상이랑 슬라이드는 지겹도록 봤으니 굳이 볼 필요는 없다고 판단했습니다. 

사마리아인 데모 기술 참고 : 

제로딘 엔진의 이 세션은 KGC에서도 했던 같은 내용인 것 같더군요. KGC에서 이 세션을 막바지에나 들어가서 아쉽기도 해서 "2년째 우려먹다니, 날 뭘로보고! 넥슨의 리깅 시스템 세션은 NDC, KGC, GDC 세번이나 발표될 만큼 좋은 내용이였잖아? 제로딘 세션도 그만큼 좋은 내용이라는 뜻이겠지?" 라는 생각으로 발걸음을 옮겼습니다. 
솔직히 KGC때는 절반이 엔진 광고여서 이번에도 어느 정도 각오는 하고 들었습니다만, 괜챦더군요.

역시나 예상대로 사람들은 거의가 사마리아인 세션으로 몰렸고 제로딘 세션은 썰렁했습니다. 장대표님은 무슨 죄길래 시간대가 이렇게 잡혔나 싶었는데, 오히려 생각보다 많이 들어줘서 고맙다고 하시능... ㅋㅋㅋ

역시 행복은 마음속에 있나니 ~




제로딘 엔진을 사용한 드라고나 살짝 끼워넣는 깨알같은 센스 ㅋㅋ
동남아 권은 메모리 1G도 안되는 경우도 허다하다고 합니다. 
메모리 단편화를 막기 위해 메모리 풀을 사용하지요. 하지만 반전으로, 제로딘에서는 메모리 풀은 사용하지 않는다고 하네요. 완벽하지 않으면 아니한만 못함. 두둥
역시 피날레는 케릭터 인스턴싱. 4개의 케릭터를 하나의 call 데이터로 꽉꽉 눌러 담는 것이 데이터를 익스포트 시 프리 컴퓨팅 하거나 그런줄 알았는데, 실시간이라는군요. LOD 연산까지도요. 아래 동영상의 로딩 타임이 그 연산 과정인가 봅니다.


 GameTech 2011 - 온라인 게임개발을 위한 크라이엔진3의 케릭터 에니메이션 파이프라인 Game develop

트랙2의 "온라인 게임개발을 위한 크라이엔진3의 케릭터 에니메이션 파이프라인" 역시 이번 게임 테크 2011의 책자에 슬라이드가 사전 등록되지 않은 내용입니다. 강연자분의 설명을 들어보니 원래는 개발중인 게임의 개발 프로세스를 보여주려 했으나 바이어의 반대로 내용을 바꿨나봐요.

LMG는 크라이 엔진이 에전부터 쭈욱 사용되어 오던 시스템이라고 합니다. 보통은 걸으면서 회전을 하면 마치 제자리 걸음을 하면서 회전하는 듯 한 어색함이 연출되는데, LMG는 자연스러운 연출을 할 수 있다네요.


뛰기, 걷기, 회전 등의 여러 에니메이션을 상황에 맞게 가중치를 두어 블렌딩 하는 방법인 듯 합니다. 에니메이션 자체에도 풋스텝 정보가 들어있는 걸까요?

시연 영상의 모습입니다. 이때쯤이였던가 보여주고 싶은 케릭터를 공개 못해서 투털 아쉬워 하시더군요 ㅋ 그심정 모두들 동감하실겁니다 ㅋ


LMG는 하체를 위한 방식이라면 레이어링은 상체를 위한 방식입니다. 동일한 달리기 모션 상태에서 총들기, 수류탄 들기 등 다양한 상체 모션을 적용 하게 하는거죠.
레이어링 시연 동영상입니다.




케이스 바이 케이스 에니메이션을 일일이 만들면 끝이 없죠. 애디티브는 몇 개의 리소스로 다양한 상황에 맞는 에니메이션을 만들어 낼 수 있는 방법인 듯 합니다. 동영상을 올려야되는데 파일 용량 제한이.. 흑..
시연을 보여주신걸 말로 설명을 드리자면, 위 아래 허리를 숙였다 폈다 하는 에니메이션 급조하고, 그걸 달리는 모션에 가중치 두어 애디티브 시키면 최종적으로는 숙였다 폈다 하면서 달리고, 가중치를 변경하여 원래 만들었던 것 보다 더 숙인 상태에서 숙였다 폈다가 하는데.. 아 뭐래는거야..



당빠 IK 들어가주시고요.


원래 만들었던 에니메이션하고 IK를 적용했을 때하고 안맞는 경우가 발생한다고 합니다. 무기를 교체하는 동안 손이 딴데를 잡고 있는 다던가... 그런 경우 리타겟팅을 통해 위치 보정을 한다네요.
리타게팅 시연 영상입니다.


뭐, 물리엔진도 있구요. 피직 본을 이름규칙으로 단계적인 세그먼트 사용이 가능하다네요. 피직 셋팅은 맥스가 아닌 툴에서 한다고 합니다. 아옼! 망할 이글루스. 동영상이 용량 제한에 걸려서 또 못올리네요. 이글루스 뒈져버렷!


게임 엔진과 맥스 사이의 괴리(?)는 게임 개발에서 많이 겪는 일이죠. 모션 캡쳐 역시 데이터를 편집해서 적용해서 확인하는 것도 불편하구요. Live Sync는 이런 프로세스를 간결화 시켜줍니다. 

Live Sync는 GDC에서 공개된 그 영상을 보시면 됩니다. http://www.youtube.com/watch?v=TXnXOn7WRCs





Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 11년도에 작성한 글 중 NDC 후기 백업들임

---------------------------------------------------------------------------------



NDC11 전역조명 세션 대충 후기

슬라이드 사진은 접어놓은거 펼쳐서 보시구요
자세한 설명은 ndc2011 전역 조명의 기본 이론 에 있으므로 생략 ㅋ






한마디로

월드 머신 킹왕짱

+
덕중의 덕은 양덕

역시 사진 많아서 접어놓습니다.
파트 1 세션은 사진 촬영에 제약이 없었으나 2,3 세션은 촬영이 허가되지 않아서 사진 없음돠 +ㅈ+

 




NDC11 게임 관련 법령 리뷰 세션 후기 "게임 코드가 법의 꿈을 꾸는가, 법이 게임 코드의 꿈을 꾸는가" Game develop

요즘 신데렐라 법 덕분에 관련 법에 관심이 쵸큼 생겨서 듣고싶던 세션중 하나였습니다. 강연장 들어가서 카메라 설치라고 타이틀 한방 찍으니 안내 요원이 오셔서 촬영 금지 세션이라더군요. 찍은 타이틀 사진 항방 아까워서 올립니다 안올리는게 좋겠네요ㅎ 타이틀 작명 센스가 아우~ 쩔어요. 뭔가 있어보이지 않습니까? 넥슨 아저씨들이 작명 센스는 좋은 것 같아요. :-)

게임 코드가 법의 꿈을 꾸는가, 법이 게임 코드의 꿈을 꾸는가

이 세션은 특이하게 일반적인 슬라이드 진행 방식이 아닌 토론 형식의 세션이였습니다. 안철수님과 박경철님의 대담 형식의 강연으로 인해 요즘 트렌드인 걸까요? ㅎ 근데 그 두분의 대담보다는 공격적인 토론이랄까? 그러면서도 100분토론(빠드득)의 딱딱한 분위기가 아니라 정말 시간 가는 줄 모르고 경청했습니다.
이홍우님, 김관중님, 이원님, 세 분이 발표를 하셨는데요, 각각 유저, 개발자, 정부?법무사? 의 역할을 맡아서 토론하는 식의 진행이였습니다. 물론 세 분 다 실제로는 법 관련이시구요. 이원님은 법무실 파트는 아니지만 법대 출신이시더군요.

촬영이 금지되서 받아적으려니 엄지손가락 빠지는 줄 알았습니다. 근데 엉망으로 작성해서 엉망으로 올립니다 -ㅈ-;;


위치정보보호법  

GPS 정보 이용 어플 인기
앱 제작사 입건
사유 : 신고않고위치기반서비스  
방통위신고   
당사자는 법률존재몰라. 신고 여부 자체 모름.
제작 제약 없음. 주의필요.

심의

사실상의 검열인가?
헌법은 사전 검열 금지 
검열 정의 : 행정권, 사상의결, 발표전, 강제
내용 : 해당 
사전검열 : 해당 
행정기관 : 해당
강제 수단 : 해당없음
법적으로는 위헌 아님
심의제도강화계기 : 바다이야기 

특허

진가 가상화폐 특허 신청
게임업에 상식화된 기믹을 특허화. 
비지니스 모델 특허 : 영업 방법 특허. 전자상거례 금융등 단순 영업은 아닌 컴퓨터 기술 융합 필요
특허 성립 조건 : 산업성. 신규성. 진보성.  
특허 순서 : 아이디어 -> 출원 -> 심사공개 -> 의견제출통지 -> 등록
진가는 특허권 행사 목적 아닐 껄? 방어적차원. 특허괴물화. 온라인 게임사들의 공동 대응 필요

현거래

웹젠, 게임 아이템 중개 금지 소송
게임 업체 영업 방해.  근거 : 공정거래위원회 유권 해석
서울지법 소송 기각
시간-돈 이론  시간 많은 청소년들이 시간 없는 직장인들에게 아이템판매 
게임사는 아이템가치비인정
사기 복구 환불  환금성인정시범죄연결 사행성
게임 내 경제를 외부적 요인에 맡기게 됨
약관에 명시 아이템은대여물 

법은 아이템 거래 판단을?
시각 1. 게임 내 아이템은 사용자 재산 
물권 배타적독점권 법으로 정한 경우만
시각 2. 게임 내 아이템은 회사 재산
채권양도. 사용자에게는 사용권만 부여
약정에 의해 양도 금지 채권 만든 셈

대한민국은 물권법정주의 
아이템현거래
약관비인정  법으로비인정  기묘한동반자관계
아이템 중개 사이트는 청소년 유해물 (대법원확정판결 2010.10.)

셧다운제

2004년부터 지속적인 시도. 현재 온라인 게임만 대상.

반대의견 
유해성증명필요. 가정문제. 몽니. 자부심 지원없이자립 

실효성문제
주민번호로가입. 온라인이아닌중독성은? 외국게임규제문제 fta 

가입 시 이메일 인증 시스템 셧다운 법 법적으로 회피 불가 & 목적 아님
셧다운 미 적용 대상을 스마트폰에서 태블릿PC로 확장  경계가 딱히 법령화 되어 있지 않은 것이다 보니 역시 부처간 협의


KeSPA vs 블리자드

분쟁의주체 갈등의대상 게임리그의방송권 블리자드와의협의없이 중계권 판매
블라자드 케스파협상시도 무시
블라자드 곰티비 방송라이선스 체결 
케스파 입장 : 스타는 수 많은 게임 중 하나. 리그를 만든 건 케스파.
케스파 곰 티비 보이콧 -> fail
곰티비 스타 리그 진행 -> fail
블라자드 법 분쟁 -> fail
저작권. 저작인접권.
1차저작물 vs 2차저작물.  저작권법은 1차 인정
게임이 만든 리플레이가 영상 저작물이 되는가
결국 케스파와블리자드 라이선스계약.  
저작권 법 자체가 사회 변화를 못 따라감.
앞으로 1차 vs 2차 . 게임기업 vs 동인회사.


귀챦은 질문 친절히 대답 해주셔서 감사합니다 ㅋ


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

이 글은 2013년도에 작성한 글 복붙임

--------------------------------------------------------------------------------------------------------------------------------


저는 COCOS 2D-X로 개발을 하고 있습니다만, 유니티는 교양(?)으로 알아두어야 할 것 같아서 만지작거려볼까 하는 중입니다. 그래서 유니티 포럼이나 웹을 돌아다니다보니 라이팅에 관한 질문이 가끔 보이더군요.

유니티의 라이팅이 안이뻐요.

유니티의 라이팅이 딱딱해요.

유니티의 라이팅이 입체감이 없어요.


이번 포스팅에서는 이에 대한 이야기를 해볼까 합니다. 사실 이 주제가 유니티에만 국한되어 하는 이야기는 아닙니다. (제목 낚시 ㅈㅅ) CG 특히 게임같은 실시간렌더링(real-time rendering)은 은 자연 그대로의 빛을 표현하는 것을 불가능하기때문에 어느정도 간략화하여 묘사하는 알고리즘을 쓰고 있고, 많은 엔진들이 제공하는 기법들은 비슷비슷합니다. 동네 표준이란게 있어서;; 그렇기때문에 본 포스팅에서 언급되는 이야기는 Unity 3D에만 국한 된 것이 아니라 통상적인 실시간 렌더링에 관한 이야기이며, 보여드리는 자료도 Unity 3D에만 국한되지 않음을 미리 말씀드립니다.

또한 직접조명(direct light)에 관해서만 다룰것이며 구면조화함수(spherical harmonics)나 앰비언트큐브(ambient cube)등의 라이트프로브(light probe)를 이용한 지역조명(local light)에 관해서는 다루지 않을 것입니다. 당연히 실시간 GI(global illumination) 역시 마찬가지이구요. 이미 그걸 찾으시려는 분은 이 글을 읽을 필요가 없어요.



Default Directional Light

일반적으로 엔진들에서 기본적으로 제공되는 디렉셔널 라이팅은 모두 딱딱해보이고 입체감이 부족해보입니다. 기본 라이팅이 너무 간략화되서 표현 된 라이팅이기 때문이죠. 일단 다음 그림을 보시죠.

빛은 보시는바와 같이 단순하지가 않습니다. 기본적인 음영 외에도 반사광, 역광, 강세 등등 다양한 빛의 요소가 존재합니다. 하지만 엔진의 기본적인 디렉셔널라이트에는 그러한 것이 생략되어 있습니다. 단순히 빛의 방향을 보는 면은 밝고 그 반대 방향 즉 빛을 등지는 부분은 어둡게 표현하는게 다입니다. 그렇기때문에 빛이 “딱딱하게” 보이는 것 입니다.

거기다가 문제가 더 있습니다. 빛의 반대면은 단순히 어둡기만 한 것이 아니라 어두운 부분은 명암이 아예 사라진다는 것입니다.

빛의 명암은 빛 벡터와 면의 노말 벡터와의 내적값을 사용합니다. 정확히는 물체에서 빛을 보는 방향의 벡터와 면의 노말 벡터를 내적하는 값이죠. (벡터와 내적에 대한 개념을 모르신다면 대마왕님의 시리즈 글을 읽어보시길 권장합니다. 아티스트 프로그래머 모두에게 도움이 될 것입니다. 프로그래머시면 맥스의 디테일한 내용은 건너 뛰고 설명만 보세요. 시작! http://www.gamedevforever.com/228)

음영값 = N(면의 노말) dot L(면에서 태양으로의 방향)

두 벡터가 같은 방향을 보고 있으면 1이 나오고, 직각을 이루고 있으면 0이 나오고, 반대방향을 보고 있으면 -1이 나옵니다. 따라서 내적 값을 음영값으로 사용하게 되면 빛을 보는 면은 1의 값 즉 제일 밝은면이 됩니다. 근데 빛의 정 반대면은 -1이 나오게 됩니다. 이런 경우에는 음수 조명은 존재하지 않으므로 0 이하의 값은 그냥 0으로 취급해버립니다.

diffuse = max(0, dot(L, N));

그러다보니 빛의 반대 영역은 음영이 존재하지 않고 죄다 까맣게 되어버리는 것이지요. 그러다보니 어두운 영역의 입체감이 존재하지 않아서 “입체감이 없다”고 느껴지는 것입니다.

하이엔드 PC게임 렌더링에서는 역광, 반사광, AO 등의 간접조명들이 처리되어 이러한 현상이 보완됩니다. 하지만 그러한 성능이 나오지를 못하는 모바일에서는 현실적으로는 디렉셔널라이트같은 직접조명만 처리가 가능하기때문에 다양한 방식이 필요합니다.



Half Lambert

어두운 영역이 죄다 0으로 되어 음영이 죽어버리는 현상은 하프램버트를 적용해줘도 크게 완화됩니다. 빛 벡터와 노말 벡터의 내적 음영값이 1~0~-1로 나와서 0이후부터는 0으로 채워버리니까 애초에 결과 값을 0~0.5~1로 나오게 하면 되는 것이지요. N dot L의 식을 조금만 손봐주면 됩니다.

halflambert_diffuse = max(0, (dot(L, N) + 1) / 2);

렇게 하면 암부 영역의 음영이 살아나게되서 널리 쓰이곤 합니다.

다만 쉐도우맵 방식의 그림자와는 궁합이 안맞아서 신중히 생각해봐야 한다는 문제는 있지만 모바일에서 아직 쉐도우맵은 사치일테니 우선 당장은 고민거리는 아닐 것 같네요.


참고 자료 :

http://www.valvesoftware.com/publications/2006/SIGGRAPH06_Course_ShadingInValvesSourceEngine_Slides.pdf



Diffuse Wrap

음영을 아티스트가 직접 그려넣는 방식도 있습니다. 음영 스펙트럼을 직접 아티스트가 선택하여 칠한 텍스쳐를 오브젝트에 감싸는 것이지요. 앞서서 언급했듯이 자연상태의 빛은 직접조명만 존재하는 것이 아니라 주변 사물에 빛이 반사되어 들어오는 간접조명들도 존재합니다. 따라서 음영의 스펙트럼이 단순히 선형적인 흰색~검은색만 되는 것이 아닙니다. 텍스쳐로 음영을 표현하면 이러한 색의 스펙트럼을 직접 제어가 가능해져서 아티스트들이 선호합니다.

방식도 간단합니다. 다음과 같은 라이팅 스펙트럼 텍스쳐를 준비해놓습니다. 위의 하프램버트 값을 바로 음영 값으로 사용하는 것이 아니라 스펙트럼 텍스쳐의 U좌표로 사용하면 땡인 것이지요. 큰 노력 들이지 않고도 아티스트느님께 이쁨받을 수 있어요 하앍하앍

더 나아가서 큐브맵(Cube-Map)을 통채로 라이팅 결과로 사용하는 IBL(Image Based Lighting) 방식이 이용되기도 합니다. 큐브맵은 일반적으로 쓰는 2차원 텍스쳐와는 달리 상하좌우앞뒤 6면을 가지고 있는 텍스쳐입니다. 보통 스카이박스가 큐브맵으로 만들어집니다.

이러한 큐브맵에 그림 대신 라이팅을 새겨넣고 오브젝트의 면에 바로 입혀버리는 것이지요.

위의 1차원 방식과는 달리 간접조명을 동서남북위아래 모두 반영할 수 있어서 아티스트의 자유도가 더 높아져서 더 높은 퀄리티를 낼 수 있습니다. 하지만 큐브맵은 추가적인 성능이 요구되니 사양을 고려해서 사용해야 합니다.


참고 자료:

http://www.gamedevforever.com/150

http://www.gamedevforever.com/269

http://www.gamedevforever.com/272

http://www.gdcvault.com/play/1014362/Cinematic-Character-Lighting-in-STAR

http://pds8.egloos.com/pds/200803/05/32/TeamFortress2mitchell.pdf

http://www.slideshare.net/valhashi/2011-03-gametechtadptforpdf



Hemisphere Lighting

다소 저렴한 방법으로 간접조명을 흉내 낼 수 있는 방법으로 반구조명(Hemisphere Lighting) 기법이 존재합니다. 월드를 감싸는 구를 반토막 내서 하늘에서 수직으로 내려오는 및과 땅에서 수직으로 올라오는 빛이 존재한다고 가정하는 것입니다. 수직으로 향하는 각각 다른 컬러를 가지는 라이트를 디렉셔널라이트에 추가적으로 더해주는 것입니다.

그러한 컨셉과 마찬가지로 디렉셔널 라이트를 여러개를 추가해버리는 방법도 가능합니다.


관련 자료:

http://www.slideshare.net/ozlael/deferred-rendering-case-study

http://digitalerr0r.wordpress.com/2009/05/09/xna-shader-programming-tutorial-19-hemispheric-ambient-light/

http://www.gamasutra.com/view/feature/2817/hemisphere_lighting_with_radiosity_.php



Sub-Surface Scattering

아무리 빛을 이래 저래 만지작거려봐도 인간형 케릭터에게는 어색함이 사라지지 않을 수도 있습니다. 얼굴이나 팔 등의 피부가 느낌이 안살아서 그러는 것이지요.

손을 전등이나 태양을 향해 대보세요. 빛이 완전 차단되는 것이 아니라 조금은 반영되어 보일것입니다. 또한 음영을 자세히 살펴보세요. 어두운 영역과 밝은 영역 사이에 붉은 영역이 존재할 것입니다. 피부는 완전 불투명한 재질이 아니라 반투명 재질이 여러겹으로 구성되어 있기때문에 빛이 직선으로 통과되는 것이 아니라 빛이 산란되어 통과됩니다. 그 안에 존재하는 모세혈관들이 산란된 빛을 통해 비춰지면서 특이한 느낌이 나는 것입니다. 그러한 피부 재질을 단순한 방식으로 표현하려니 어색함이 존재하는 것이지요.

이러한 현상을 표면하산란(Sub-Surface Scattering,SSS)라 부르고 비실시간 렌더링에서는 이를 시물레이션해서 표현합니다. 하지만 게임에서는 이를 시뮬레이션하는 수준까지는 못하고 대충 흉내내는 방식을 사용합니다.(fake SSS) 음영 사이에 붉은 빛이 도는 느낌을 표현해주는 것이지요.

이 느낌을 코드 공식으로 만들어 내는 것도 복잡하지는 않습니다만 그냥 텍스쳐로 표현해버리세요. 모바일에서는 텍스쳐로 표현하는게 더 싸게 먹힐꺼예요. 느낌 아니까~


관련 자료:

http://http.developer.nvidia.com/GPUGems/gpugems_ch16.html

http://blog.naver.com/PostView.nhn?blogId=sorkelf&logNo=40146367692&redirect=Dlog&widgetTypeCall=true&topReferer=http%3A%2F%2Fblog.naver.com%2FPostView.nhn%3FblogId%3Dagebreak%26logNo%3D60149081175%26redirect%3DDlog%26widgetTypeCall%3Dtrue%26top

http://www.slideshare.net/ozlael/deferred-rendering-case-study




Color Correction ( or Color Grading)

컬러커렉션(Color Correction) 혹은 컬러그레이딩(Color Grading)으로 화룡정점을 찍어보는 것도 괜챦습니다. 컬러그레이딩은 엄밀히 따지자면 조명 연산이 아니라 색의 톤을 조절하는 방식입니다. 모바일에서는 성능 문제로 무리가 있을 것이라 생각했었는데 기기의 성능들이 좋아지면서 가능해졌습니다.

상단이 컬러그레이딩을 적용하기 전이고 하단이 컬러그레이딩을 적용한 후의 이미지입니다. 적용하고 나니 뭔가 파스텔톤의 느낌이 나고 훨씬 그래픽이 부드러워진 느낌이 납니다. 추가적인 비용 부담도 존재하긴 하지만 시각적인 효과가 뛰어나서 옵션으로 적용하는 등 여건만 된다면 적용해볼 만 합니다. 원리는 간단합니다. 디퓨즈까지 반영 된 최종 픽셀의 값을 스펙트럼 텍스쳐로 매핑해서 보여주면 땡입니다.  


관련 자료:

http://http.developer.nvidia.com/GPUGems/gpugems_ch22.html

http://docs.unity3d.com/Documentation/Components/script-ColorCorrectionEffect.html



마무리

이래 저래 조명 방식들을 설명해드렸습니다만 프로젝트에 적합한 조명 방식을 정하는 것은 쉬은일이 아닙니다. 게다가 한번 정해지면 다시 변경하기란 불가능에 가깝습니다. 조명이 바뀌면 거기에 맞춰서 만들어져왔던 리소스들을 다시 엎어야 하는 상황들이 발생하기 때문이죠. 따라서 프로젝트 초반에 프로그래머와 아티스트가 함께 테스트를 해보며 신중히 결정하여야 할 것입니다. 그럼 모두들 즐삽질~!


지금까지 설명 드린 기능들의 유니티 관련 페이지

http://docs.unity3d.com/Documentation/Components/script-ColorCorrectionEffect.html

http://docs.unity3d.com/Documentation/Components/SL-SurfaceShaderExamples.html

http://docs.unity3d.com/Documentation/Components/SL-SurfaceShaderLightingExamples.html

http://www.unitymanual.com/thread-1272-1-1.html

http://www.farfarer.com/blog/2011/07/25/dynamic-ambient-lighting-in-unity/

http://www.farfarer.com/blog/2013/02/11/pre-integrated-skin-shader-unity-3d/

https://www.youtube.com/watch?v=XBTB17hcbio&feature=related



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

많은분들이 물어보시는 내용 중 하나가 텍스쳐입니다. 그 중 밉맵과 필터링에 대한 내용을 정리해보고자합니다.



밉맵


텍스쳐에서 밉맵이란 텍스쳐에게 있어서 LOD같은 개념입니다. 만일 256x256짜리 텍스쳐가 화면에 그려진다고 생각을 해보죠. 이 텍스쳐가 화면에 굉장히 작은 영역으로 그려져서 실제로는 32x32픽셀만큼의 영역만 그려지는 상황이라면 굳이 256텍스쳐를 바를 필요가 없습니다. 괜히 대역폭을 낭비할 필요 없이 32텍스쳐를 가져가면 충분한 상황일 것입니다.

이런 컨셉이 바로 텍스쳐 밉맵입니다. 텍스쳐 하나 만들면 내부적으로는 여러 크기 단계의 텍스쳐를 만들어 두는 것입니다. 예를 들어서 256텍스쳐를 사용하면 내부적으로는 256,128,64,32,16,8,4,2크기의 텍스쳐를 추가적으로 생성하게 되는 것입니다. 그러고서는 런타임에서 렌더링 시 픽셀쉐이더에서 텍스쳐를 읽어들일 때 상황에 맞는 크기의 텍스쳐를 가져감으로써 실시간 대역폭을 절약하는 것입니다.

이미지 출처 : http://www.tomshardware.com/reviews/ati,819-2.html


이런식으로 하면 런타임 성능은 절약되지만 메모리는 약 30%가 늘어나게 됩니다.(정확한 수치는 아니고 통상적인 수치입니다) 따라서 메모리가 걱정된다면 밉맵을 끌 수도 있습니다. 유니티에서는 기본적으로 텍스쳐가 밉맵을 사용하도록 설정됩니다. 밉맵을 끄려면 텍스쳐별로 밉맵을 사용 안하도록 설정해줘야합니다. 텍스쳐 타입을 Advanced로 두고 Generate Mip Maps를 해제하면 됩니다. 


하지만 3D 게임에서는 특수한 상황이 아니고서는 밉맵을 끄는 것을 권장하지는 않습니다. 성능 문제도 있거니와 지글거림이 발생하여서 시각적인 문제도 발생합니다. ( 반대로 2D 게임에서는 뭉개져보이는 시각적인 문제로 밉맵을 꺼주는 것이 좋을 수도 있습니다.)

이미지 출처 : http://www.tomshardware.com/reviews/ati,819-2.html



필터링


밉맵을 이야기하면 필터링도 함께 이야기 하게될 수 밖에 없습니다. 텍스쳐 필터링은 텍스쳐 설정의 filter mode에서 변경할 수 있습니다.

  • 포인트(Point) : 필터링을 하지 않습니다. 따라서 픽셀이 블럭으로 깨져보이게 됩니다.

  • 바이리니어(Bilinear) : 텍스쳐가 필터링 됩니다. 확대필터와 축소필터 모두 적용 됩니다. 즉 원래 텍스쳐보다 확대되서 그려지든 작게 그려지든 필터링이 되는 것입니다. 

  • 트라이리니어(Trilinear) : 바이리니어가 기본적으로 작동하고, 추가적으로 밉맵 레벨이 바뀌는 구간도 필터링이 됩니다.

바이리니어와 트라이니리어간의 차이점은 밉맵 레벨이 바뀌는 구간이 필터링 되냐 아니냐의 차이입니다. 트라이리니어로 설정하면 밉맵 레벨이 바뀌는 구간도 부드러워집니다. 따라서, 바닥같은데서 시각적으로 자연스러운 렌더링이 되려면 트라이리니어를 사용해야합니다.

이미지 출처 : http://www.tomshardware.com/reviews/ati,819-4.html

또한, Anisotropic filtering을 적용하면 더욱 좋은 품질을 얻을 수 있습니다. Anisotropic은 면의 기울기를 필터링에 반영하기때문에 바닥이나 벽 등에 사용하면 좋습니다. 텍스쳐 인트펙터에서 Aniso Level을 2 이상으로 설정하면 필터링이 적용됩니다. 숫자가 높을수록 필터링이 강하게 작용하고 성능도 그만큼 필요로하게됩니다.

이미지 출처 : http://www.gamespot.com/forums/system-wars-314159282/df-issue-with-blurry-console-texture-filtering-32700608/


다만 이들은 디바이스마다 지원 여부가 다릅니다. 특히, anisotropic 필터링은 많은 기기들에서 사용이 불가능합니다. 유니티를 실행 시 로그캣으로 확인해보면 다음과 같이 기기에서 지원하는 GL 익스텐션 목록들이 출력됩니다.

ex > GL_EXT_debug_marker GL_ARM_rgba8 GL_ARM_mali_shader_binary GL_OES_depth24 GL_OES_depth_texture GL_OES_depth_texture_cube_map GL_OES_packed_depth_stencil GL_OES_rgb8_rgba8 GL_EXT_read_format_bgra GL_OES_compressed_paletted_texture GL_OES_compressed_ETC1_RGB8_texture ...

이 목록 중 "GL_EXT_texture_filter_anisotropic" 항목이 없으면 해당 기기에서 anisotropic 필터링을 지원하지 않는 것입니다.

다만, 텍스쳐 임포트 셋팅에서 aniso level을 설정해놓아도 기기에서 지원하지 않으면 작동하지 않으므로 비정상 작동하거나 하지는 않습니다. 설정을 굳이 1로 돌려놓지 않으셔도 무방합니다. 트라이리니어 역시 마찬가지로 기기에서 지원하지 않는다면 바이리니어로 작동하므로 트라이리니어로 두셔도 비정상 작동하거나 하지는 않습니다.


밉맵 바이어스


낮은 밉맵 단계가 흐려보이는 것이 거슬린다면 낮은 밉맵 단계가 적용되는 기준을 조절해줄 수도 있습니다. 물론 성능 문제상 추천되는 방법은 아닙니다만 밉맵 바이어스를 건드리면 밉맵 레벨이 바뀌는 기준을 바꿔주실 수도 있습니다. 다만, OpenGLES에서는 작동하지 않습니다.

http://docs.unity3d.com/ScriptReference/Texture-mipMapBias.html

따라서 이 기능과 같은 결과를 만들어내시려면 쉐이더에서 건드려주시면 됩니다. tex2D함수 대신 tex2Dbias를 사용하시면 됩니다. 자세한 내용은 대마왕님의 블로그를 참고하세요 :

http://chulin28ho.tistory.com/258

다만 이 역시 기기에서 지원을 해줘야합니다. GL익스텐션 목록에 EXT_shader_texture_lod가 있다면 지원 되는 것입니다.




Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

유니티의 UI 관련하여 빈번하게 문의들어오는 것 중 하나가 UI와 3D 오브젝트들의 위치 관계에 관한 것입니다. 

일반적인 UI는 게임 씬 위에 덧그려지는 방식으로 만들어집니다. 기본적으로 유니티에서 UI 컴포넌트를 생성하면 3D 오브젝트들을 렌더링 후 UI를 렌더링 하게 됩니다. 기본적으로 이러한 방식으로 UI가 화면에 덧그려지게 되지요.

하지만 인게임 말고 로비나 생성창 등에서 UI 위에 파티클을 그린다거나 UI와 UI 사이에 케릭터를 그리는 등의 상황도 필요합니다. 이러한 구성은 어떻게 하는지 문의가 자주 들어오곤 합니다. 

구성 방법이야 여러가지가 있을 수 있겠지만, 우선은 캔버스의 렌더 모드를 스크린스페이스-카메라로 사용해주면 됩니다. 기본으로 캔버스를 생성하면 렌더 모드가 스크린스페이스-오버레이인데, 이는 씬 렌더 후 화면에 덮어서 그리는 UI를 의미합니다. 스크린스페이스-카메라는 캔버스의 깊이를 설정할 수 있어서 3D 오브젝트와의 깊이 관계를 설정할 수가 있습니다. 따라서, 위 화면과 같이 케릭터 배경 창이 있고 케릭터 위에 버튼을 그리고자 하는 경우라면, 깊이가 다른 각각의 두 캔버스를 스크린스페이스-카메라 렌더모드로 만들고, 각각의 캔버스의 평면 거리(plane distance)를 적절한 깊이로 설정한 다음, 사이에 3d 오브젝트를 배치하면 다중 UI 깊이에 대해서 렌더링을 할 수 있습니다.

샘플 프로젝트를 올려두었으니 이를 참고해보시면 도움 되실 것이라 생각합니다 : https://drive.google.com/a/unity3d.com/file/d/0B70AOyGiQJsGT3dDRW9uUldOeTg/view?usp=sharing



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

제 개인적인 생각으로는 물리기반렌더링(Physically Based Rendering/Shading, 이하 PBR,PBS)이 2016년 국내 게임 시장의 중요 키워드 중 하나가 아닐까 생각합니다.  모바일 기기의 성능들이 많이 발전하고 특히 국내에는 고사양 폰의 보급률이 높아짐에 따라 모바일에서도 PBR을 사용하는 움직임들이 많이 보이고 있습니다. 유니티에서는 스탠다드(Standard) 쉐이더를 통해서 PBR을 처리해주고 있습니다. 이 스탠다드 쉐이더는 유니티5에 적용된 인라이튼(Enlighten)과 연동하여 실시간 GI(Global Illumination) 및 물리 기반 라이팅을 표현해줌으로써 더욱 사실적이고 멋진 그래픽을 표현할 수 있도록 해줍니다. 

하지만 PBS는 복잡한 연산을 거쳐서 빛을 표현해주어야 하다보니 성능을 크게 잡아먹습니다. 물론 게임에서는 이를 나름 간략화 시켜서 사용하고, 유니티 역시 스탠다드 쉐이더에 이를 최적화하여 적용합니다. 또한, PC에서 수행하면 PC용 모드의 스탠다드 쉐이더로 수행되고 모바일 기기에서 수행하면 모바일용으로 더 최적화된 모드의 스탠다드 쉐이더로 수행됩니다. 이 역시 버전을 거듭할 수록 계속 최적화가 진행중입니다. 하지만, 기본적으로 연산 자체가 복잡하기 때문에 씬 전체를 스탠다드 쉐이더로 사용하는 것은 아이폰5, 아이패드에어, 넥서스9 급 이상의 하이엔드 기기를 타겟으로 사용하는 경우에만 권장합니다.

고사양 기기가 많이 보급되어 있긴 하지만 아직도 저사양 폰들이 시장에 많이 존재합니다. 이러한 기기들에서는 씬 전체를 스탠다드 쉐이더로 그리는 것은 무리입니다. 하지만, 스탠다드 쉐이더를 부분적으로만 사용한다면 충분히 보급형 기기에서도 이를 활용 할 수도 있습니다. 예를 들어, 케릭터에게만 스탠다드 쉐이더를 사용하고 배경에는 다른 가벼운 쉐이더를 사용하는 것입니다. 다음 이미지에서는 그러한 예시를 보여주고 있습니다. 로보트들과 드론들에게는 스탠다드 쉐이더를 사용하였고 배경에는 Mobile/Unlit (Supports Lightmap) 쉐이더를 사용하였습니다. 갤럭시 S3에서 60 이상의 FPS로 렌더링 되고 있습니다. 데모를 구글플레이에 올려두었습니다. 다운로드 받아서 확인 가능하십니다. 

링크 : https://play.google.com/store/apps/details?id=com.ozproject.demo2

사용 에셋 : Armored Golem, Sci-fi Flying Droid, Mech Robot Sci-fi, Orbital Reentry Craft - No Interior ( 제가 아트감각이라고는 빵점인 공돌이라 비쥬얼 퀄리티가 좋지 못한 점 너른 양해 부탁드립니다;; )

또한, 저사양 기기에서 스탠다드 쉐이더를 사용하기 위해서는 텍스쳐 슬롯을 가능한 아껴주는 것이 좋습니다. 사용되지 않는 텍스쳐 슬롯은 스탠다스 쉐이더가 알아서 연산을 건너뜀으로써 성능을 절약하 수 있습니다.

예를 들어 다음 우주선은 Emission 맵을 사용하지 않았습니다.

드론에게는 노말맵을 사용하지 않았습니다.

골렘 로보트에게는 Metallic맵을 사용하지 않고 수치로써 단순하게 적용하였습니다.


이러한 식으로 스탠다드 쉐이더를 선택적으로 사용하고 파라미터를 절약한다면 저사양 기기에서도 충분히 스탠다드 쉐이더를 통한 PBR을 사용할 수 있습니다. 감사합니다.


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.


들어가며

유니티에서 안드로이드 타겟으로 개발하면 텍스쳐 압축을 ETC로 사용하게 됩니다. 기존에는 텍스쳐의 기본 압축 포맷이 ETC1이였는데, 최근 5.2.0부터는 RGBA 텍스쳐의 압축 포맷이 ETC2.0으로 바뀌게 되었습니다. 텍스쳐 포맷을 compressed로 두면 내부적으로는 ETC2를 사용하도록 되는 것입니다. 그래서 그런지 ETC 포맷에 관한 문의가 빈번하게 들어오고 있습니다. 그래서, 잘 오해할 수 있는 부분을 정리해드리고자 합니다.


Open GL ES 버전 & ECT 포맷 버전

ETC2 압축 포맷은 ETC1가 확장 및 개선된 포맷입니다. 때문에, 가능하다면 ETC1보다는 ETC2를 사용하는 것이 당연히 좋습니다. (참고로, DXT1, DTX3, DXT5는 이야기가 다릅니다. 서로 품질과 크기의 조율 선택 사항입니다.) 다만 문제는 ETC2는 Open GL ES 3.0 이상에서만 지원됩니다. 갤럭시 S3 이하 등의 구형 기종에서는 Open GL ES 2.0으로 돌아가기 때문에 ETC2를 사용하는 것이 불가능합니다.


Open GL ES 2.0 기기에서의 ETC2 사용

하지만 막상 유니티에서 텍스쳐 포맷을 ETC2로 두고 Open GS ES 2.0 기기에서 구동을 해봐도 텍스쳐가 정상적으로 그려집니다. ETC2가 Open GL ES 2.0에서는 지원이 되지 않기때문에 텍스쳐가 그려지지 않아야 될 것으로 생각되서 혼란스러우실 수도 있겟습니다. 

이미지 출처 : http://chulin28ho.tistory.com/

사실, 기기에서 지원되지 않는 텍스쳐 압축을 사용하는 경우, 텍스처는 비압축 RGBA 32 형식으로 압축된 텍스처와 함께 메모리에 저장됩니다. 따라서 이러한 경우에는 텍스처 압축을 푸는 만큼 불필요한 계산 시간이 발생하게 되며 메모리 공간도 두 배로 필요해집니다. 이것 또한 렌더링 성능에 심각한 악영향을 미칩니다.

설명이 좀 애매하긴 한데 예를 들자면, OpenGL ES 2.0 기기에 ETC2 포맷을 사용하면 작동하는데에는 문제가 없지만 성능상 효율이 떨어지게 됩니다. 왜냐하면 ES 2.0 기기는 ETC2를 지원하지 않기 때문에 32비트x폭x높이 + 원래의 ETC2 사이즈 만큼의 메모리가 늘어나서 압축 지원도 못받으면서 메모리만 늘어나게 되기 때문입니다. 또한 로딩 타임에 텍스쳐를 소프트웨어적으로 압축을 푸는 시간도 추가됩니다.


ETC2의 ETC1 하위 호환성

ETC2는 ETC1의 하위 호환성을 보유하고 있습니다. 때문에 Open GL ES 2.0에서도 ETC2를 읽을 수 있는 것으로 알고 계시는 분도 간혹 계십니다. 충분히 오해할만 하지만, ETC2가 ETC1 하위 호환을 포함한다는 것은 기기에서 ETC1을 ETC2처럼 취급할 수 있다는 것일 뿐입니다. 앞서 말씀드린대로 유니티에서는 ETC2를 ES2.0 기기에서 올리면 23bit RGBA로 사용됩니다. 


알파 유무의 차이

안드로이드 텍스쳐 압축의 기본 값이 ETC2 로 바뀌었습니다만 모든 텍스쳐가 ETC2로 기본 설정 되는 것은 아닙니다. ETC2가 기본이 되는 것은 RGBA 텍스쳐(즉, 알파를 포함하는)입니다. ETC2는 ETC1과는 달리 알파 채널을 포함할 수 있기 때문입니다. RGB만 존재하는(즉, 알파채널이 없는) 텍스쳐의 기본 압축 포맷은 여전히 ETC1입니다. RGB 텍스쳐를 ETC로 사용하기를 원하시면 Texture Type을 Advanced 로 변경 후 Format 설정을 바꿔주셔야 합니다. 

릴리즈 노트에서 언급한 포맷 기본값이 바뀌었다는 내용은 RGBA 텍스쳐에 해당하는 내용입니다. 기존에는 16bit RGBA였는데 이 것이 ETC2로 바뀌었다는 것입니다. 릴리즈 노트가 부실해서 충분히 오해의 소지가 있을 것 같습니다. (아직 매뉴얼 페이지에는 이 내용이 갱신되지 않은 것 같습니다. 사람 사는데가 다 똑같죠 뭐 헤헤 양해좀 굽신굽신)


Open GL ES 2.0에서의 RGBA 텍스쳐

하지만 그렇다고 Open GL ES 2.0에서 RGBA 텍스쳐를 사용하려면 RGBA 16비트 혹은 RGBA32비트만 사용하여야 하는 것은 아닙니다. Compress using ETC1(split alpha channel)을 선택하면 원본의 RGBA가 유니티 내부적으로 두 개의 ETC1으로 갈라서 하나는 RGB, 다른 하나는 알파 채널 정보를 담는게됩니다. 그럼으로써 ETC2를 사용하지 않고도 알파 채널을 사용할 수 있는 꼼수를 부립니다.

다만, 이렇게 되면 실제로는 2 개의 텍스쳐 슬롯이므로 쉐이더에서도 텍스쳐 레지스터를 두 개를 차지하게 됩니다. 예를 들자면 내장(bult-in)쉐이더 중 Sprite-Diffuse.shader를 살펴보면 다음과 같이 메인 텍스쳐를 읽은 뒤 _AlphaSplitEnabled 조건이라면 알파 채널을 별도로 한번 더 읽는 것을 확인 가능합니다.

fixed4 SampleSpriteTexture (float2 uv)

{

fixed4 color = tex2D (_MainTex, uv);

#if UNITY_TEXTURE_ALPHASPLIT_ALLOWED

if (_AlphaSplitEnabled)

color.a = tex2D (_AlphaTex, uv).r;

#endif //UNITY_TEXTURE_ALPHASPLIT_ALLOWED

return color;

}

단, 이 기능은 현재 릴리즈된 버전에는 스프라이트에 쓰이는 경우에만 작동하고 있으며 차츰 사용처를 확대해나가는 작업이 진행 중입니다.


ETC1이냐 ETC2냐 그것이 문제로다

“어쩌라는거야 그럼 ETC1 쓰라는거야 ETC2 쓰라는거야?” 이쯤 되면 이러한 질문이 나오시게 될 것입니다 :) 저도 사실 여기에 대한 명쾌한 답변을 드릴 수는 없습니다. ES 3.0지원 기기의 점유율이 증가하고 있는 추세긴 하지만 아직까지는 ES 2.0 지원 기기들의 점유율이 더 높은 상태기 때문입니다. (RGB 텍스쳐의 압축 기본 포맷은 ETC1으로 유지하는 이유이기도 합니다.) 이는 유니티 하드웨어 스탯 사이트에서 확인 가능합니다. 

다만, ETC2를 사용하면 그 만큼 더 메모리를 절약하고 더 높은 퀄리티를 낼 수 있는 것은 자명한 일입니다. 때문에 제 개인적인 생각으로는 주 타켓 기기를 무엇으로 삼냐에 따라 선택을 달리해야 할 것 같습니다. 물론, 보급형 기기를 타겟으로 하는 가벼운 게임이라면 ETC1을 포기해서는 안될 것입니다. 하지만, 고퀄리티 고성능 기기 게임이라면 ETC2를 사용하고 ES 2.0 기종에서는 낭비되는 메모리만큼 다른 부분에서의 품질을 과감히 포기하는 방향도 그리 나쁜 선택만은 아닐 것입니다. 참고로, SystemInfo.graphicsDeviceVersion를 통해 ES 버전을 확인 가능하고 QualitySettings.SetQualityLevel를 통해서 퀄리티 변경이 가능합니다.


SA

다음 링크들을 같이 참고해보시면 더 추가적인 정보들을 확인 하실 수 있을 것입니다:



더 많은 내용은 "유니티 그래픽스 최적화 스타트업"을 참고하세요

Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.


들어가며

물리기반렌더링( Physically based rendering, PBR, Physically based shading, PBS, 이하 PBR, PBS)이라는 키워드가 떠오른 것은 꽤 오래 되었고 이미 PC나 콘솔에서는 널리 적용되었습니다. 최근 출시한 메탈기어솔리드5는 그 정점을 보여주고 있습니다.

하지만, 모바일이 주력 시장인 국내 게임 시장에서는 관심 밖이였지요. 하지만 최근들어 국내에서도 PBR에 대한 관심이 많아지고 있습니다. 이러한 관심의 가장 큰 이유는 모바일 하드웨어의 성능 발전일 것입니다. PBR이 기본적으로 소모하는 비용을 충분히 감당한 만큼의 성능을 내는 기기들이 보편화 되고 있는 것입니다. 비단 최신 기종이 아니더라도 캐릭터에게만 PBS를 사용하는 등 부분적으로만 사용하여 성능을 절약할 수도 있습니다. 하지만, PBS 쉐이더를 사용하지 않고도 PBS 느낌을 낼 수 있다면 더욱 많은 성능을 절약할 수 있을것입니다. 물론, 초실사 렌더링을 지향하는 게임이라면 100% PBS로 렌더링을 해야겠지요. 하지만 대부분의 모바일 게임들은 그렇지가 않습니다. 근래의 모바일 게임에서 PBS사용하고자 함은 좀 더 멋진 그래픽을 표현하고자 함이 주 목적일일 뿐이지 꼭 물리적으로 정확한 그래픽을 표현하고자 함이 주 목적은 아니라고 생각합니다. 특히, 그 초점은 금속 재질 표현에 맞춰져 있습니다. 비 금속 재질보다는 금속 재질에 촛점을 맞춰서 금속 부분과 금속이 아닌 부분을 함께 표현하고자 함이 목적인 것으로 생각됩니다. 

이러한 관점을 기준으로 느낌을 내는 쉐이더를 만져보보았습니다. 그 결과물인 PBR 대응 머티리얼 텍스쳐들을 그대로 사용하는 가벼운 쉐이더를 소개해드릴까 합니다. MatCap 쉐이더에 Metallic factor를 적용해서 PBS같은 느낌을 내는 방식입니다. 다음 스크린샷 이미지에서 렌더링 되고 있는 케릭터와 발판은 PBR 대응으로 만들어진 텍스쳐들을 그대로 사용하고 있으며 실시간 라이팅이 아닌 MatCap 텍스쳐 기반으로 처리되어있습니다. 데모를 구글 플레이스토어에 올려놓았으므로 기기에 설치하여 확인해보실 수 있습니다. 

다운로드 링크 : https://play.google.com/store/apps/details?id=com.ozproject.demo1



MatCap 쉐이더

우선, MatCap 쉐이더를 기반으로 하고 있으므로 MatCap 쉐이더에 대해 간략하게 설명을 드리도록 하겠습니다. MatCap 쉐이더는 모바일에서 유용하게 사용할 수 있는 이미지 기반 라이팅 중 하나입니다. MatCap은 Material Capture의 약자인데, Material Capture는 현실 세계의 라이팅을 수집해서 캡쳐하기 위한 구체를 의미합니다. 보통 CG 영상이나 이미지에서 실사 렌더링을 위한 라이팅 참고 자료로 사용하기 위한 용도로 만들어집니다.

MatCap 쉐이더는 이러한 Material Capture를 그대로 텍스쳐(이를 MatCap 텍스쳐라 부릅니다)로 만들어서 라이팅 결과로 활용하는 것입니다. 이를 이용하면 재질에 따른 라이팅을 미리 텍스쳐로 만들어놓기 때문에 실시간으로 라이팅 연산을 않고도 실사적인 라이팅을 처리할 수 있습니다. 

출처 : https://shaderforge.userecho.com/topic/416166-it_matrix/

MatCap 쉐이더는 유니티에 내장된 쉐이더는 아니지만 구글링이나 유니티 에셋스토어에서 쉽게 구할 수 있습니다. 이 글에서 소개하고자 하는 쉐이더는 에셋스토어에 있는 MatCap 쉐이더를 기반으로 작업하였습니다. 쉐이더 링크 : https://www.assetstore.unity3d.com/en/#!/content/8221


Metallic

PBS에서의 특징중 하나는 금속과 비금속을 수치로 표현하는 것입니다. 빛이 사물에 닿으면 일부는 흡수되었다가 방출되고 나머지는 바로 반사되 튕겨나갑니다. 이 중 흡수되었다가 방출출되는 빛이 일반적으로 말하는 디퓨즈 영역이고 바로 튕겨나가는 빛이 일반적으로 말하는 스페큘라 영역이 되는 것입니다.

금속은 빛이 닿으면 이러한 디퓨즈 영역이 없이 완전 반사가 일어납니다. 즉, 표면이 금속에 가까울수록 반사의 비중이 높고 금속이 아닌 비전도체에 가까울 수록 디퓨즈의 비중이 높아집니다. 

이미지 출처 : http://docs.unity3d.com/kr/current/Manual/StandardShaderMaterialCharts.html

PBS 머리티얼에서는 이를 반영하여 얼마나 금속에 가까운지의 정도를 나타내는 Metallic 텍스쳐를 사용합니다.

기존의 MatCap 쉐이더는 MatCap 텍스쳐를 한 장만 사용합니다. 이를 Metallic 텍스쳐를 사용하기 위해서 MatCap 텍스쳐를 두 장을 사용하도록 변경해줍니다. 금속성이 0인 경우의 MatCap 텍스쳐와 완전 금속인 경우의 MatCap 두 개의 MatCap을 사용하여 Metallic에 따라 비중을 반영해주면 되는 것입니다. 


파라미터

또한, AO맵 역시 반영해주어야합니다. AO는 빛이 차폐되는 정도를 나타내주는 것이므로 라이팅 연산 최종 단계에서 곱해주는 것으로 간단히 처리 해주면 됩니다. Emissive는 발광하는 부분이므로 라이팅 연산 최종 단계에서 더해주는 것으로 간단히 처리 해주면 됩니다. 최종적인 파라미터들은 다음과 같습니다.

코드

쉐이더 코드는 다음과 같습니다. 데모에 쓰인 리소스는 에셋스토어에서 유료로 판매되고 있는 리소스이므로 프로젝트를 공유드리지 못하는 점 양해 바랍니다. 

Shader "MatCap/Bumped/Textured Metalic" {

Properties {

_MainTex ("Base (RGB)", 2D) = "white" {}

_AOMap ("AO (RGB)", 2D) = "white" {}

_AOFactor ("AO Factor" , Range(0.0,2.0)) =1.0

_BumpMap ("Normal Map", 2D) = "bump" {}

_MetalicMap ("Metallic (RGB)", 2D) = "white" {}

_MetalicMultiply ("Metallic Multiply" , Range(0.0,10.0)) =1.0

_EmissiveTex ("Emissive (RGB)", 2D) = "black" {}

_EmissiveMultiply ("Emissive Multiply" , Range(0.0,10.0)) =1.0

_MatCapDiffuse ("MatCap Diffuse (RGB)", 2D) = "white" {}

_MatCapReflect ("MatCap Reflect (RGB)", 2D) = "white" {}

_MatCapReflectMultiply ("MatCap Reflect Multiply" , Range(0.0,10.0)) =1.0

}

Subshader {

Tags { "RenderType"="Opaque" }

Pass {

Tags { "LightMode" = "Always" }

CGPROGRAM

#pragma vertex vert

#pragma fragment frag

#pragma fragmentoption ARB_precision_hint_fastest

#include "UnityCG.cginc"

struct v2f {

float4 pos : SV_POSITION;

float4 uv : TEXCOORD0;

float3 c0 : TEXCOORD1;

float3 c1 : TEXCOORD2;

};

uniform float4 _MainTex_ST;

uniform float4 _BumpMap_ST;

v2f vert (appdata_tan v) {

v2f o;

o.pos = mul (UNITY_MATRIX_MVP, v.vertex);

o.uv.xy = TRANSFORM_TEX(v.texcoord, _MainTex);

o.uv.zw = TRANSFORM_TEX(v.texcoord, _BumpMap);

float3 n = normalize(v.normal).xyz;

float3 t = normalize(v.tangent).xyz;

float3 b = normalize(cross( n, t ) * v.tangent.w);

float3x3 rotation = float3x3( t, b, n );

o.c0 = mul(rotation, normalize(UNITY_MATRIX_IT_MV[0].xyz));

o.c1 = mul(rotation, normalize(UNITY_MATRIX_IT_MV[1].xyz));

return o;

}

uniform sampler2D _MainTex;

uniform sampler2D _BumpMap;

uniform sampler2D _AOMap;

uniform sampler2D _MetalicMap;

uniform sampler2D _MatCapDiffuse;

uniform sampler2D _MatCapReflect;

uniform sampler2D _EmissiveTex;

uniform float _MatCapReflectMultiply;

uniform float _AOFactor;

uniform float _EmissiveMultiply;

uniform float _MetalicMultiply;

fixed4 frag (v2f i) : COLOR {

fixed4 tex = tex2D(_MainTex, i.uv.xy);

fixed4 ao = tex2D(_AOMap, i.uv.xy);

fixed4 metalic = tex2D(_MetalicMap, i.uv.xy);

fixed4 si = tex2D(_EmissiveTex, i.uv.xy);

fixed3 normals = UnpackNormal(tex2D(_BumpMap, i.uv.zw));

half2 capCoord = half2(dot(i.c0, normals), dot(i.c1, normals));

fixed4 diff = tex2D(_MatCapDiffuse, capCoord*0.5+0.5) * tex;

fixed4 refl = tex2D(_MatCapReflect, capCoord*0.5+0.5);

refl.a = 1;

refl *= _MatCapReflectMultiply;


fixed4 ret = lerp( diff, refl, saturate(float4(metalic.rgb * _MetalicMultiply,1)));

return ret * lerp( 1, ao, _AOFactor) + si * _EmissiveMultiply;

}

ENDCG

}

}

Fallback "VertexLit"

}


한계

간단한 쉐이더다보니 많은 한계점을 가지고있습니다. 보시다시피 이는 정확한 PBS는 아닙니다. 많은 부분들이 생략되어 있고 라이팅 재질 느낌은 전적으로 MatCap 텍스쳐에 의지하고 있습니다. 때문에, MatCap 텍스쳐를 어떤 것으로 사용하느냐에 따라 품질이 크게 좌우됩니다. 또한, 씬 별로 라이팅이 다르다면 씬 별로 MatCap 텍스쳐를 만들어 줘야 합니다. MatCap 텍스쳐를 어떻게 만드냐에 따라 결과가 달라질 것입니다. 

MatCap 방식은 한 쪽에서 바라보는 라이팅만 표현이 가능하기 때문에 카메라 각도가 고정되어 있는 경우에만 유효하다는 제약이 있습니다.그러나, 대부분의 모바일 게임들은 탑 뷰(Top View), 쿼터 뷰(Quarter View), 백 뷰(Back View) 등 카메라의 방향이 고정된 채로 게임이 진행되는 경우가 대부분이므로 모바일서는 큰 제약 사항이 되지는 않을 것입니다.



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.


Unity 5.3 릴리즈는 WebGL를 지원하는 네번째 버전입니다. 5.0에서부터 WebGL을 프리뷰(Preview)로 처음 탑재하고 난 이후에 수 많은 사항들이 개선되어 왔습니다. 몇 가지 사항들을 공유드리고자 합니다. 이 글은 유니티 공식 블로그의 UNITY 5.3 WEBGL UPDATES를 번역 및 요약한 글입니다. 정확한 내용을 원하신다면 원문을 읽어보시길 바랍니다.


5.3에서의 바뀐 점

  • WebGL에서 스탠다드쉐이더가 데스크탑 퀄리티의 리플렉션을 사용합니다. 기존에는 유니티 WebGL은 OpenGL 2.0을 사용하는 모바일용으로 간략화된 버전의 스탠다드 쉐이더를 사용했었습니다. 이제는 데스크톱과 동일한 리플렉션을 사용하여 고품질의 재질 결과를 표현해줍니다.
  • 부드러운 그림자(Soft Shadow)를 지원합니다.
  • 귀하의 서버가 설정이 되어 있지 않더라도 유니티 WebGL은 압축을 지원합니다.기존에는 WebGL은 gzip 압축된 파일을 제공하기 위해서는 서버에 셋팅이 필요했습니다. 그렇지 않으면 압축되지 않은 데이터를 사용하여 긴 시간의 다운로드가 필요했습니다. 하지만 이제는 유니티의 WebGL은 자동적으로 gzip 압축된 데이터를 제공합니다. 이는 클라이언트단의 자바스크립트에서 압축 해제를 수행합니다. 이로 인해 압축 처리 딜레이가 조금 발생하긴 하지만 거대한 다운로드 시간을 피할 수 있습니다. 배포 사이즈에 대한 자세한 내용은 이 문서를 참고 바랍니다.
  • 데이터 파일이 LZ4 압축 상태로 메모리에 존재합니다. 유니티 5.3에서는 에셋 데이터가 메모리에 LZ4 압축된 상태로 메모리에 올라갑니다. 에셋이 로드 될 때에만 압축이 해제됩니다. 이는 에셋 데이터가 적은 메모리를 차지해서 메모리 낭비될 일이 적어짐을 의미합니다.
  • WebGL 빌드 파일을 다른 url로 이전하는 것이 쉬워졌습니다. 빌드 프로세스 과정에서 생성되는 파일들은 index.html에 의해 참조됩니다. 이로인해 빌드 데이터를 외부 호스팅 솔루션으로 배치하는 것이 쉬워졌습니다. 빌드 아웃풋 파일 이전의 자세한 내용은 이 문서를 참고 바랍니다.
  • 웹캠을 지원합니다. 5.3에 WebCamTexture 클래스가 추가되었습니다. 이는 getUserMedia API를 지원하는 브라우저에서 사용 가능합니다. 
  • WebGL이 유니티 클라우드 빌드가 가능합니다.
  • 문서들을 개선하였습니다. 5.3을 위해서 WebGL 문서가 대폭 개선되어 많은 정보들이 추가되었습니다.
  • 수 많은 버그들이 수정되었습니다. 5.3에서는 5.2에 비해 28개의 WebGL 버그가 수정되었습니다. 외에도 WebGL에서 간접적으로 영향을 주는 수 많은 버그들이 수정되었습니다. 또한, 5.2.x 패치 릴리즈 사이클 동안 수정된 WebGL 버그 수정 사항들이 포함되어 있습니다.


WebGL이 공식 지원 타겟이 되었습니다.

WebGL은 공식 지원하지 않는 프리뷰(Preview) 상태였습니다. 5.3부터는 WebGL에서 프리뷰 레이블을 제거하고 공식 지원 대상이 되었습니다. 따라서, 프리미엄 서포트 및 엔터프라이즈 서포트는 WebGL을 커버합니다.

5.0에서 WebGL이 탑재되고나서 5.3까지 오면서 시간이 꽤 지났고 시간이 지날 수록 브라우저 기술도 발전해왔습니다. 예를 들어 마이크로소프트는 새로운 브라우저인 엣지를 윈도우즈10에 탑재하고, 이 브라우저는 asm.js를 지원함으로써 익스플로러 11에서는 불가능했던 컨텐츠들을 지원할 수 있게 되었습니다. 

그간 WebGL이 많은 개선이 되었긴 했지만 갑자기 모든 기능들이 WebGL에서 잘 동작한다는 의미는 아닙니다. 또한, 네이티브 빌드만큼의 성능이 나온다거나 모든 브라우저에서 아무 문제 없이 동작한다는 것은 아닙니다. 시간이 지남에 따라 개선은 계속 이루어 질 것이며 지금 시점에서는 공식 지원을 시작하기 적절한 시기인 것으로 판단한 것입니다. 현재의 작업 상태와 제한 상황을 문서에 명시하였으므로 이를 참고 바랍니다.


브라우저 제조사들과의 작업

유니티의 WebGL은 브라우저가 제공하는 웹 기술에 의존적일 수 밖에 없습니다. 주요 브라우저 제조사들과 긴밀하게 작업을 하고 있으며, 이들은 빠른 속도로 기술을 발전시키고 있습니다. 모질라의 파이어폭스, 마이크로 소프트의 엣지, 구글의 크롬 등의 주요 브라우저들과 유니티의 호환 작업이 지속적으로 이루어지고 있어서 빠른 속도로 개선이 되고 있습니다.


시도해보세요!

WebGL로의 익스포트는 웹 게이밍의 미래라고 믿고 있습니다. 귀하의 게임을 유니티의 WebGL로 배포해보십시요. Heroes Of Paragon, Spider Box, Big Buck Hunter 등 이미 몇 개의 사례들이 있습니다. (역주 : 씨발 애석하게도 이 예시들의 게임은 망할 게등위(게임산업진흥에관한법률)때문에 국내에서는 플레이가 불가능합니다.시작하기 위해서는 다음 절차를 따르십시요. 



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.


쉐이더를 작성하다보면 텍스쳐를 많이 사용하는 기능을 만들 때도 있습니다. 대표적인게 바로 지형 스플래팅이죠. (유니티의 터레인은 아무도 쓰지 않는다는 슬픈 전설이...) 스플래팅의 개념을 모르시는 분든을 위해서 간략히 설명 드리자면, 스플래팅은 여러 텍스쳐를 서로 블렌딩해서 표현해주는 방식을 뜻합니다. 이렇게 하게 되면 작은 크기의 텍스쳐들을 가지고도 넓은 지역을 표현해줄 수가 있어서 텍스쳐 메모리를 상당히 절약할 수 있게 됩니다. 

이미지 출처 : http://blog.naver.com/sorkelf/40151055590

예전에 GPU의 쉐이더 성능이 좋지 않은 시절에는 이러한 스플래팅을 처리하기위해 여러번 덧그리는 멀티 패스로 구현해야만 했습니다. 하지만 요즘은 쉐이더에서 여러장의 텍스쳐를 한번에 읽어서 싱글 패스로 처리할 수가 있습니다. 하지만 문제는 쉐이더에서 한번에 읽을 수 있는 텍스쳐의 갯수가 제한 되어 있다는 것입니다. 만일 쉐이더에서 너무 많은 쉐이더를 샘플링 하면 원하는대로 작동하지 않게 됩니다. 근데, 이 현상이 인지하기 쉽지도 않습니다. 쉐이더 컴파일 오류가 나는 것 도 아니고 오브젝트가 보라색으로 칠해지는 것 도 아니도 그냥 몇 개의 텍스쳐가 읽히지 않고 무시되어 버립니다. 이러한 현상은 OpenGL에서 제한하는 텍스쳐 수가 다르기 때문입니다. OpenGL 공식 스펙에 이러한 숫자가 정해져 있긴 하지만 디바이스마다도 또한 차이가 발생합니다. 때문에컴파일 단계에서 이러한 제한을 탐지할 방법이 없습니다. 그러다보니 실제 렌더링 과정에서 텍스쳐 샘플링 갯수 제한을 넘게 되면 더 이상의 텍스쳐 샘플링은 무시가 되고 렌더링이 되는 것입니다.

OpenGL에서 쉐이더에서 한번에 샘플링 할 수 있는 텍스쳐 갯수는 MAX_TEXTURE_IMAGE_UNITS로 정의 되어 있습니다. (유니티에서 확인해볼 수 있는 수치는 아닙니다.)이를 문서에서 확인해보면 ES2는 8, ES3에서는 16으로 나옵니다. 즉, OpenGL ES2에서는 쉐이더에서 한번에 최대 8개의 텍스쳐를 사용할 수 있고, OpenGL ES3에서는 쉐이더에서 한번에 최대 16개의 텍스쳐를 샘플링 할 수 있다는 말이 됩니다. (물론 이 값은 특정 디바이스에서는 다른 값일 수도 있습니다.)

이미지 출처 : iOS 개발자 라이브러리

그렇다고 쉐이더이 인스펙터에 텍스쳐 슬롯을 8개 만들면 정상적으로 쓸 수 있다는 말은 또 아닙니다. 유니티는 서피스 쉐이더로 작성하고나면 유니티는 자동적으로 추가적인 정보들을 처리해줍니다. 그러는 과정에서 유니티에서 사용하는 텍스쳐가 추가적으로 쓰일 수 있습니다. 이는 쉐이더의 variant에 따라서 다르므로 완성된 코드를 확인하여야 합니다. 쉐이터를 선택 후 인스펙터에서 Compile and show code를 선택합니다. 

그러면 유니티가 서피스 쉐이더를 기반으로 추가적인 코드들과 variant들을 만들어내어 완성한 후 최종 컴파일에 사용한 코드를 보여줍니다. 코드를 확인해보면 각각의 variant에 따른 사용 텍스쳐 갯수를 주석으로 확인해볼 수 있습니다. 이 예시의 쉐이더는 서피스 쉐이더에서 8개의 텍스쳐를 사용하고 있었고 인스펙터에서 설정하고 있는 텍스쳐도 8개뿐이지만 실제로 생성된 결과물을 보면 조건에 따라 10개의 텍스쳐를 사용하고 있음을 알 수 있습니다. 

이러한 경우에는 ES 2.0에서의 한계치인 8을 넘어버리기 때문에 원하는 모습대로 렌더링이 되지 않을 수 있습니다. 때문에, 작성하고 있는 쉐이더에서 텍스쳐를 6개 이상 사용할 경우에는 variant에 따른 실제 텍스쳐 사용 갯수를 확인하여야 합니다.

맺음말 적당한게 생각 안나네요. 걍 끘! 안녕~



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.


게임 그래픽에서 반사의 표현은 매우 중요한 시각적 요소 중 하나입니다. 주변 환경의 반사를 표현함으로써 금속 재질을 처리할 수 있기 때문입니다. 판타지물의 투구라든가 SiFi물의 로보트 등 금속 재질에서의 반사 표현 여부는 그래픽 퀄리티에 큰 영향을 미칩니다.

유니티5에서 라이팅 관련 기능이 강화되면서 리플렉션 프로브(Reflection Probe) 기능이 추가되었습니다. 이름에서 유추할 수 있듯이, 라이트 프로브(Light Probe)처럼 특정 지점들의 리플렉션을 미리 연산해서 프로브에 저장해놓는 것입니다. 

라이트 프로브 및 라이트맵(Lightmap)이 정적(static)인 오브젝트와 Baked 또는 mixed로 설정 된 라이트만 반영하는 것과 마찬가지로, 리플렉션 프로브 역시 정적인 오브젝트들만 반영한다는 등의 제약점들이 있긴 합니다. 하지만 부분 부분 마다의 반사를 제대로 반영할 수 있다는 점은 크나큰 매력이 될 것입니다. 자세한 사용법은 메뉴얼 및 블로그 글을 참고하세요. (PHYSICALLY BASED SHADING IN UNITY 5: A PRIMER, 리플렉션 프로브, 리플렉션 프로브 개요리플렉션 프로브 사용하기, 물리 기반 쉐이딩으로 작업하기) 메뉴얼의 글은 조만간 한글로 업데이트 될 예정입니다.

사실, 반사의 표현은 유니티5에서부터만 쓰게된 것은 아닙니다. 전통적으로 큐브맵(Cubemap)을 사용하여 쉐이더에서 반사를 표현해왔습니다. 유니티에 내장(Built-in)된 기존 쉐이더(Legacy Shader)에서도 이러한 큐브맵 반사들을 지원해왔습니다. (메뉴얼 : 반사 쉐이더 Family

하지만 기존의 쉐이더들은 특정 큐브맵을 명시적으로 지정해줘야만 하고 위치마다 다른 환경을 반영하는 리플렉션 프로브를 적용하지는 않습니다. 때문에, 내장 쉐이더에서 리플렉션 프로브를 사용하기 위해서 스탠다드 쉐이더(Standard Shadder)를 이용하여야합니다. 하지만, 저가의 보급형 모바일 기기에서는 스탠다드 쉐이더를 사용하기에는 성능의 부담이 존재합니다.

따라서, 모바일에서 리플렉션 프로브를 사용하기 위해서는 내장되어있는 기존 쉐이더나 스탠다드 쉐이더 대신, 쉐이더를 직접 작성한 커스텀 쉐이더를 사용하여야 합니다. 사실, 리플렉션 프로브도 근본적인 형태는 큐브맵입니다. 큐브맵을 미리 프로브별로 미리 구워놓고 가지고 있는 것이지요. 오브젝트의 위치에 따라서 적절한 큐브맵을 리플렉션 프로브로부터 가져오게 되는 것입니다. 

여차 저차 서론이 길어졌습니다만 결론만 말씀드리면 큐브맵을 인스펙터 창에서 지정해서 받아오는 대신 유니티에서 사전 정의해놓은 uniform sampler를 사용하여 큐브맵을 읽어들이면 된다는 것입니니다.

유니티가 리플렉션 프로브로 들어오는 큐브맵을 unity_SpecCube0로 사전 정의해놓았습니다. 이를 사전 정의된 UNITY_SAMPLE_TEXCUBE()로 읽어들입니다. 사실, UNITY_SAMPLE_TEXCUBE()는 texCUBE()를 디파인 한 것 뿐이지만 모바일 외 다른 플랫폼에서도 정상 작동을 하기 위해서는 UNITY_SAMPLE_TEXCUBE()로 사용하는 것이 좋습니다. 어찌되었든 리플렉션 프로브의 큐브맵으로부터 읽어들인 값에다가 리플렉션 프로브의 HDR 계수인 unity_SpecCube0_HDR의 r속성을 곱해주어서 반사 이미지의 최종 결과물을 얻습니다. 서피스 쉐이더를 작성하는 경우에는 surface 아웃풋의 Emission으로 이 값을 설정해두면 됩니다.

o.Emission = UNITY_SAMPLE_TEXCUBE(unity_SpecCube0, rv).rgb * unity_SpecCube0_HDR.r;

이름이 unity_SpecCube가 아니라 뒤에 0가 붙었다는 것을 보면 unity_SpecCube1도 존재한다는 것을 유추하실 수 있을 것입니다. unity_SpecCube0_HDR도 마찬가지로 unity_SpecCube1_HDR이 존재합니다. 이를 설명하기 위해서 오브젝트의 Mesh Renderer 인스펙터를 살펴보겠습니다. Reflection Probes 드롭다운을 내려보면 항목 중 Blend Probes라는 항목이 있는 것을 확인 가능합니다. 말 그대로 리플렉션 프로브를 블렌딩 해준다는 의미입니다. 오브젝트가 각기 다른 리플렉션 프로브 영역으로 이동 할 시 리플렉션 이미지가 갑자기 틱 하고 바뀌는 것을 방지하기 위하여 블렌딩을 해주는 것입니다. 

그러기 위해서는 쉐이더에서 큐브맵 두 개를 읽어야한다는 의미가 됩니다. unity_SpecCube1을 unity_SpecCube0와 같이 읽어들인 다음 unity_SpecCube0_BoxMin.w값으로 보간해주면 됩니다. 원래는 이런 블렌딩 기능을 UNITY_SPECCUBE_BLENDING 디파인으로 묶어놓아야 합니다. 하지만 모바일 타겟에서는 UNITY_SPECCUBE_BLENDING 디파인이 꺼져있기 때문에 해당 디파인에 종속적이지는 않게 두었습니다. 사실, 모바일에서 성능을 생각한다면 블렌딩 기능은 사용하지 않는 것이 좋습니다. 다만, 금속 느낌이 강한 재질이여서 이미지가 툭툭 바뀌는 모습이 크게 거슬린다면 블렌딩 연산을 사용할 수 밖에 없을 것입니다.

fixed3 blendTarget = UNITY_SAMPLE_TEXCUBE(unity_SpecCube1, rv).rgb * unity_SpecCube1_HDR.r;

o.Emission = lerp(blendTarget, o.Emission, unity_SpecCube0_BoxMin.w);

그러고 나면 리플렉션 프로브가 자연스럽게 반영되는 모습을 확인 할 수 있습니다. 다음 영상은 리플렉션 프로브를 사용하는 커스텀 쉐이더를 적용한 드론의 모습을 보여주고 있습니다. 

모두 유료 에셋을 사용한 관계로 프로젝트를 공유해드리지 못하는 점 양해 바랍니다. 다만 제작한 쉐이더의 전체 코드는 다음과 같습니다.

Shader "Example/WorldRefl Normalmap Refl" {

Properties{

_MainTex("Texture", 2D) = "white" {}

_BumpMap("Bumpmap", 2D) = "bump" {}

_Metalic("Metalic", Range(0,1)) = 0.5

_MetalicMap("Metalicmap", 2D) = "white" {}

}

SubShader{

Tags{ "RenderType" = "Opaque" }

CGPROGRAM

#pragma surface surf FakeMetal noshadow nolightmap 

struct Input {

float2 uv_MainTex;

float2 uv_BumpMap;

float3 worldRefl;

INTERNAL_DATA

};


struct SurfaceOutputCustom

{

fixed3 Albedo;  // diffuse color

fixed3 Normal;  // tangent space normal, if written

fixed Alpha;    // alpha for transparencies

fixed3 Emission;

fixed3 Metalic;

};


sampler2D _MainTex;

sampler2D _BumpMap;

sampler2D _MetalicMap;

fixed _Metalic;


half4 LightingFakeMetal(SurfaceOutputCustom s, half3 lightDir, half3 viewDir, half atten) {

half NdotL = saturate(dot(s.Normal, lightDir));

half diff = NdotL * 0.5 + 0.5; // Half-Lambert

half4 c;

c.rgb = s.Albedo *_LightColor0.rgb * (diff * atten);

c.a = s.Alpha;

c.rgb *= 1 - s.Metalic;

return c;

}


void surf(Input IN, inout SurfaceOutputCustom o) {

o.Albedo = tex2D(_MainTex, IN.uv_MainTex).rgb;

o.Normal = UnpackNormal(tex2D(_BumpMap, IN.uv_BumpMap));

float3 rv = WorldReflectionVector(IN, o.Normal).xyz;

o.Emission = UNITY_SAMPLE_TEXCUBE(unity_SpecCube0, rv).rgb * unity_SpecCube0_HDR.r;

//#if UNITY_SPECCUBE_BLENDING

fixed3 blendTarget = UNITY_SAMPLE_TEXCUBE(unity_SpecCube1, rv).rgb * unity_SpecCube1_HDR.r;

o.Emission = lerp(blendTarget, o.Emission, unity_SpecCube0_BoxMin.w);

//#endif

o.Metalic = tex2D(_MetalicMap, IN.uv_MainTex).rgb * _Metalic;

o.Emission.rgb *= o.Metalic.rgb;

}

ENDCG

}

Fallback "Diffuse"

}

이는 메탈 느낌에 초점을 맞춘 유사 PBS라고 볼 수 있겠습니다. 물론 PBS는 전혀 아니지만 모바일에서 저렴한 비용으로 PBS의 느낌적인 느낌을 내기에는 적당하지 않나 싶습니다 :)


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

Unity5에서 라이트맵 빌드시 많은 시간이 소요된다는 불편을 호소하시는 분들이 많이들 계십니다. 유니티 또한 이를 인지하고 있으며 라이트맵 빌드를 개선시키기 위해 다방면으로 노력을 하는 중입니다. 이 일례로 현재 작업중인 라이트맵 LAN 분산 빌드(Distributed LAN lighting build)와 점진적 빌드(Progressive Lightmap Baking) 기능을 알려드리고자 합니다. 


라이트맵 LAN 분산 빌드(Distributed LAN Lightmap Build) 

이트맵을 빌드하는 과정은 많은 시간이 소요됩니다. 품질 설정에 따라 빌드 시간이 다르긴 하지만 고품질의 결과를 얻고자 할 수록 더 많은 시간이 필요할 수 밖에 없습니다. 품질을 낮추지 않으면서 빌드 시간을 단축 시키는 유일한 방법은 더욱 고성능의 PC를 사용하는 것입니다. 라고 말씀드린다면 너무 무책임한 말이 되겠지요 :) 아마 대부분은 이미 충분히 고성능의 컴퓨터에서 작업을 하고 계실 것이기때문에 유니티에서는 분산 빌드 시스템 도입을 작업중입니다. 백지장도 맞들면 낫다는 말이 있듯이, 라이트맵을 하나의 컴퓨터로만 빌드하는 것이 아니라 여러 PC에서 함께 연산하는 것입니다. 에이전트 컴퓨터에서 라이트맵을 빌드할 시, LAN으로 연결되어 있는 다른 컴퓨터에 작업 단위를 나누어서 할당해줍니다. 그 후 컴퓨터들은 각자 작업을 거친 후 다시 작업물을 에이전트 컴퓨터로 모아서 최종 마무리를 거치면 라이트맵이 완성 되는 것입니다. 이리하면 컴퓨터가 많을 수록 라이트맵 빌드 시간이 획기적으로 단축 될 수 있게 됩니다. (아래 이미지는 여러 컴퓨터와 연결 된 에이전트 컴퓨터의 빌드 화면을 보여주고 있습니다.)

참고 영상 링크 : https://www.youtube.com/watch?v=W7aaM9M0YWo&feature=youtu.be


점진적 빌드(Progressive Lightmap Baking)

앞서 말씀드렸다시피 현재 라이트맵을 빌드하면 그 결과를 보기 전까지는 긴 시간이 소요됩니다. 씬을 수정 하 긴 시간 라이트맵을 빌드하고 다시 씬을 수정하는 반복 과정을 거치면서 작업하는 것은 매우 고통스러운 시간이 될 것입니다. 이를 보완하기위해 라이팅 인스펙터에서 자동(Auto) 빌드 기능을 제공해주고 있습니다. 하지만, 라이트맵 빌드 자체가 오래걸리기 때문에 완벽한 해결책이 되지는 못합니다. 따라서, 유니티에서는 라이트맵이 저해상도에서 고해상도로 빌드 되는 과정을 미리 보여주며 빌드하는 기능을 작업 중입니다. 마치 GIF 이미지를 열었을 때 저해상도의 이미지로 보여줬다가 로딩됨에따라 원본 해상도의 이미지로 보여주는 과정을 생각하시면 될 것 갑습니다. 이렇게 함으로써 씬 변경 후 대략적인 라이트맵 결과를 빨리 확인하고 다시 씬 구성을 바꾸는 등 씬 작업 이터레이션을 효율을 획기적으로 개선시킬 수 있게 됩니다. (아래 이미지는 빌드 버튼을 누른 후 시간이 지남에 따라 보여지는 모습을 나타냅니다.)

참고 영상 링크 : https://drive.google.com/a/unity3d.com/file/d/0B11iL4IgOgWLUTJWU1ZXOXFheTA/view


계획

다만 앞서 말씀드렸다시피 이 기능들은 아직 작업중입니다. 기본적인 기능은 완료 된 상태이긴 하지만 실제 릴리즈까지 가기 위해서는 아직 손 봐야 할 부분이 많습니다. 따라서 구체적인 스케쥴이나 기능 탑재 버전등의 세부 계획에 대해서는 말씀드리기가 힘듭니다. 다만, 개발자 여러분들의 불편사항을 없애기위해 최선을 다하고 있으며 라이트맵 빌드 또한 개선중에 있다는 것을 말씀드리고자 합니다. 감사합니다.


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.


유니티 5.2가 배포 된 이후 애로 사항을 겪는 분들이 계시는 것으로 알고 있습니다. 

5.2;;;

조만간 이를 보완하기 위한 패치가 릴리즈 될 것이며 공식 버전 또한 지속적으로 배포될 것입니다. 유니티의 로드맵이 공개되었습니다. 더불어, 주간 패치와 월간 공식 릴리즈에 대한 유지 보수 엔지니어링 팀의 계획을 공유하고자 합니다. (원문 : UNITY PATCH RELEASE PLAN)


5.1 패치 릴리즈

유니티 5.1.4는 5.1.x.의 마지막 공식 릴리즈가 될 것입니다. 이는 지난 5.1.3p1, 5.1.3p2, 5.1.3p3 패치를 모두 포함하는 것입니다. 9월 8일 5.2.0이 릴리즈됨과 동시에 패치 개발 주기는 5.2 버전에 맞춰지게 되었습니다. 따라서, 다음 패치는 5.2.0p1이 될 것입니다. 패치 5.2.0p1이 5.1.3p3의 모든 수정 사항들을 포함하는 반면, 5.2.0은 5.1.2까지의 수정 사항만을 반영합니다. 그말인 즉슨, 5.2.1 공식 릴리즈는 5.1.4까지의 모든 사항을 반영하게 된다는 것입니다. 5.2.0p1에는 5.2.0에 포함되지 않았던 많은 버그 수정 내역이 포함되어 있으며, 5.2.0p1 패치 이후 빠른 시일내로 5.2.1 정식 릴리즈를 배포할 것입니다.


5.2+ 패치 릴리즈

5.2.1 공식 릴리즈는 5.2.0p1의 수정 내용 모두를 반영할 계획입니다. 또한 필요에따라서 수정 사항들이 추가적으로 반영 될 수도 있습니다. 5.3.0이 출시되기 전 까지는 5.2.x 패치가 매 주 수요일마다 나오게 될 것입니다. 또한, 매 4주간의 패치 릴리즈 후 정식 릴리즈를 배포함으로써 매 달 마다 공식 릴리즈를 배포할 계획입니다. 이는 5.3.0이 배포된 후 5.3 패치 싸이클에도 마찬가지가 될 것입니다.


4.6 패치 릴리즈

최종적으로, 2015년 12월을 끝으로 4.6에 대한 패치 혹은 공식 릴리즈를 종료할 것입니다. 유니티의 개발력을 유니티5에 집중하기 위한 어쩔 수 없는 선택임을 양해 바랍니다. 이미 4.6 패치 주기가 2주 단위로 줄어든 상태입니다. 격 주 단위로 금요일에 4.6x 패치 릴리즈가 배포될 것이며 공식 릴리즈는 2달 주기로 나오게 됩니다. 2015년 12월 아후로는 더 이상 릴리즈 되지 않을것입니다.


유지 보수 엔지니어링 팀

유니티의 재빨리 버그를 수정하고 전반적인 품질을 높이는데 집중하기 위해서 저희 유지 보수 엔지니어링 팀에 더 많은 엔지니어가 참여하게 되었습니다. 또한, 저희는 포럼을 항상 주시하고 있으며 새로운 릴리즈가 배포될 때 마다의 피드백과 반응을 살피고 있습니다. 저희는 더 많은 작업 계획을 가지고 있으며, 계획이 진행됨에 따라 블로그 포스팅을 올리도록 하겠습니다. 감사합니다.


Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

원문 : http://blogs.unity3d.com/2015/09/10/unity-services-are-just-a-few-clicks-away/


유니티 5.2에서 서비스 윈도우가 추가되었습니다. 이를 통해서 에디터상에서  유니티애즈(Unity Ads), 유니티애널리틱스(Unity Analytics), 유니티클라우드빌드(Unity Cloud Build), 유니티멀티플레이어(Unity Multiplayer)를 제어할 수 있습니다. 또한 더 이상 SDK를 별도로 통합하는 과정을 거치지 않아도 됩니다.

우선, Window 메뉴를 통하거나 에디터 우측 상단의 구름 모양의 아이콘을 클릭하여 서비스 윈도우를 열 수 있습니다.

그 후, 프로젝트 ID가 생성됩니다. 이 프로젝트 ID는 프로젝트의 고유 식별 번호가 됩니다. 서비스 윈도우에는 서비스(Services), 멤버(Members), 연령제한(Age Designation), 설정(Settings) 총 4개의 탭이 존재합니다. 


서비스(Services)

프로젝트에서 Unity Ads와 Unity Analytics를 활성화 시키는 것은 매우 간단합니다. 위해서는 스위치를 "On"으로 켜주기만 하면 됩니다. Unity Cloud Build를 위해서는 약관에 동의하기만 하면 됩니다. Unity Multiplayer는 환경 설정을 함으로써 시작할 수 있습니다. 


멤버(Members)

프로젝트(Project)를 공유할 시에는 사람들의 접근 권한을 적용해주는 것이 중요합니다. Members 탭에서 프로젝트의 추가적인 멤버를 초대할 수 있습니다. 또한, 프로젝트의 온라인 대시보드에서 권한을 관리할 수 있습니다. 프로젝트(Project)는 조직(Organization)에 포함될 수 있으며, 조직(Organization)은 여러 프로젝트(Project)를 포함할 수 있습니다.


연령제한(Age Designation)

미국에서는 13세 이하의 어린이가 앱을 사용하도록 허용하기 위해서는 COPPA(the Children’s Online Privacy and Protection Act)를 준수해야합니다. 게임이 이 카테고리에 부합한다면 연련 제한을 “under 13”로 설정하십시요. 유니티애즈와 유니티애널리틱스에서 수집하는 데이터의 제약이 생기긴 하지만 그래도 동작은 이상 없이 합니다.


설정(Settings)

설정(Settings)탭을 이용하면 프로젝트명을 바꿀 수 있습니다. 프로젝트 ID는 아닙니다. 현재의 프로젝트를 다른 프로젝트로 확장하는 용도 등으로 새로운 프로젝트 ID를 생성하기 위해서는 "Unlink"를 누르기만 하면 됩니다. 서비스를 언제든지 다시 시작할 수 있습니다.


대시보드(Dashboard)

유니티 서비스를 활설화하고나면 온라인 대시보드에서 환경을 설정할 수 있습니다. 유니티애즈(Unity Ads), 유니티애널리틱스(Unity Analytics), 유니티클라우드빌드(Unity Cloud Build), 유니티멀티플레이어(Unity Multiplayer)의매뉴얼 문서도 확인하실 수 있습니다.

Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

원문 : http://blogs.unity3d.com/2015/09/08/unity-5-2-easy-access-to-unity-services/


Unity 5.2가 출시되었습니다. 다운로드 받으세요.

최신 릴리즈에서 빅 뉴스중 하나는 서비스 윈도우가 추가되었다는 것입니다. 유니티 애즈, 유니티 애널리틱스, 유니티 클라우드 빌드, 유니티 멀티플레이어가 이 서비스 윈도우에 통합되었습니다. 더 이상 각각의 별도의 SDK가 필요하지 않게 되었습니다.


수익을 극대화 시켜주는 유니티 애즈

유니티 애즈는 급속도로 성장중이며, 세계에서 가장 널리 쓰이는 광고 네트워크가 되가고 있습니다. Best Fiends에서 리텐션 감소 없이 어떻게 수익을 250% 극대화시켰는지를 확인해보시면, 왜 더 많은 스튜디오들이 유니티 애즈를 채용하고있는지를 알 수 있을 것입니다.


앱을 자동으로 빌드, 설치, 테스트

유니티 클라우드 빌드는 자동으로 여러 플랫폼을 한번에 빌드하고 쉽게 다운로드하고 공유할 수 있게 해줍으로써서 게임 개발 파이프라인을 최적화시켜줍니다. 이로 인해서 게임 개발 자체에 집중할 수 있도록 도와줍니다. Synapse Games는 "유니티 클라우드 빌드는 빌드 당 45분씩 낭비되던 시간을 0로 바꿔주었습니다"라고 하였습니다. 셋업도 쉽습니다. 지금 사용해보세요.


게임의 성과를 개선

런칭한 게임에서 유니티 애널리틱스를 사용하지 않고있다면 사용해보세요. 사용해보기 전에는 그 효과를 모릅니다. Ultrateam은 그들의 게임 디자인을 결정하기 위해 유니티 애널리틱스를 사용하고나서는 "결과는 놀라웠습니다. 이 간단한 적용이 큰 효과를 가져왔습니다."라며 감탄했습니다.


멀티플랫폼 멀티플레이어 네트워킹

유니티 멀티플레이어를 사용해서 네트워크 게임 제작의 고통을 없애세요. 만드는 게임이 모바일이든 데스크톱이든 콘솔이든 기반 엔지니어링 프레임워크는 동일합니다. 유니티 멀티플레이어 릴레이와 매치메이커 서버 서비스를 무료로 이용해보세요.


강화된 VR

5.2에서 프로젝트 모피어스의 빌드 옵션이 추가되었습니다. 이제 오큘러스 리프트, 기어 VR, 프로젝트 모피어스를 기본으로 탑재하여 고도로 최적화된 VR/AR 파이프라인을 갖추게 되었습니다.


강화된 멀티플랫폼

유니티 5.2는 윈도우즈 10과 유니버셜 윈도우즈 플랫폼(UWP) 빌드 옵션을 추가하였습니다. UWP 앱은 핸드폰뽄 아니라 엑스박스 및 PC등 모든 윈도우 기반 기기에서 수행됩니다.


비주얼 스튜디오 통합

유니티 5.2에서 비주얼 스튜디오가 통합되어 윈도우 머신에서의 코딩과 디버깅이 비약적으로 향상되었습니다. 유니티를 위한 비주얼 스튜디오 커뮤니티 2015 툴이 유니티 인스톨러에서 기본적으로 제공됩니다. 


더 많은 정보

유니티 5.2 릴리즈 노트를 확인하여 더 어떤 뉴스들이 있는 지 알아보십시요. 다중 씬 라이트맵 베이킹, 3DS 맥스 바이패드 리깅, 오클루전 컬링 개선 등 많은 변경 사항들이 있습니다.



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

올해 3월, WebGL의 프리뷰(preview) 버전이 Unity 5.0에 포함되어 릴리즈되었습니다. 그 후, 구글은 크롬 브라우저에서의 NPAPI 지원을 중단하였습니다. (기본값) 이는 더 이상 크롬 브라우저에서 Unity Web Player를 실행할 수 없다는 것을 의미합니다. 때문에, 그 대안으로 WebGL을 사용해야만 합니다. 이미 일부 개발자들이 WebGL로 게임을 배포하였습니다만, 기존 Web Player 게임을 WebGL로 포팅하는 데 애로 사항을 겪고 있는 것으로 알고 있습니다. 이는 Web Player와 WebGL은 완전히 다른 플랫폼이기 때문입니다. 웹 브라우저에서 게임을 돌린다는 궁극적인 목적은 동일하지만, 기반 기술은 완전이 다른 플랫폼입니다. 또한 WebGL은 매우 빠르게 성장하고 있기 때문에 시간이 지날 수록 지원 기능들과 상황이 시시각각 다를 것으로 생각합니다.

이러한 이유로, WebGL에 대한 우리의 계획에 대한 이야기를 할 까 합니다. 이 글은 유니티 공식 포럼의 WebGL 로드맵 글을 번역 및 요약한 글입니다.

주의 : 이 글의 모든 정보는 현재의 WebGL 생태계와 계획에 의존하고 있습니다. 이 모든 것들이 미래에는 어떻게 바뀔 지 장담하지는 못합니다. 기능들에 대한 구체적인 릴리즈 날짜를 보장하지는 못합니다. 또한, 일부는 진행하지 않기로 결정 할 가능성도 있습니다. 따라서, 이 글에서 버전이 언급되는 것은 현재의 계획일 뿐이며 미래를 보장하는 것은 아닙니다. (적고보니 보험광고같은 느낌이;;;)


Unity 5.1의 WebGL

5.1에서의 가장 큰 이슈중 하나는 5.0에서 발견 된 버그들을 수정하는 것입니다. 게다가, IL2CPP팀은 지난 몇 개월 간 IL2CPP의 무수히 많은 문제점들을 고치느라 매우 바쁜 시간을 보냈습니다. WebGL은 스크립트 런타임으로 IL2CPP를 사용하다보니 이로 인해 WebGL 플랫폼의 품질도 좋아지게 되었습니다.

또한, Unity 5.1에서의 WebGL 사용자들에게 중요한 이슈 중 하나는 텍스쳐 압축입니다. 텍스쳐 압축을 통해서 전송량 및 용량을 절약하고, 런타임중에 압축을 풀어 GPU 친화적인 DXTn 텍스쳐로 사용합니다. 일반적으로 텍스쳐가 사이즈를 차지하는 주 된 에셋이기 때문에 이를 통해서 WebGL 컨텐츠의 배포 용량을 획기적으로 줄일 수 있게 됩니다.


"프리뷰(Preview)" 레이블

요즘, 프리뷰(preview) 레이블을 언제 제거할 것인가에 대한 질문을 많이 받습니다. 하지만 이에 대해서는 확답을 드릴 수가 없는 상황입니다. 우리는 플랫폼이 안정화 되었다고 판단되어야만 프리뷰 레이블을 제거할 것입니다. 이는 유니티에서의 기술적인 문제 뿐만 아니라 WebGL의 기술 생태계 역시 충분히 준비된 시점을 의미합니다. 그러기 위해서는 브라우저의 개발사들이 우리가 원하는 기능을 구현해주어야만 합니다. 때문에 우리가 기능을 다 구현했다고 프리뷰 레이블을 제거하는 것은 말이 안되는 행위입니다. 우리는 주요 웹 브라우저 업체와 이야기중이고, 우리가 원하는 기능을 위해 최선을 다하고 있다고 믿고 있습니다.


메모리 이슈

현재의 Unity WebGL에서의 가장 큰 이슈중 하나가 메모리 이슈입니다. 특히 크롬 브라우저에서 Unity WebGL을 돌릴 경우 메모리가 낭비되는 현상이 있습니다. 

- 유니티의 WebGL 콘텐츠를 위해서는 연속된 공간의 메모리 블럭이 필요합니다. 이 사이즈는 WebGL Player 셋팅에서 설정할 수 있습니다. 이 사이즈는 리소스를 로드하면서 필요한 메모리 공간 만큼 충분히 확보되어야 합니다. 메모리 프로파일러를 통해서 공간이 어떻게 쓰이고 있는 지 디버깅 가능합니다. 이는 웹브라우저의 힙(heap) 메모리에 연속적인 공간이 필요합니다. 브라우저의 메모리가 낮게 잡혀있거나 힙이 파편화(fragmented)되어 있는 경우 메모리 할당이 실패해버립니다.

- 브라우저는 자바스크립트(JavaScript)를 파싱하는 과정에서 많은 메모리를 사용합니다. Unity WebGL Player로부터 파생된 자바스크립트 코드는 다른 것에 비해 매우 큰 메모리 공간을 소모합니다. 그리고, 자바스크립트 VM은 이러한 코드들을 분석하는 과정에서 매우 많은 양의 메모리를 필요로합니다. 득히, 크롬 V8은 때때로 이러한 이슈때문에 크래시가 일어나곤 합니다. 반면 파이어폭스는 asm.js로 AOT 컴파일을 수행하기 때문에 비교적 적은 메모리를 사용합니다.

이러한 이유들로 메모리 문제는 가장 큰 이슈이긴 합니다만 고치는 것이 쉽지가 않습니다. 현 시점에서는 우리가 할 수 있는 것은 결과 코드 사이즈를 줄이는 것 뿐입니다. 우리는 사내 워크샵에서 이러한 문제를 고민하였으며, 배포 사이즈를 1.2M까지 줄이는 데 성공하였습니다. 코드 스트리핑을 강화하고 컴파일러 설정을 개선하고 불필요한 코드를 제거 하는 등의 작업을 하였으며 이는 계속 개선해 나갈 것입니다. 이러한 개선 사항들은 5.2에 적용될 것으로 예상합니다. 또한 빌드에 포함된 코드 모듈을 시각적으로 확일 할 수 있는 툴을 만들고 있습니다. 얼마나 많은 코드들이 어떤 것에 의해 생성이 되었는 지 등을 확인할 수 있게 됩니다. 이 툴은 빨라야 5.3은 되어야 적용 될 것입니다. 이를 통해서 빌드 결과 사이즈를 줄일 수 있을 것입니다. 결과물의 코드 사이즈가 줄어들면 코드 파싱 시간이 줄어드는 만큼 구동 시간이 빨라지게 될 것입니다.

궁극적으로는, 브라우저의 기술 발전이 메모리 이슈를 훨씬 더 많이 해결할 수 있을 것으로 기대하고 있습니다. 모든 브라우저들이 64비트로 만들어지고 있으며 더 큰 메모리 공간을 사용할 수 있게 됩니다. 또한, 더 중요한 것은, 모질라, 구글, 마이크로소프트가 웹어셈블리(WebAssembly)라 불리우는 신기술을 만들고 있다는 것입니다. 이는 asm.js를 바이트코드(ByteCode) 포맷으로 패킹함으로써 매우 효과적으로 네이티브 코드로 컴파일 될 수 있게 합니다. 이를 통해서 로드 시간과 메모리 오버헤드와 배포 사이즈를 획기적으로 개선시킬 수 있습니다.


데이터 압축

앞서서 메모리 이슈를 언급했 던 것 처럼, 배포 사이즈도 Unity WebGL에서 중요한 이슈입니다. 배포 사이즈는 다운로스 시간과 메모리 사용량에 영향을 미칩니다. 사용할만한 다운로드 속도가 나오려면 데이터를 압축한 상태로 전송해주어야 합니다. 현재로써는 http 프로토콜이 지원하는 gzip 압축에 의존하고 있습니다. 하지만, 이는 종종 서버 사이드의 작업이 필요로하기때문에 불편함이 따릅니다. 게다가, gzip은 현대의 압축 알고리즘에 비해 효율성이 떨어집니다.

미래에는(스케쥴상으로는 Unity 5.3), Unity 자체적으로 에셋 데이터 파일 압축을 모든 플랫폼에서 지원할 것입니다. http 압축에 의존해있던 것을 제거하고 자체적인 압축을 코드상으로 구현할 것입니다. 이로써 WebGL 콘텐츠를 더 빨리 받아볼 수 있게되고, 데이터가 메모리상에 압축된 상태로 머무르는 것이 가능해집니다. 이로 인해서 에셋 로딩 속도도 빨라지고 메모리 대역폭도 줄어들게 됩니다.


성능(Performance)

작년에 작성 한 WebGl 벤치마크 포스팅에서 브라우저와 네이티브 런타임의 성능 비교를 하였습니다. 어떤 영역에서는 괜챦은 성능을 보였었고, 어떤 영역에서는 훨씬 큰 성능 차이를 보여주었습니다. 우리는 이러한 성능 차이를 줄이고자합니다. 큰 성능 차이는 SIMD 및 멀티-스레딩(multi-threading)을 활용함으로써 줄일 수 있습니다. 애석하게도 현재 시점의 WebGL에서는 이들을 사용하는 것이 불가능하지만 다음과 같이 개선 될 예정입니다.

- SIMD : SIMD.js를 통해서 자바스크립트에서 SIMD를 지원할 수 있습니다. 모질라, 구글, 마이크로소프트 모두 이를 지원할 계획을 가지고 있습니다. 현재 다른 플랫폼들이 SIMD를 이용해서 퍼포먼스를 향상시키듯이 WebGL도 SIMD를 활용하면 퍼포먼스가 향상될 것입니다.

- 공유 배열 버퍼(Shared Array Buffers) : 공유 배열 버퍼(Shared Array Buffers)는 WebWorker(자바스크립트에서의 멀티스레드와 같은 역할)가 메모리를 공유할 수 있게 합니다. 이로 인해 기존 멀티스레드 코드를 자바스크립트로 컴파일하는 것이 가능해집니다. 모질라에서는 이미 Unity WebGL 콘텐츠를 멀티스레딩으로 돌리는 것에 성공하였고, 구글 역시 공유 배열 버퍼를 지원할 계획이라고 발표하였습니다.


모바일 지원

모바일에서 WebGL을 지원할 것이냐는 질문도 많이 받고 있습니다. 현재 우리는 모바일에서 구동하는데 방해가 되는 작업을 따로 하고 있지는 않지만, 모바일 최적화를 위한 작업도 따로 하고 있지는 않습니다. 때문에, 고성능의 최신 안드로이드 기기에서는 잘 돌아가겠지만 대부분의 보급형 기기에서는 그렇지가 않을 것입니다. 앞서 언급한 성능 향상 작업들이 모바일에서도 효과를 발휘한다고는 기대하지 않고 있습니다. 때문에, 모바일 지원에 대한 일정에 대해서는 말씀 드릴 것이 없는 상황입니다.


빌드 시간

또 다른 이슈로는 WebGL 빌드가 오래 걸린 다는 것이 있습니다. 모질라는 현재 엠스크립튼(Emscripten) 컴파일러 툴체인을 네이티브 코드로 옮기는 작업을 진행중입니다. 이를 통해서 빌드 시간이 상당히 개선될 것으로 기대하고 있습니다. 이미 Unity 5.1에서는 자바스크립트 최적화가 네이티브로 옮겨진 버젼의 엠스크립튼(Emscripten)이 탑재되서어 5.0에 비해 빌드 속도가 개선되었습니다.


오디오

다른 플랫폼들은 오디오 시스템을 FMOD를 이용하는 반면, 현재의 Unity WebGL은 Web Audio를 기반으로 자체적인 오디오 시스템을 구현하였습니다. 때문에, 현재로써는 기본적인 플레이백(playback)이나 볼륨 및 피치(pitch) 조절 등이 지원 될 뿐 그 이상의 고급 기능은 지원되지 않습니다. 이러한 상황은 Unity WebGL의 스레드 지원이 가능하기 전 까지는 변치 않을 것입니다. 스레드가 지원되면 FMOD 라이브러리를 WebGL로 컴파일 할 수 있게되고 원하는 모습에 가까워 질 수 있습니다. 하지만, Web Audio(“Audio Workers”)의 스펙인 오디오 데이터 워커 API 또한 필요합니다. 하지만 이 기능이 구현 된 브러우저는 아직 존재하지 않습니다. 따라서, 완전한 오디오 기능이 지원되려면 오랜 시간이 걸릴 것으로 예상합니다.


그래픽

WebGL은 OpenGL ES 2.0에 기반을 두고 있는 자바스크립트 API입니다. OpenGL ES 2.0은 많은 제약 사항이 있기 때문에 다른 플랫폼에 비해 제한된 그래픽 기능을 가지고 있음을 의미합니다. 또한, 유니티는 현재 어떤 그래픽 API에서 어떤 그래픽 기능을 사용하는 지에 대해 결정하는 부분이 하드코딩으로 되어있습니다. 이 과정 중에서 OpenGL ES 2.0은 모바일에서 돌아간다고 가정하고 있습니다. 하지만 WebGL은 고성능 데스크톱 GPU에서 구동될 수가 있으므로 이러한 가정은 더 이상 유효하지가 않습니다. 이로 인해 원래 가능한 것 보다는 시각적인 퀄리티가 떨어지는 결과를 초래합니다. 특히 스탠다드 쉐이더와 그림자등이 대표적인 예가 될 것입니다. 우리는 이러한 하드코딩을 걷어내고 쉐이더 품질 등을 프로젝트 별 설정할 수 있는 기능을 만들고 있습니다.

또한, GDC 2015에서 우리는 WebGL 2.0(OpenGL ES 3.0 기반)에서 돌아가는 Unity5의 프로토타입을 시연한 바 있습니다. 이는 WebGL의 그래픽 성능을 한 단계 끌어올린 것입니다. Unity 5.2에서는 WebGL 2.0 지원이 실험적으로 적용될 것입니다. 다만, 브라우저들이 실제적으로 이 API를 올해 안에는 릴리즈 버전에 포함하지는 않을 것으로 생각합니다.


브라우저 지원

현재로써는, Unity WebGL은 크롬, 파이어폭스, 사파리를 지원합니다. 주요 브라우저 중 마이크로소프트의 브라우저는 제외 된 상태입니다. 인터넷 익스플로러의 현재 버젼이 WebGL을 지원하긴 하지만 Web Audio에 대한 지원이 빠져있습니다. 또한, 성능도 썩 좋지 않다보니 우리의 공식 지원 대상에서 제외되었습니다.

마이크로소트의 새로운 브라우저인 Edge에서는 이러한 점이 개선됩니다. Edge는 IE를 대체하여 Windows10에 기본 브라우저로 탑재됩니다. Edge에서는 Web Audio가 탑재되고 asm.js가 지원되어서 높은 성능으로 Unity 콘텐츠를 구동시킬 수 있습니다.


비디오

Unity의 MovieTexture 클래스는 현재 WebGL에서 지원되지 않습니다. MovieTexture는 현재 WebGL의 오디오 솔루션에서 오디오 플레이백이 불가능한 관계로 현재로써는 이에 대한 계획이 없는 상태입니다. 게다가, 브라우저의 html5 비디오 기능을 이용하면 완벽한 비디오 텍스쳐 솔루션을 Unity WebGL에서 손쉽게 이용 가능합니다.


네트워킹

현재 System.IO.Sockets.*과 UnityEngine.Network.*는 WebGL에서 동작하지 않으며 앞으로도 마찬가지 일 것입니다. 이는 플랫폼에서 보안상의 문제로 IP 소켓에 직접 접근하는것이 불가능하기 때문입니다. 대신, WWW는 이용 가능합니다. 또한, 자바스크립트를 이용하여 Web Socket이나 WebRTC를 통합하는 방법도 있습니다. 아니면, Unity 5.1부터 내장되어있는 멀티플레이어 기능을 활용할 수도 있고, 포톤(Photon)이나 스마트폭스서버(SmartFoxServer)같은 서드 파티 라이브러리를 활용하는 방법도 있습니다. 이들 모두 WebGL에서 WebSocket을 이용합니다.


쓰레드

앞서 성능 섹션에서도 언급하였듯이, 브라우저가 공유배열버퍼(Shared Array Buffer)기능을 지원하게되면 우리는 내부 엔진 코드에 멀티 스레딩을 적용할 예정입니다. 또한, 최종적으로는 사용자 System.Threading.*등을 이용하여 사용자 코드에서 멀티스레딩을 활용할 수 있도록 하는 것이 우리의 목표입니다. 하지만, 공유배열버퍼(Shared Array Buffer)는 GC가 필요한 일부 기능들을 제공하지 않는 등 꽤 까다로운 문제들이 있습니다. 우리는 이 문제를 풀기위한 고민을 계속 하고 있으며 언젠가는 기능이 구현 될 것입니다. 다만, 엔진 내부에 멀티스레딩이 적용 된 이후에나 될 것입니다.



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.


Variation

게임에는 기본적으로 플레이어가 존재하고, 그 플레이어에게 방해가 되는 장애물이 존재합니다. 퍼즐류가 아닌 이상 이러한 장애물은 몹 또는 몬스터의 형태로 나타나게 되고, 게임의 재미를 좌우하는데 결정적인 역할을 하는 존재가 됩니다.

이미지 : 엔젤 스톤

이러한 몹의 종류가 적으면 사용자는 금새 지루해지게 됩니다. 때문에, 개발자는 매우 다양한 모습과 패턴을 갖도록 만들어야 합니다. 예를 들어 좀비 형태의 몹을 만든다 가정했을 때, 모자를 쓴 좀비, 창을 든 좀비, 뚱뚱한 좀비 등등 좀비라는 큰 카테고리 안에서도 다양한 모습의 좀비를 만들어내야 합니다. 이를 흔히 "다양화(variation)시킨다" 라고 표현합니다.

이미지 : PVZ

하지만 이 때 문제는 리소스의 용량 크기입니다. 완전히 각각의 종류마다 완전히 새로운 리소스로 따로 따로 제작하게되면 리소스의 크기가 커질 수 밖에 없게 됩니다.때문에, 이러한 다양화(variation) 작업을 거칠 때 리소스를 최소한으로 사용하는 방법을 사용해야만 합니다.


부품 모듈화

그 방법 중 하나가 각각 파츠별로 모듈화 시키는 방법입니다. 각 파츠별로 부품 모듈을 만들어 놓고 프라모델이나 레고처럼 모듈을 조립하여 다양한 모습을 만들어 내는 것입니다. 예를 들어 로보트를 팔, 다리, 몸통, 총구 등으로 나누어 여러 종류로 제작한 뒤 이를 조립하여 다양한 종류의 로보트를 만들어 내는 것입니다. 보통 로보트나 비행기 등 강체로 이루어진 것 들이 이러한 조립식으로 많이 만들어집니다. 에셋 스토어에서도 마찬가지로 이러한 조립식 에셋들을 많이 찾아볼 수 있습니다. 

이미지 : 에셋스토어


텍스쳐 변경

또 다른 방법으로는 텍스쳐만 바꾸는 방법도 존재합니다. 동일한 메시에 텍스쳐만 바꿔서 다른 모습을 연출해주게 되는 것입니다. 주로 인간형 케릭터에게 의상을 다양화 시킬 때 이러한 방법을 사용합니다.  

이미지 : 에셋스토어


파츠 컬러

이 글에서 소개할 또 다른 방법으로는 파츠 컬러를 변경하는 방법입니다. 앞서 방금 언급한 텍스쳐를 바꾸는 방식이나 메시 모듈들 조립하는 방식과는 달리, 메시와 텍스쳐는 교체하지 않고 하나의 텍스쳐와 하나의 메시만 사용하는 방식입니다. 때문에 앞서 언급한 방식들에 비해서 리소스를 크게 아낄 수 있습니다. 다만, 텍스쳐를 통채로 바꾸는 것이 아니기 때문에 전체적인 패턴과 모양은 그대로 유지하기 때문에 한계가 있습니다. 대신 전체적인 혹은 부분적인 색상을 바꿀 수 있기 때문에 주로 의상의 염색 시스템에서 활용되기도 합니다. 

이미지 : 레이더즈

또한 다양화 작업 말고도 RTS나 MOBA 등 대전 게임에서 팀 구분을 위한 색상으로 활용될 수도 있습니다.

이미지 : 스타크래프트2

이 글에서는 이러한 파츠 컬러 방식을 구현하는 것에 대하여 자세히 설명을 해볼까 합니다. 기본 원리는 간단합니다. 메시의 기본 albedo 색상 외 컬러를 변경할 마스크 영역을 준비합니다. 단순한 파츠 컬러 적용 여부를 나타내는 크레이스케일 값이기만 하면 되기 때문에 albedo 텍스쳐의 알파 채널에 이를 활용하면 됩니다. 물론, 대신 불투명 오브젝트에만 적용이 가능해진다는 제약은 있습니다.

그 예로 다음과 같은 로보트 Kyle에 이를 적용하여 보겠습니다.

이 모델은 불투명으로 만들어져 있어서 실제로는 다음과 같은 albedo 텍스쳐의 RGB만 사용합니다.

이 텍스쳐의 Alpha 채널을 다음과 같이 칠하여 파츠 컬러의 마스킹으로 사용하도록 합니다. 다음 이미지는 GIMP툴에서 보여주는 Alpha 채널의 모습입니다. 검은색이 1을 나타내고 회색의 체크무늬가 0인 영역을 의미합니다.

이 Alpha 채널의 역의 값을 마스킹으로 사용하여 (위 이미지의 회색 체크무늬 영역이 파츠 컬러가 되도록) 적용하는 것이 최종 목표입니다. 샘플 프로젝트를 올려두었습니다. 이 링크를 통해 다운받으셔서 확인해보실 수 있습니다.

쉐이더가 적용 된 마테리얼에서 Parts Color 색상을 변경할 수 있습니다.

이 색상을 바꾸면 이에 따라서 로봇의 파츠 컬러가 변경되어 보여집니다.


이 방식은 원리도 간단하기 때문에 쉐이더 코드도 크게 복잡하지 않습니다. 샘플 프로젝트에 포함 된 LambertUseColorPart.shader를 살표보도록 하겠습니다.

27번째 라인에서 albedo 텍스쳐의 값을 읽은 뒤 29번째 라인에서 alpha 채널의 값을 뒤집어줍니다. 이는 작업자의 성향에 따라 파츠 컬러 적용 값을 1로 둘것인가 0으로 둘 것인가에 따라 다릅니다. 머티리얼의 Invert Parts Color Mask 체크 여부에 따라 수행 여부가 달라집니다.

35번째 라인이 이 쉐이더의 핵심 구문입니다. 파츠컬러의 마스킹 값에 따라서 흰색과 지정된 색상 값을 보간합니다. 그후 그 값을 albedo와 곱하여 최종 albedo 값을 결정합니다. 결과적으로, 마스크가 1이면 albedo에 지정 컬러를 곱한 결과가 됩니다. 반대로 마스크가 0이면 원래의 albedo 색상을 그대로 사용합니다.

만일 머티리얼에서 Interpolated Parts Color가 체크되어 있다면 35번째 라인 대신 33번째 라인이 수행됩니다. 이는 albedo값과 지정 색상 값을 바로 보간합니다. 이는 흰색과 보간한 뒤 albedo에 곱해주는 결과와는 미묘한 차이를 가집니다.

다음 로보트의 몸통 이미지는 각각 33번 라인과 35번 라인을 수행 했을 때의 차이를 보여주고 있습니다. 첫 번 째 이미지는 35번 라인이 수행된 모습입니다. albedo와 곱하여 사용한 결과이기 때문에 albedo 자체에 새겨놓은 AO 라이팅이나 얼룩등이 그대로 살아있습니다. 만일 텍스쳐 자체에 라이팅이나 AO등을 새겨놓는 식으로 작업한다면  Interpolated Parts Color가 비활성화 되어야합니다.


이 두 번 째 이미지는 그 반대로 33번 라인이 수행된 모습입니다. albedo와 바로 보간해서 사용하기 때문에 마스크가 1인 영역은 albedo 텍스쳐의 모습을 완전히 없애버립니다. 첫 번 째의 이미지와는 달리 몸통에 페인트가 덧 칠해진 것 같은 느낌입니다. PBS 대응 텍스쳐는 albedo에 AO 및 라이팅이 포함되어서는 안되기 때문에, 만일 PBS 대응으로 작업하는 이미지라면 이 모습이 용이할 수도 있습니다. (예를 들어서 금속 물질 위에 칠해져있는 페인트가 벗겨져 있는 모습이라면) 



한계

이 쉐이더는 알파채널을 이용하여 한번에 한가지 색상만 적용합니다. 웬만한 경우에서는 한 가지 색상만 적용해줘도 크게 무리는 없습니다. 만일 푸품 모듈화 방식과 같이 사용한다면 더 다양한 조합을 만들 수도 있을 것입니다.

하지만 단일 메시만 사용하는 경우라면 단일 색상만 적용 가능 한 것이 조금 답답할 수도 있겠습니다. 그러한 경우에는 albedo 텍스쳐의 alpha 채널을 마스크로 활용하는 것이 아니라, 아예 마스크 텍스쳐를 별도로 제작하면 더욱 다양하게 활용이 가능합니다. 색상을 4가지를 지정하고 마스크 텍스쳐의 r,g,b,a 채널 모두 각각의 마스킹으로 활용하면 4가지 색상을 적용할 수 있습니다. 다만 추가적인 텍스쳐가 사용되므로 약간의 성능 감소는 있을 수 있습니다. 그렇다 하더라도 잘만 조작하면 적은 텍스쳐 메모리만으로도 훨씬 다양한 다양화(variation) 효과를 볼 수 있기 때문에 충분한 가치가 있습니다.

쉐이더 작성이 익숙하신 분이라면 쉐이더를 직접 수정하여 사용하시면 되고, 그렇지 않은 분이시라면 에셋 스토어에서 받아서 사용하시면 됩니다. 이 에셋이 제가 설명드린 것과 비슷한 작동을 수행하는 쉐이더를 사용하고 있습니다. ( 사실, 컬러 4개 지정하는 쉐이더를 올릴 까 했는데, 이 에셋이 유료로 판매되는 것을 보고나니 상도덕(?) 상 그러지를 못하겠네요;;)

이미지 : 에셋스토어


샘플 프로젝트 다운로드 링크 : https://drive.google.com/file/d/0B70AOyGiQJsGY2dEakU4Y2Q4WWs/view?usp=sharing



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

게임은 어떻게 만드나요?

라는 질문에 뭐라고 대답해야 할까요? 누군가는 어떤 말을 해야할 지 고민을 할 테고, 누군가는 쌍욕부터 할 지도 모르겠습니다. 어찌되었건 이런 질문을 받았을 때 공통적으로 느끼는 감정은 '혼란'일 것입니다. 대답해주려니 막막하고 어디서부터 풀어나가야 할 지 혼란스러워진다는 것입니다. 질문을 받은 사람이 이러한 감정을 느끼는 원인은 간단합니다. 바로 질문 자체가 막연하기 때문이죠.

제가 뜬금없이 이런 질문을 언급하는 것이 의아하실지도 모르겠습니다. 이런 질문을 하는 사람이 있을까 싶으시겠지만 실제로 인터넷 커뮤니티(특히 뇌입어)에 많이 올라오는 질문 중 하나입니다. 사실 이러한 비(非)개발 커뮤니티는 이런 허접한 질문이 올라올 수도 있다는 생각이 들 수도 있겠습니다. 하지만, 중요한 것은 개발 관련 포럼이나 커뮤니티에도 이러한 수준의 질문이 가끔 목격된 다는 것입니다. 제가 다소 공격적으로 "수준"이라는 표현을 사용했지만, 여기서 말하는 "수준"이라는 것이 별 뜻은 아닙니다. 질문 내용의 기술적인 난이도가 낮아서 수준이 낮다고 표현하는 것이 아닙니다. 기술적인 수준은 낮아도 질문 자체의 수준이 높은 경우는 얼마든지 많습니다. 제가 말하는 "수준이 낮다"고 표현하는 것은 질문 내용에 성의가 없기 때문입니다. 

예를 들어서 누군가 다음과 같은 질문을 올렸다 생각해보겠습니다.

광선검은 어떻게 만드나요?

이 질문이 뭐가 문제인지 의아해하시는 분도 계실지도 모르겠습니다. 하지만, 제가 보기에는 이 질문이 앞서 언급하였던 게임을 어떻게 만드냐에 대한 질문과 다를 바가 없어보입니다. 마찬가지로 막연하고 정보가 부족하기 때문입니다. 이로 인해서 받아들이는 사람 마다 질문의 의도를 각자 다르게 해석하고 각자 다른 초점의 정보를 말해주게 될 것입니다. 

"광선검"이라는 단어를 들으면 어떤 사람은 스타워즈의 라이트세이버를 떠올릴 것이고 어떤 사람은 건담의 빔샤벨을 떠올릴 것입니다. 

어떤 사람은 모바일 타겟으로 파티클로 빔샤벨을 만드는 방법을 안내할 것이고 어떤 사람은 PC 타겟으로 이미지 블룸 효과를 처리하는 방법을 안내할 것 입니다. 어떤 사람은 그래픽 리소스를 제작하는 방법을 안내할 것이고 어떤 사람은 손잡이에서 빔이 나오는 에니메이션 처리를 수행하는 스크립트를 안내할 것입니다. 이처럼 질문부터가 모호하고 정보가 없으면 질문자와 답변자 모두에게 만족으러운 결과를 도출하지 못하게 될 것입니다. 이는 당연한 결과입니다.

하지만, 의외로 이러한 모호한 질문들이 생각보다 많이 발견됩니다. 물론 예를 들어 말씀드린 질문은 극단적인 예일 뿐이고 사실 더 많은 정보를 포함한 질문들이 대부분입니다. 하지만 여전히 적은 정보만으로 모호한 질문을 물어보는 글들이 많이 보이곤 합니다. 비단 유니티 관련 포럼 뿐 아니라 언리얼, 코코스 등 다른 엔진 관련 포럼에도 나타나는 현상들이고 게임 뿐 아니라 개발 관련 된 커뮤니티라면 어디에서든지 존재하는 현상들입니다.

때문에 질문을 올리는 방법에 대한 가이드를 말씀드리고자 합니다. 물론 이 글이 객관적인 것은 아니며 어떤 기관에서 표준으로 인정한 양식도 아닙니다. 단지 제 개인적인 경험과 노하우를 통해 말씀드리는 것이니 절대적인 가이드라기보다는 참고사항으로만 생각해주시면 감사하겠습니다. 


육하원칙

기본적으로, 육하원칙(5W1H)을 생각하시면 됩니다. 누가,언제,어디서,무엇을,어떻게,왜 육하원칙은 초등학교에서  기본적으로 배우는 만큼 기초적이고 중요한 원칙입니다. 대부분의 질문은 이 육하원칙에서 한가지를 도출하는 과정이 될 것입니다. 어떠한 현상이 왜 생기는지를 물어보고자 한다면 나머지 다섯가지인 누가,언제,어디서,무엇을,어떻게에 대한 정보가 제공이 되어야 할 것입니다. 반대로 어떻게 해야하는지를 물어보고자 한다면 나머지 다섯가지인 누가,언제,어디서,무엇을,왜가 제공이 되어야 할 것입니다. 무조건 이 여섯가지 요소를 반드시 지켜야 한다는 것은 아닙니다. 질문에 따라서 모든 요소가 들어갈 필요는 없는 경우도 있습니다. 다만, 가능한 이 원칙에 입각하여 질문을 작성한다면 크게 모호해질 일은 없을 것입니다. 물론, 이 요소들을 명시적인 도표로 만들어서 작성하거나 하라는 것이 아닙니다. 글의 문맥 안에 이러한 요소들이 명시적이나 암묵적으로 포함되기만 하면 됩니다. 사실, 각각의 요소들에 대한 명확한 기준은 없습니다만 각각의 요소에 주로 담기게 되는 내용을 설명드려볼까 합니다.


누가(who)

"누가"는 대부분 질문자 본인이라 생각 할 수도 있습니다만 당연히 질문자가 이름이 뭔지 거주지가 어딘지따위는 중요하지 않습니다. 중요한 것은 직군이 어디인지 지식 수준이 어느정도 인 지 입니다. 그래야 어느정도 레벨까지 설명을 해 줘야 할 지 가늠할 수 있기 때문입니다. 다만 이러한 것은 질문 내용에서 간접적으로 표현 되는 경우가 많아서 명시적으로 언급해주지 않아도 되는 경우도 많습니다. 예를 들어서 NavMesh.Raycast()의 성능에 대해 물어는 글이 있다 치면, 그 질문의 작성자는 일단 프로그래머이일 것이며 네비게이션 메시에 대한 기본 지식은 가지고 있다고 가정해도 무방할 것입니다. 또한, "누가"는 사람에만 국한 되는 것이 아니라 시스템의 객체가 될 수도 있고 오브젝트의 인스턴스가 될 수도 있는 등 다양한 시각으로 반영될 수 있습니다.


언제(when)

"언제"는 몇시 몇분 몇초의 절대적인 시간이 아니라 재현 시퀀스의 타이밍이 되는 경우가 대부분입니다. "버튼을 세번 눌렀을 때" 혹은 "앱이 수행되자마자 항상" 등 재현 시퀀스상의 시간이 될 수도 있습니다. 때문에, "어떻게"와 같이 묶여서 표현 될 수도 있습니다. 


어떻게(how)

그렇다고해서 "언제"와 "어떻게"가 동일하다는 이야기는 아닙니다. "어떻게"는 주로 구현 방법에 대한 설명이 되는 경우가 많습니다. 어떤 기능을 어떻게 구현했냐에 대한 설명이 대부분일 것입니다. 주로 이 부분에 대한 설명이 자세할 수록 좋습니다.

구현을 어떻게 했고 무엇이 문제인 지에 대한 설명은 사실 말로만 설명하기에는 부족한 경우가 많습니다. 이러한 경우에는 보조적인 자료를 사용해주는 것이 좋습니다. 특히 코드에 관한 것을 물어볼 때에는 반드시 소스 코드가 포함되어야 합니다. 무슨 함수를 어떻게 썼다라는 것을 말로만 설명하는 것이 아니라 해당 코드를 반드시 올려주어야 합니다. 더 나아가서 프로젝트를 올려주시면 정확한 판단을 하기가 훨씬 수월해집니다. 포럼 사이트나 게시판마다 파일 업로드 용량 제한이 달라서 프로젝트 파일을 직접 올리지 못하는 경우가 대부분입니다. 구글 드라이브나 드랍박스에 파일을 올린 후 링크를 걸어두시는 식으로 하면 여러 커뮤니티에 질문을 올릴 때 유용합니다. 물론 프로젝트를 올려두었다 하더라도 문의하고자 하는 부분의 핵심 코드는 본문에 포함되어야 합니다.


어디서(where)

"어디서"는 말 그대로 문제가 발생하는 위치입니다. PC나 모바일 등 물리적인 위치가 될 수도 있고, 어느 클래스 어느 함수에서 발생하는 지 등의 논리적인 위치가 될 수도 있습니다. 위치 역시 최대한 자세히 적어주시는 것이 좋습니다. 예를 들어서 모바일 기기에서만 발생하는 문제라면 단순히 "모바일 기기"라는 표현으로 끝내는 것이 아니라 해당 기기의 모델명과 OS 버젼 등은 필수적으로 기입되어야합니다.


무엇을(what)

"무엇을"은 6가지 요소 중 가장 중요한 요소가 될 수도 있습니다. 구현하고자 하는 것이 무엇인 지 혹은 문제가 발생하는 현상이 무엇인 지 등 원하는 것이 정확히 기술되어야 합니다. 

어느날 사장님이 오셔서 이런 말을 했다고 가정해보겠습니다.

보스를 추가하고싶은데 메카닉이면서도 허접해보였으면 좋겠어. 또한 모던하면서도 클래식한 느낌이 나야해

이 말만 툭 던지고 자리로 돌아간다면 사장이고 뭐고 다 때려엎고 싶을 지도 모릅니다. 설명이란 것은 자세하면 자세할 수록 좋습니다. 여기서만큼은 과유불급이란 것은 존재하지 않습니다. 하지만 사실 아무리 말로 잘 표현하더라도 정확한 표현을 하는데에는 한계가 있을 수 있습니다. 백마디의 말 보다는 한장의 이미지가 더 효과적이라는 것을 항상 염두해두시길 바랍니다. 이까 그 사장님이 다시 돌아와서 다음과 같은 이미지를 던져주고 간다면 그나마 화가 조금은 풀릴 지도 모르겠습니다.

왜(why)

"왜"는 불필요한 정보라고 느낄 수도 있겠지만 이 역시 상당히 중요한 정보입니다. 만일 특정 함수의 오류에 대해 문의하는 것이라면 왜 그 함수의 사용 의도가 파악되어야 합니다. 그래야만 의도하는 방향 내에서 해결책을 제시할 수 있습니다. 또한, 용도에 맞지 않는 사용법으로 사용하는 것을 막을 수도 있습니다. 혹은, 더 나은 방법이 제시 될 수도 있습니다. 예를 들자면, 주기적인 타이밍으로 들어가는 도트데미지를 Update() 함수에서 구현하는 방법에 대한 문의를 한다면 코루틴을 사용하는 것으로 제안 할 수도 있을 것입니다.


아웃라인(outline)

육하원칙 외에도 글의 아웃라인을 서론과 본론으로 갖춰주시는게 좋습니다. 글을 자세히 적다보면 글이 길어질 수 밖에 없는데 서론 없이 바로 본론으로 들어가버린다면 질문에 대한 집중력이 떨어질 수 밖에 없습니다. 그렇다고 너무 아웃라인의 형태에 집착하지 않아도 됩니다. 글의 도입부에서 어떤 주제에 대한 질문인지 대략적으로 밝히고 진입하는 정도만 되어도 충분한 아웃라인을 갖추었다고 봐도 무방합니다.


퇴고

사실, 육하원칙이니 글의 아웃라인이니 그런 것 보다는 퇴고가 가장 중요합니다. 글을 길게 썼든 짧게 썼든 글을 최종 업로드 하기 전에 퇴고를 반드시 거쳐주시길 바랍니다. 제3자의 입장으로 글을 다시 한번 읽어가면서 내용이 이해가 가는지를 판단해보십시요. 의외로 자신이 글을 이해가 가지 않게 썼다는 것을 발견 하는 경우가 많을 것입니다.

이렇게까지 많은 것을 고려하면서 질문글을 써야하나 하는 의문을 제기하는 분도 간혹 계십니다. 물론 질문이란 것이 가볍게 던질 수도 있는 것입니다. 다만 자세한 질문을 할 수록 더 나은 답변과 토론이 오갈 수 있을 것이라 생각합니다. 또한, 질문을 적는 사람은 개인이지만 질문은 많은 사람들이 읽습니다. 더 많은 사람들이 더 많은 시간을 투자해서 함께 고민하는 것이기 때문에 질문 글에도 그만큼의 정성이 들어가는 것이 예의라고 생각합니다.


다시 광선검

마지막으로 다시 광선검을 예로 들어보겠습니다. 

광선검은 어떻게 만드나요?

라는 표현은 다음과 같이 바꿀 수 있겠습니다.(실제의 문의 내용이 아니라 제가 가상으로 작성한 글입니다.)

안녕하세요. 광선검의 검흔 효과 구현에 대한 조언좀 구하고자 문의글을 올립니다. 저희가 모바일 액션 RPG를 만들고 있습니다. D&D나 던파같이 사이드뷰인데 배경이 미래다보니 스타워즈 광선검이 무기로 등장합니다. 광선검 자체를 만드는 것은 문제가 없었습니다만 검흔 효과를 만드는데 애를 먹고있습니다.

검광 부분은 막대기 모델에 따라서 검광 텍스쳐 판때기 2개를 X자로 교차되게 간단하게 만들었습니다. 케릭터에게 쥐어줘보니 뭐 그럴싸합니다. 모바일이라 화면도 작은데다가 광선검이 클로즈업되서 보일 일이 없다보니 판때기로 박은게 티가 잘 안납니다. 근데 단순히 이것만 가지고 검을 휘둘러보니 뭔가 어색합니다. 영화에서 보면 검을 휘두르면 삼각형 모양의 블러가 생깁니다. 게임에서 이런게 안생기니 심심한 느낌입니다.

저는 단순 모델러라 이펙트를 잘 모릅니다. 신생팀이라 이펙터도 따로 없구요. 그래서 옆자리 프로그래머랑 같이 에셋스토어 뒤져서 trail 이펙트를 붙여봤는데 영화에서의 느낌은 나지 않네요. 그냥 일반적인 무협 게임의 검기같은 느낌일 뿐 광선검 특유의 느낌이 나지 않습니다. 검흔 자체가 불투명이어야하는데 빨간 화살표처럼 투명 그라데이션이 들어갑니다. 전체적인 헤일로 효과 없이 노란색 화살표처럼 검 진행 방향의 단면이 선명하게 떨어져버리구요. 영화에서는 순간적으로 검의 모양이 부채꼴로 변하는 듯한 느낌이라 이 이펙트와는 전혀 다른 느낌입니다. 

영화에서의 느낌을 내려면 어떤식으로 구현해야할 지 아니면 어떤 에셋을 사용해야 할 지 조언좀 부탁드립니다. 혹시 몰라서 파일을 올려두었습니다. 프로젝트라 광선검 부분만 따로 패키지로 추출한 점 양해 부탁드립니다.

다운로드 링크 : 어쩌고저쩌고

감사합니다 :)


P.S. 먹튀는 악질 행위입니다. 가끔 답변을 받으면 답변만 확인하고 질문들을 삭제하는 분도 계시는데 이러한 행위는 비매너 행위입니다. 커뮤니티는 다른 사람들과 정보와 노하우를 공유하는 공간입니다. 혼자만 알고싶으면 애초에 커뮤니티에 질문을 올리는 것 부터가 모순이라는 점을 말씀드리고 싶습니다.


로보트 이미지 출처 : Stephane Halleux

게임 trail 효과 이미지 출처 : SWTOR



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

유니티 5.1부터는 unity analytics가 기본적으로 통합되었습니다. 더 이상 플러그인을 사용하지 않아도 됩니다. 오히려 기존 플러그인은 제거하시는 것을 추천합니다. 다만 이로 인해서 사용법이 조금 바뀌었습니다.https://analytics.cloud.unity3d.com > 좌측 메뉴 INTEGRATION > 우측 상단의 5.1 에서 확인 가능합니다.

이 내용을 참고로 바뀐 점을 요약해보자면 다음과 같습니다.

우선, 프로젝트 아이디를 터이상 코드로 적지 않습니다. 대신 플레이어 셋팅에 아이디를 적게 되었습니다. 따라서 UnityAnalytics.StartSDK() 함수가 제거됩니다.

또한, 인터페이스 이름이 변경되었습니다. 기존 UnityAnalytics 에서 UnityEngine.Analytics 으로 변경되었습니다. 따라서 커스텀 이벤트를 사용하고 계신다면 이 부분 코드를 바꿔주셔야합니다.

이 이외에는 바뀐 부분이 크게 없어서 이 부분만 신경써주시면 무리 없을 듯 합니다.





Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

유니티 배우려는데 무슨 언어로 배워야할까요? C#? 아니면 자바스크립트?

가끔 이러한 질문들을 듣곤 합니다. 일단 이 질문에 대한 대답을 먼저 드리자면 당연 C#입니다. 유니티는 C#과 자바스크립트 두 언어를 지원하기 때문에 유니티 입문 시 이 두 언어 중 무엇으로 사용해야 할 고민이 되곤 합니다. 하지만 고민하실 필요 없이 C#으로 선택하시길 추천드립니다. 

이유는 간단합니다. 많은 사람들이 사용하기 때문이죠. 이는 구글트렌드로 살펴보더라도 극병하게 드러납니다. 물론 구글 트렌드가 객관적이고 정확한 기준 자료가 될 수는 없겠지만, 시간이 지날수록 자바스크립트보다는 C#이 대세로 가고 있음을 확인 하실 수 있습니다.

이미지 : 구글 트렌드

그러다보니 당연히 많은 참고 자료들이 C#으로 되어있습니다. 기능 구현이나 알고리즘 자료들 뿐 아니라 각종 플러그인의 샘플들도 C# 위주로 되어있습니다. 물론 언어의 견고함이라든가 방대한 라이브러리등 더 많은 선택 기준이 있겠지만, 입문하시는 입장에서라면 대세가 C#이라는 이유만으로도 충분하리라 생각합니다.

간혹 SI에서 자바를 다루었거나 웹에서 자바스크립트를 다루었다는 이유로 자바스크립트를 선택하려는 분도 계십니다. 하지만 이는 잘못된 판단입니다. 

여기서 잠깐 질문 하나 하겠습니다. 오리와 오리너구리와 KOF이오리의 공통점은 무엇일까요? 

바로 이름에 오리가 들어가는 것입니다. 그것 말고는 서로간에 전혀 공통점이 없습니다. 자바와 자바스크립트와 유니티자바스크립의간의 관계도 이와 마찬가지입니다. 서로간에 전혀 공통점이 없다고 봐도 무방합니다. 문법이 비슷해보이지만 실제로 파고들어보면 전혀 다른 언어들입니다. 그러므로 그런거 신경쓰지 마시고 그냥 C#으로 사용하시는 것을 추천드립니다.



Posted by ozlael
,
336x280(권장), 300x250(권장), 250x250, 200x200 크기의 광고 코드만 넣을 수 있습니다.

"모바일 기기의 Tile Based Rendering(타일 기반 렌더링)과 유니티에서의 주의 사항 #1 : TBR의 이해"에서 이어지는 글입니다. 


앞선 글에서 설명드린 바와 같이 모바일에서는 타일 단위로 쪼개서 렌더링하는 방식을 사합니다. 그러다보니 전통적인 렌더링 방식에서와는 조금 다른 주의 사항이 몇 가지 존재합니다. 


알파블렌딩(Alpha Blending) VS 알파테스트(Alpha Test)

전통적으로 데스크톱 게임의 리소스에는 알파블렌딩보다 알파테스트의 사용이 권장되어왔습니다. 불투명한 철망이라든가 찢어진 옷감같은 경우는 불투명하기때문에 비싼 블렌딩 연산을 사용하기보다는 알파테스트를 사용함으로써 픽셀 연산도 절약하자는 의도였습니다. 하지만 모바일의 TBR(Tile Based Rendering, 타일 기반 렌더링)에서는 정반대로 알파테스트보다는 알파블렌딩의 사용이 권장됩니다. 

알파테스트처리를 하기 위해서는 픽셀쉐이더에서 동적분기(if문)가 사용됩니다. 데스크톱에서는 쉐이더의 동적 분기가 고속으로 처리되지만, 모바일에서는 동적 분기 성능이 취약합니다. 때문에 알파테스트는 쉐이더의 성능윽 하락시키는 원인이 됩니다.

게다가, TBDR(Tile Based Deferred Rendering, 타일 기반 지연 렌더링)에서는 픽셀 차폐의 고속 처리를 깨트립니다. 앞서 언급했다시피 TBDR에서는 여러 드로우콜의 버텍스 쉐이더 결과를 모아두었다가 은면 제거(Hidden Surface Removal)를 거친 뒤 실제 보이는 픽셀만 처리합니다. 하지만 이는 알파테스트를 사용하지 않는 완전한 불투명메시일 경우에만 해당됩니다. 알파테스트를 사용하면 버텍스 처리 단계에서는 해당 폴리곤이 차폐 되는지의 여부를 판단할 수 없기때문에 Deferred 처리를 깨트릴 수 밖에 없게됩니다.

유니티에서는 이를 방지하기위해서 완전 불투명 오브젝트들을 모두 렌더링처리한 후에 알파테스트 오브젝트들을 렌더링합니다. 따라서 알파 테스트를 제한적으로만 사용한다면 그렇게 치명적이지는 않습니다. 하지만 애초에 TBDR 칩셋의 구조가 알파테스트 처리에 적합하지 않기 때문에 알파테스트를 사용하지 않는 것이 좋습니다. 그런 이유로, 유니티의 내장 쉐이더 중 Mobile 카테고리에는 알파 테스트 쉐이더가 존재하지 않습니다.

반면에, 알파블렌딩은 데스크톱에 비해서 고속으로 처리가됩니다. 알파블렌딩과정은 출력 내부적으로 대상 버퍼의 읽기/쓰기가 발생합니다. 데스크톱에서는 DRAM에 존재하는 프레임버퍼 전체에 접근해야하기때문에 높은 대역폭을 잡아먹게됩니다. 하지만 TBR에서는 이 처리가 타일 단위로 이루어지고 칩 내부에 존재하는 메모리에서 이루어지므로 고속으로 처리됩니다.


오버드로우

다만 명심해야 할 것은 알파 블렌딩 처리 자체가 빠르다는 것일 뿐이지 오버드로우에서 자유로와진다는 것은 아닙니다. 예를 들어서 넓은 영역의 파티클을 높은 밀도로 뿌리는 것은 여전히 오버드로우 문제를 일으켜서 성능 저하로 직결됩니다. 모바일은 쉐이더 성능이 기종에 따라 천차만별이므로 오버드로우로 인해서 쉐이더 싸이클이 낭비되는 것은 치명적인 문제가 됩니다. 웬만하면 불투명 오브젝트 위주로 리소스를 만들기를 권장합니다. 알파 블렌딩 오브젝트 또는 파티클은 오버드로우를 최대한 피해서 사용하시기를 권장합니다.


로우 폴리곤

너무나 당연한 이야기라 뜬금없어 보일수도 있겠지만 많은 폴리곤을 처리하면 성능이 하락합니다. 게다가, TBDR에서는 많은 폴리곤 처리의 부담이 더욱 큽니다. 앞서 설명드린 버텍스 쉐이더의 결과물들을 담아두는 파라미터 버퍼(Parameter Buffer)의 크기는 당연하게도 무한하지 않습니다. 따라서 이 버퍼가 넘쳐버리면 더 이상의 버텍스 쉐이더 결과물을 받아들이지 못하고 버퍼를 비워줘야합니다. 이 버퍼를 비워주기 위해서는 타일의 픽셀 처리 후 프레임버퍼로 출력하는 사이클을 거쳐야합니다. 때문에, 이론상으로는 TBDR에서는 픽셀의 오버드로우가 발생하지 않아야하지만, 현실적으로는 폴리곤이 많을수록 오버드로우가 발생하게 발생하게 됩니다. 그러므로 오브젝트의 렌더링 퀄리티를 높여야한다면 버텍스를 늘리는 것 보다는 픽셀쪽 연산을 늘리는 것이 오히려 이득일 수도 있습니다.


렌더 텍스쳐(Render Texture)

렌더 텍스쳐를 사용하면 유니티 내부적으로 렌더 타겟(Render Target)을 변경하는 행위를 거치게됩니다. 이러한 렌더타겟을 변경하는 행위는 데스크톱에서도 성능을 잡아먹는 행위가 됩니다. 렌더 타겟을 바꾸기위해서는 CPU가 GPU를 대기하는 과정을 거치게되면서 CPU와 GPU의 병렬 관계가 잠기 깨지는 현상이 발생하기 때문입니다. 

게다가, TBDR에서는 더욱 치명적인 행위가 됩니다. 렌더 타겟을 변경할 시에는 현재 파라미터 버퍼에 쌓여있는 데이터들을 모두 처리해주고 프레임버퍼에 출력합니다. 그 후 다음 렌더 타겟을 위해서 파라미터 버퍼를 비워줍니다. 이런식으로 렌더 타겟을 바꿀 시 deferred 사이클을 추가적으로 처리해줘야 합니다. 때문에 유니티의 카메라에서 타겟 텍스쳐(Target Texture)로 렌더 텍스쳐를 사용하는 경우에는 TBDR의 효율이 떨어지게 됩니다.

이미지 후처리 효과(Image post process Effect)

최근 디바이스들은 컬러 그레이딩이나 블룸 효과 등 이미지 후처리들을 사용할 수 있을 만큼 성능이 좋아졌습니다. 하지만 이러한 이미지 후처리들을 너무 남발해서 사용하면 안되고 필요한 것만 선택적으로 사용해야 합니다. 

우선, 이미지 후처리들은 내부적으로 렌더 타겟을 변경하는 행위를 합니다. 하지만, 더 큰 문제는 대역폭입니다.  물론 픽셀 처리 능력도 관건이지만 대역폭이 더욱 큰 문제가 됩니다. 이미지 후처리들은 현재 렌더링 한 결과를 담고있는 렌더 타겟을 픽셀쉐이더의 입력 텍스쳐로 가져옵니다. 이 때 입력받는 텍스쳐는 칩 내부에 있는 타일이 아니라 공용 메모리에 있는 렌더 타겟을 가져오기때문에 엄청난 대역폭을 잡아먹게 됩니다. (예 : 1080p) 그러므로 이미지 후처리는 신중하게 사용해야 합니다.


카메라 클리어(Clear)

예전의 데스크톱 그래픽카드에서는 한 프레임의 렌더링을 시작하기 전 일부러 화면을 클리어해주지 않고 렌더링을 시작하는 경우도 있었습니다. 하지만 현대의 데스크톱 그래픽카드에서는 반드시 클리어를 해주어야만 하드웨어의 고속 처리를 지원받을 수 있습니다. 이는 모바일 기기의 TBR에서도 마찬가지입니다. 클리어를 수행하여 칩 내부의 버퍼들을 비워줘야만 이후 렌더링 과정을 고속으로 처리할 수 있습니다. 따라서, 유니티의 카메라에서 Clear Flag를 Don’t clear로 두는 것은 데스크톱에서나 모바일에서나 웬만해서는 권장되지 않습니다. 


MSAA

데스크톱에서는 MSAA가 매우 큰 부담이 됩니다. 역시 마찬가지로 대역폭이 가장 큰 원인입니다. 예를 들어 1080p해상도의 화면을 MSAA 2X로 처리하려면 2160p만큼의 대역폭이 필요해집니다. DRAM으로부터 그만큼의 대역폭을 요구한 다는 것은 매우 큰 부담이 되는것입니다. 하지만 TBR에서는 이 역시 칩 내부의 타일에서 이루어집니다. 16x16 혹은 32x32정도에 불과한 타일로 MSAA처리해주는 것은 그리 부담이 되지 않습니다. 

유니티에서 MSAA를 사용하기위해서는 퀄리티 셋팅에서 Anti Aliasing을 2 혹은 4로 선택해주면 됩니다. 다만 개인적으로는, 매우 높은 DPI를 자랑하는 대부분의 모바일 기기에서 안티 앨리어싱이 굳이 필요할 지는 모르겠습니다 :)


프로파일링

유니티5부터 프레임 디버거(Frame Debugger)가 추가되어서 프레임 별 렌더링 과정을 디버깅해볼 수 있게 되었습니다. 이를 통해서 오브젝트의 렌더링 과정이나 배칭 현황을 손쉽게 확인 해 볼 수 있게 되었습니다.  

이미지 출처 : http://docs.unity3d.com/Manual/FrameDebugger.html

하지만 애석하게도 유니티의 프레임 디버거만으로는 드로우콜 별 GPU 퍼포먼스나 세부 상태를 확인하기는 힘듭니다. 다행히도, 칩셋 벤더마다 렌더링 과정을 세부적으로 프로파일링을 해볼 수 있는 툴을 제공해주고 있습니다. 아드레노 칩셋은 아드레노 프로파일러를 통해서, 말리 칩셋은 말리 프로파일러나 DS-5를 통해서, 아이폰은 XCODE를 통해서 프로파일링을 해볼 수 있습니다.

이미지 출처 : http://www.slideshare.net/ozlael/graphics-opt-ndc

다만 문제가 하나 있습니다. TBR 방식을 사용하는 칩셋은 콜 별 설능을 확인하는데 어려움이 없습니다. 하지만 TBDR 방식을 사용하는 칩셋은 콜 별 성능을 직관적으로 확인하는게 사실상 불가능하다는 것입니다. TBDR은 앞서 언급했다시피, 드로우콜 발생 시 픽셀 쉐이더를 즉시 처리하는 것이 아니라 파라미터 버퍼에 결과를 담아둡니다. 그 후 모든 드로우콜을 마치고 나면 그때서야 실제 렌더링을 수행하기 때문에 콜 별 성능을 실질적으로 확인해 볼 수가 없는 것입니다. 따라서 X-code에서 아이폰의 렌더링을 프로파일링 해보면 성능 관련 숫자가 0으로 나오게 됩니다. 0이 아닌 숫자가 나오는 경우도 있지만 이 역시 신뢰할 수 없는 숫자입니다. 대신 프레임 전체에 걸린 성능을 확인해보거나 콜 당시의 사용 텍스쳐 등 주변 정보로 유추해보는 수 밖에 없습니다. 이처럼 아이폰의 프로파일링은 좀 까다로운 편입니다.

이미지 출처 : http://www.slideshare.net/ozlael/graphics-opt-ndc


화면 변화율

TBR에서는 렌더링을 칩 내부의 타일에다 하는 과정은 대역폭을 먹지 않지만, DRAM 영역에 존재하는 프레임 버퍼에 타일을 출력하는 과정에서는 어느 정도는 대역폭이 필요할 수 밖에 없게됩니다. 이러한 대역폭을 조금이나마 절약하기 위해서 말리에서는 트랜잭션 엘리미네이션(Transaction Elimination)이라는 기술을 사용합니다. 타일 별로, 이전 프레임과 화면 결과가 달라지지 않은 타일의 영역은 프레임버퍼를 갱신하지 않고 이전 프레임의 결과를 재활용 하는 것입니다. 그렇게 하면 칩 내부 메모리에서 시스템 메모리로 복사하는 양이 줄어드는 효과를 갖게됩니다. 아래 예시 이미지의 파란 글자 타일이 바로 그 부분에 해당합니다. 

이미지 출처 : http://community.arm.com/

따라서, 고정 카메라를 사용한다면 스카이박스 등의 배경에는 최대한 변화를 피하는 것도 좋은 방법이 될 수도 있습니다. 현실적으로는 3D 게임에는 이러한 조건에 해당하는 경우가 많지는 않을 것입니다. 하지만 2D 게임에는 적합하는 부분이 많은 것입니다.


마치며

TBR에 관한 내용이랑 TBDR에 관한 내용을 같이 언급하긴 하였습니다. 하지만 대부분은 아이폰이나 안드로이드폰만 타겟으로 설정하고 개발할 것이고, 플랫폼마다 데이터를 별도로 제작하지는 않을 것이라 예상합니다. 따라서 현실적으로는 TBR, TBDR 모두 고려대상으로 삼고 이러한 사항들을 인지하면서 개발하여야 할 것이라 생각합니다.

감사합니다.


Posted by ozlael
,