※ 이 글은 오가사와라 히로유키(小笠原博之) 씨가 블로그에 적은 글을 번역한 것입니다. 사정에 따라 예고없이 삭제될 수 있으므로 양해부탁드립니다.

Android 5.x OpenGL ES 3.1과 대응 GPU

(원문 : Android 5.x OpenGL ES 3.1 と対応 GPU)

Android 5.0부터 OpenGL ES 3.1에 대응합니다. GPU의 대응상황을 조사해보았습니다. 현재까지 판명된 (직접 조사한) GPU는 다음과 같습니다.

GPU              OpenGL API           SoC
----------------------------------------------------
Tegra K1         OpenGL ES 3.1 AEP
Adreno 420       OpenGL ES 3.1 AEP    Snapdragon 805
Adreno 430       OpenGL ES 3.1 AEP    Snapdragon 810         
Mali-T604        OpenGL ES 3.1        Exynos 5
Mali-T760        OpenGL ES 3.1        Exynos 7
PowerVR G6200    OpenGL ES 3.1        MT8135
PowerVR G6430    OpenGL ES 3.1        Atom Z3580

Android 4.3부터 OpenGL ES 3.0을 지원합니다. 위의 결과를 보면 OpenGL ES 3.0 대응 GPU 태반이 그대로 OpenGL ES 3.1에도 대응된다는 것을 알 수 있습니다.

위의 표에는 없습니다만, Z37 계열의 Intel HD Graphcs (Gen7)도 Windows의 최신 드라이버에서 OpenGL ES 3.1에 대응합니다.(자세한 건 이쪽으로)

따라서 현재 예외가 되는 것은 Adreno 300 계열 뿐입니다. Adreno 300(305/306/320/330등)은 OpenGL ES 3.0 전용이라 생각해도 될 것 같습니다.

또 하나의 특수한 예외는 iOS입니다. 지원하는 OpenGL API는 ES 3.0까지 입니다만, Low Level API인 Metal을 사용함으로써 OpenGL ES 3.1에 해당하는 기능을 사용할 수 있습니다.

GPU              API                     SoC
--------------------------------------------------
PowerVR G6430    OpenGL ES 3.0 / Metal   A7
PowerVR GX6450   OpenGL ES 3.0 / Metal   A8
PowerVR GX6850   OpenGL ES 3.0 / Metal   A8X

OpenGL ES 3.1 대응상황에 대해서는 아래 페이지에 정리했습니다.

GPU 별 상세는 이쪽.

관련글

※ 이 글은 오가사와라 히로유키(小笠原博之) 씨가 블로그에 적은 글을 번역한 것입니다. 사정에 따라 예고없이 삭제될 수 있으므로 양해부탁드립니다.

Nexus 9 Tegra K1과 ARM 64bit Denver

(원문 : Nexus 9 Tegra K1 と ARM 64bit Denver)

iPhone 5s에 뒤쳐진지 대략 1년, 64bit 대응 Android와 ARM64 단말이 발매되었습니다. Nexus 9의 CPU core는 NVIDIA의 Denver.

Processor	: NVIDIA Denver 1.0 rev 0 (aarch64)
processor	: 0
processor	: 1
Features	: fp asimd aes pmull sha1 sha2 crc32 
CPU implementer	: 0x4e
CPU architecture: AArch64
CPU variant	: 0x0
CPU part	: 0x000
CPU revision	: 0

Hardware	: Flounder
Revision	: 0000
Serial		: 0000000000000000

좀 보기 힘들지만 "processor" 행이 2개 있으므로 dual core입니다.

$ cat /sys/devices/system/cpu/online
0-1

vfpbenchmark는 아래와 같습니다. single core 시의 부동소수점 연산능력은 SHILED Tablet(Cortex-A15 2.2GHz)과 거의 동등하여, 종합성능에서는 Core의 수만큼 떨어집니다. 어디까지나 32bit의 결과이고 나중에 64bit(AArch64)에서도 테스트해보려 합니다.

// Nexus 9
ARCH: ARMv7A
CPU core: 2
VFP: VFPv4-D32 NEON
FMA: Yes
NEON: Yes
  SingleT SP max: 17.799 GFLOPS
  SingleT DP max:  4.423 GFLOPS
  MultiT  SP max: 34.582 GFLOPS
  MultiT  DP max:  8.719 GFLOPS
ro.product.cpu.abi=arm64-v8a
ro.product.cpu.abilist=arm64-v8a,armeabi-v7a,armeabi
ro.product.cpu.abilist32=armeabi-v7a,armeabi
ro.product.cpu.abilist64=arm64-v8a

arm64-v8a, armeabi-v7a, armeabi 3개의 ABI에 대응합니다. Android가 현재 NDK에서 지원하는 ABI는 아래의 7종류입니다.

armeabi       ARMv5TE
armeabi-v7a   ARMv7A VFPv3-D16 softfp (VFPv3-D32, NEON, hard-float)
arm64-v8a     ARMv8A (AArch64)
x86           x86 (IA-32)
x86_64        x64
mips          MIPS32-R1
miips64       MIPS64

참고로 iOS에서 개발용의 lib를 만들면 5종류.

armv7         ARMv7A VFPv3-D32+NEON softfp
armv7s        ARMv7A VFPv4-D32+NEON softfp
arm64         ARMv8A (AArch64)
i386          x86    simulator
x86_64        x86_64 simulator

GPU는 OpenGL ES 3.1의 Context를 반환합니다.

GL_VERSION: OpenGL ES 3.1 NVIDIA 343.00
GL_RENDERER: NVIDIA Tegra
GL_VENDOR: NVIDIA Corporation
GL_SHADING_LANGUAGE_VERSION: OpenGL ES GLSL ES 3.10

대응하는 텍스처 포맷은 DXT, ETC1, ETC2/EAC, ASTC. 자세한 것은 아래 페이지에 게재했습니다.

※ 이 글은 오가사와라 히로유키(小笠原博之) 씨가 블로그에 적은 글을 번역한 것입니다. 사정에 따라 예고없이 삭제될 수 있으므로 양해부탁드립니다.

OpenGL ES 2.0 Tegra2/3/4의 Fragment Shader와 동적루프

(원문 : OpenGL ES 2.0 Tegra2/3/4 の Fragment Shader と動的ループ)

Desktop GPU에서 Vertex Shader와 Pixel Shader의 사양이 완전히 통일된 것은 Direct3D 10의 ShaderModel 4.0 이후입니다. 그때까지는 쓸 수 있는 명령이나 Constant 영역, 레지스터 수, 프로그램 사이즈, 텍스처 명령등 여러가지 차이가 남아있었습니다.

Hardware의 Unified Shader화는 ATI의 Xbox360 GPU가 먼저 시작하였습니다. 이것이 지금의 Qualcomm Adreno로 이어집니다. 그 후 일반적인 Desktop PC용으로도 NVIDIA GeForce 8800 (G80)이 등장하여, 이후 Unified Shader Model이 당연해지게 됩니다.

OpenGL ES 2.0의 Shader 세대는 Direct3D 9의 Shader Model 3.0에 해당합니다만, 많은 Mobile GPU가 이미 Unified Shader화되어있습니다. 그렇기에 딱히 Vertex와 Fragment Shader의 성능차를 의식할 필요는 없었습니다.

그 중, Tegra2/3/4는 G70 베이스의 GPU로, Unified Shader화되기 전의 제한이 남아있는 드문 케이스입니다.

코멘트에서 Tegra의 Fragment Shader는 동적 루프를 쓸 수 없다는 지적을 받았기에 테스트해보았습니다.

// (1) 동적 루프
int loop= int( uniform_value );
for( int i= 0 ; i < loop ; i++ ){
   ...
}

↑루프 회수를 동적으로 구하는 경우, Vertex Shader는 통과하지만 Fragment Shader에서는 컴파일 시에 에러가 발생합니다.

예전에 적었듯 Uniform 배열의 index 접근↓(2)도 Tegra의 Fragment Shader에서는 에러가 뜹니다. 둘 다 Direct3D 9 세대의 제한이라 생각됩니다.

// (2) Uniform 배열
uniform vec4 src_color[30];
~
int index= int(tex_color.x);
vec4 color= src_color[ index ]; // Tegra의 Fragment Shader에서는 Error

Tegra 4에서도 마찬가지이므로, 기능은 대폭 확장되었지만 GPU의 베이스는 같다는 것을 알 수 있습니다. 참고로 Tegra와 같은 Discrete Type의 Shader Unit을 갖춘 Mali-400MP에서는 작동합니다.

	     Vertex Shader            Fragment Shader
	     동적Loop  Uniform배열    동적Loop  Uniform배열
-----------------------------------------------------------
Unified      ◯         ◯              ◯         ◯
Mali-400MP   ◯         ◯              ◯         ◯
Tegra2/3/4   ◯         ◯              ERROR     ERROR

하지만 Tegra에서도 동적 분기는 가능하기에, 실행시에 루프 횟수가 변동하는 경우에도 동등한 처리를 실현할 수는 있습니다.

// (3) Tegra용 동적분기에 의한 루프
for( int i= 0 ; i< 100 ; i++ ){
    if( i >= Loop ){
        break;
    }
    ~ 동적 루프에 해당하는 부분
}

이하 정리 (모두 Fragment Shader의 경우)

컴파일 시에 루프 횟수가 정해져 있지 않으면 에러.

// (4) 루프횟수 미정  -- Tegra에서 ERROR
for( int i= start ; i< end ; i++ ){
    ~
}

루프 범위가 정해저 있으면 컴파일 가능

// (5) 상한이 정해져있는 경우 -- Tegra에서도 OK
for( int i= 0 ; i< 100 ; i++ ){
    if( i >= start && i < end ){
        ~ 동적 루프에 해당하는 부분
    }
}

아마도 아래와 같이 전개되지 않을까 생각됩니다.

i= 0;
if( i >= start && i < end ){
    ~
}
i= 1;
if( i >= start && i < end ){
    ~
}

~

i= 99;
if( i >= start && i < end ){
    ~
}

Tegra K1 이후는 ShaderModel 5.0 세대의 GPU core가 되므로 이런 하드웨어적 제한은 없어질 것입니다.

관련글

※ 이 글은 오가사와라 히로유키(小笠原博之) 씨가 블로그에 적은 글을 번역한 것입니다. 사정에 따라 예고없이 삭제될 수 있으므로 양해부탁드립니다.

OpenGL ES 2.0 Adreno 330, Tegra 4의 GPU 속도

(원문 : OpenGL ES 2.0 Adreno 330, Tegra 4 の GPU 速度)

벤치마크 결과를 갱신했습니다.

Android 4.1 이후 및 대응하는 디바이스에서는 SwapInterval을 0으로 변경해서 60fps 이상 나옵니다. (관련글)

GPU            SoC   CPU clock OS    Screen     fps       pix/sec
---------------------------------------------------------------------
Adreno 330     MSM8974 2.2GHz  A4.2  1920x1200  71.98fps   165.8M
Adreno 320(64) APQ8064 1.5GHz  A4.4  1920x1104  40.97fps    86.8M
Mali-T604     Exynos5D 1.7GHz  A4.4  2560x1504  20.73fps    79.8M
ULP GeForce(72) Tegra4 1.8GHz  A4.3   1126x800  44.58fps    43.4M
ULP GeForce(12) Tegra3 1.2GHz  A4.4   1280x752  15.70fps    15.0M (*1)

*1: Shadow Map 없음, 16bit depth

Adreno 330은 예상 이상으로 빨라서, Adreno 320과 비교해도 약 2배 정도의 속도를 냅니다. 드디어 가장 부하가 높은 설정에서도 Full HD(1920x1200)에서 60fps를 넘게 되었습니다.

그에 비해 Tegra 4는 그다지 속도가 늘지 않았습니다. 부하를 낮춰도 속도가 올라가지 않으므로, SwapInterval 설정이 효과가 없던지 뭔가 문제가 발생했을 가능성이 있습니다.

그 대신 Tegra 3에서 생략되었던 여러 extension을 지원하여 렌더링 결과가 다른 GPU와 거의 일치하게 되었습니다.

특히 GL_EXT_shadow_samplers는 그냥 Hardware ShadowMap이 아니라 PCF에 제대로 Bi-linear Filter도 걸립니다. GL_EXT_shadow_samplers는 OpenGL ES 3.0 이후의 디바이스는 전부 대응하고 있지만, 반드시 Filter가 걸리는 것은 아닌 듯 합니다. 아래는 몇가지 테스트한 결과입니다.

                               depth-tex sh-samplers PCF Filter
----------------------------------------------------------------
8064 Adreno 320 OpenGL ES 3.0      ◎        ◎      ◎   --
8064 Adreno 320 OpenGL ES 2.0      ◎        --      --   --
Mali-T604       OpenGL ES 3.0      ◎        ◎      ◎   ◎
Tegra 4         OpenGL ES 2.0      ◎        ◎      ◎   ◎
Tegra 3         OpenGL ES 2.0      --        --      --   --
iOS PVR 543MP3  OpenGL ES 2.0      ◎        ◎      ◎   ◎
Vivante GC4000  OpenGL ES 2.0      ◎        --      --   --
Mali-400MP4     OpenGL ES 2.0      ◎        --      --   --
PowerVR SGX540  OpenGL ES 2.0      ◎        --      --   --

이쪽에 관해서는 조금 더 자세하게 조사할 생각입니다. 또 Tegra4의 Extension 상세사항은 다음 페이지에 추가했습니다.

관련 페이지

※ 이 글은 impress watch 에 실린 컬럼을 번역한 것입니다. 사정에 따라 예고없이 삭제될 수 있으므로 양해부탁드립니다.

최근의 태블릿/스마트폰용 SoC 제 4회~괴롭지만 SoC 비즈니스에 매진하는 Intel과 NVIDIA

(원문 : 今どきのタブレット/スマートフォン向けSoC 第4回~苦しみながらもSoCビジネスに邁進するIntelとNVIDIA)

지금까지 소개해온대로, 스마트폰/태블릿 시장은 ARM 천하, 더 정확하게 말하면 ARM 생태계의 천하가 되었고, 그 이외의 플레이어가 들어오기에는 굉장히 어려운 상황이다. 그럼에도 여기에 적극적으로 진입을 시도하는 벤더가 둘 있다. 말할것도 없이 Intel과 NVIDIA이다. 마지막회가 되는 이번회에는 그 양사의 움직임을 소개할까 한다.

IA/x86으로 ARM 생태계와 싸우는 Intel


2003년에 발표된 「PXA800」

Intel은 휴대전화에 흥미가 없지는 않았다. 1997년, Intel은 구 DEC과의 특허소송의 화해조건으로써 「StrongARM」의 제품 포트폴리오를 얻는다. 당시 이 StrongARM은 COMPAQ의 「iPAQ」시리즈 등의 PDA에 이용되는 것을 시작으로 나름대로 수요를 얻게 되는데, 여기서 "배팅 금액을 두배로 올리는" 것이 인텔 스타일. StrongARM은 ARM v4 기반의 제품이었지만, 1999년에 ARM에게서 ARM v5의 아키텍처 라이선스를 입수. StrongARM을 기반으로 내부를 완전히 뜯어고친 「XScale」을 완성시킨다.

이 시점에서 Intel의 계획은 지금과는 조금 다른 것이었다. PDA 시장은 나름대로 성장하고 있었지만 새 아키텍처 제품 라인을 유지하기에 충분하다고는 할 수 없는 출하량이었다. 그래서 휴대폰 시장에도 XScale을 투입함으로써 셰어의 확대 + 장기적인 매상 확보를 노리는 것이 속마음이었을 것이다.

이를 목표로 2003년, GSM/GPRS에 대응한 「PXA800」이라는 칩을 화려하게 발표한다. CPU 코어는 XScale, 베이스밴드에 관한 부분은 ADI(Analog Devices Inc.)에서 라이선스를 받아 DSP를 입수, 이것을 「Intel MicroSignal Architecture」로 실장했다. 당시에는 아직 Intel 자신이 플래시 메모리 부분을 보유하지 않았기에 이것도 실장. 거기에 SRAM을 4.5Mbit나 실장하는, 130nm 공정으로는 사치스럽다고 해야할지 욕심을 잔뜩 부린 사양의 SoC였다. 또 PXA800의 발표 이전에 발매한 「PXA210」도 피처폰용으로 투입할 계획이었다.

이미 알고 있겠지만 PXA210이나 PXA800을 채용한 휴대폰 메이커는 단 한곳도 없었고, PXA800의 후계인 「PXA900」이 RIM의 「Blackberry 7800」등 몇 기종에 채용되는 정도였으며, 그 수량도 그렇게 많지는 않았다. 그 결과, Intel은 XScale 아키텍처 자체를 포함한 PXA의 제품 라인을, 여기에 관련된 인원까지 통채로 Marvell에 매각해버린다. 여기서 한번 휴대폰용 비즈니스는 완전히 좌절되었다.


PXA800의 상세


피처폰용 「PXA210」

이런 뼈아픈 경험에도 불구하고 Intel이 다시 휴대폰 시장에 참가한 이유는, 이것도 알고 있겠지만 PC 시장의 축소경향 때문이다. 현시점에서 Intel의 경쟁력의 원천은 자사의 Fab에 의한 우수한 공정기술이다. 하지만 이 우수한 공정기술을 유지하기 위해서는 막대한 비용이 들어간다. 이는 단순히 공정을 개발하는 것만이 아니라, 양산을 위한 설비 비용도 점점 올라가고 있기 때문이다. 지금까지는 판매가격이 높은 PC용 프로세서를 대량으로 출하하는 형태로 커버할 수 있었다. 하지만 PC용 프로세서의 출하수량 자체가 쇠퇴경향을 보이는 현재로는

  • 차세대 공정 노드용 개발에 필요한 비용이 상승하여 프로세서 1개당 차지하는 개발/설비 비용도 상승. 반면 판매가격은 오히려 내려가고 있는지라 점점 이익이 줄어들어간다.
  • 순수하게 출하수량이 줄면 그만큼 Fab의 가동률이 내려가게 된다. 특히 Intel의 경우, 「Copy Exactly」라 불리는 복수 Fab에서 양산하는 방식을 전제로 생산라인의 개발이나 기기 발주를 하는데다, 애초에 자사 제품만을 생산하므로 소품종/다량이라는 형태의 양산이 된다. 그러므로 PC용 프로세서의 출하량이 줄어들었을때 다른 제품으로 메우기가 어려우며, 그대로 가동률 저하로 이어진다.

는 문제를 노출하게 된다.


PC 시장과 스마트폰/태블릿 시장의 역전 (JEDEC의 자료에서)

사실 Intel은 비교적 조기에 이런 문제를 알고 있었다. 애초에 2008년에 투입된 Atom은 당초부터 스마트폰용으로 투입될 것을 상정하고 있었고, 이를 위해 「Moorestown」플랫폼도 빠른 시기에 발표되었다. 그렇지만 이 Moorestown이 투입된 것은 2년 늦은 2010년이었다. 이유는 두가지다.

하나는 CPU측(Lincroft)가 재설계된 코어였다는 것이다. Lincroft의 기반이 된 Silverthorne은 순수하게 CPU만 있는 다이였지만, 스마트폰등을 대상으로 하려면 역시 GPU 통합이 필요하다. 최종적으로는 「Intel GMA 600」이라는 GPU를 통합했지만, 사실 이것은 Imagination의 「PowerVR SGX」였으며, 통합작업에 1년 이상을 요하게 되었다. 일반적으로는 Silverthorne의 개발과 병행하여 Lincroft의 개발작업이 진행되었으리라 생각하지만, 당시 Intel은 Atom을 이용하여 광범위한 제품 라인업을 제공할 예정이었으며, 필자는 개발측의 리소스가 부족한 게 원인아니었을까 생각한다.

또 하나는 45nm 세대의 SoC 공정 구축에 사실상 실패한 것이다. 고속 로직 대상 45nm 공정인 「P1266」은 2007년에 제공을 개시하고, 이 뒤를 이어 SoC 대상인 「P1267」을 2008년에 출시할 예정이었다. 당초 Lincroft는 이 P1267을 사용하여 제공할 예정이었다고 한다. 실제로 저전력을 추구한다면 고속 로직 대상인 P1266보다 P1267 쪽이 맞다. 하지만 Intel은 이 P1267의 개발에 사실상 실패. 이것을 채용한 것은 정말 극히 일부 제품에 머무르며, Lincroft만이 아니라 같은 SoC 공정을 사용하는 PC용 칩셋도 전부 32nm SoC용 「P1269」가 나올때까지 기다리는 처지가 되었다. 그 결과, Lincroft는 2010년에 투입되었음에도 동작주파수는 1GHz 전후(하이엔드인 Z625도 간신히 1.9GHz)밖에 되지 않았다. 2010년이라고 하면 40nm에 2GHz로 구동하는 Dual/Quad Cortex-A9 기반의 SoC가 나오고 있던 시기이며, 상품경쟁력이 전무하다고는 할 수 없어도 상당히 낮다고는 할 수 있다.



Atom 시리즈 발표 당시부터 Moorestown으로 스마트폰 시장을 상정하고 있었다.

다만, 45nm SoC에서 오랫동안 트러블을 경험한만큼 32nm의 P1269나 22nm의 「P1271」에서는 비교적 스무스하게 개발이 진행된듯, 2012년에는 기본적인 구성은 크게 바꾸지 않은 채 P1269를 사용한 「Medfield」가 등장, 거기에 2014년에는 CPU 코어의 마이크로아키텍처를 쇄신하고 P1271를 탑재한 「Merrifield」가 투입될 예정이다.

Medfield/Merrifield 모두 기본적인 아키텍처는 태블릿용인 「Clover Trail」이나 「Bay Trail」과 마찬가지로, 동작주파수나 소비전력을 스마트폰용으로 맞춘 정도의 물건이다. 참고로 Merrifield의 존재 자체는 2013년 6월의 COMPUTEX에서 소개되었지만, 제품 레벨의 상세 내용은 2014년 2월의 MWC로 미루어져, 공식으로는 아직 발표되지 않았다. 하지만 기본적으로는 Bay Trail과 같기에, 이미 제품은 스마트폰 벤더에게 넘겨져 실장이 어느 정도 끝나있을 것인지라, MWC가 열리는 타이밍에는 탑재제품도 발표되지 않을까 한다.


Medfield의 블럭 다이어그램


차기 스마트폰용 SoC 「Merrifield」

자, 예전에 앞으로의 로드맵을 나타낸 것이 다음 그림이다. 원래 베이스가 되는 Atom 코어 자체가 현재 22nm인 「Silvermont」에서 14nm 세대인 「Airmont」(Silvermont의 14nm공정 슈링크판)으로 바뀌는 것에 대응하여, 이 코어를 탑재한 「Moorefield」가 투입된다는 이야기는 예전에도 있었지만, 2013년 11월의 Investor Meeting에도 좀 더 이후의 이야기가 나왔다.


Intel이 예전부터 공표한 로드맵

먼저 2014년을 보면 전반에 Merrifield, 후반에 Moorefield가 투입되는 것은 기정사항이다. 하지만 이와는 별도로 「SoFIA」라 불리는 새로운 코어가 로우엔드용으로 투입된다. 이 SoFIA는 3G 모뎀을 내장한 제품이지만, 2015년에는 하이엔드로(Airmont의 후계로 기능을 강화한) 「Goldmont」코어를 내장한 「Boxton」, 로우엔드로는 내장 모뎀을 LTE 대응으로 바꾼 「SoFIA LTE」가 각자 투입되게 된다. 이 결과, 2015년에는 라인업이 매우 충실해진다.


11월 Investor Metting에서 공개된 로드맵. 2014년 후반에 「SoFIA」라 불리는 로우엔드용 코어가 제공된다.


2015년에는 「Boxton」, 「SoFIA LTE」도 투입


2015년의 태블릿용 라인업

재미있는 것은 이 SoFIA가 Intel 사내에서 제조하는 것이 아니라는 것이다. 명확히 표시되지는 않았지만 지금까지의 경위를 생각하면 TSMC에서 20nm 공정 혹은 16nm FinFET 공정으로 제조될 것 같다(필자는 전자의 가능성이 높다고 생각한다). 이러한 움직임은 처음 설명한 「Fab의 가동률을 높이는 것」과 정면으로 대립되는 것이지만, 이에 관해서 CEO인 Brian Krzanich 씨는 「우리는 현실적으로 생각해야한다」고 이야기했다. Intel의 Fab은 확실히 높은 기술을 자랑하지만, 그 반면 생산에 요하는 코스트도 높다. 즉 판매가격을 높게 잡을 수 있는 Boxton은 그렇다치고, 저가격제품용인 SoFIA까지 제조하면 비용을 맞추지 못하게 된다. 그렇기에 SoFIA는 외부 파운드리를 쓰기로 했다,는 말이리라.

이 배경도 역시 Investor Meeting에서 밝혀졌다. PC나 데이터서버 부문에서는 나름 흑자를 내고 있고 소프트웨어/서비스도 적자는 아니었지만, 그에 반하여 태블릿이나 스마트폰 부문은 명확한 적자였기 때문이다. 매상이 40억 달러인데 반해 영업이익은 25억달러 적자. 이렇게 되면 아무리 종합적으로는 흑자액이 많다고는 해도 부문 존속을 위해서는 뭔가 수를 써야 한다. 그 방법론의 하나로, 원가율을 낮추기 위해 제조를 외부위탁할 수 밖에 없었던 것이다.


「그 외 IA 제품」, 즉 스마트폰이나 태블릿 부문이 적자가 되어있다.

그럼, 여기서 손을 쓰면 Intel의 스마트폰용 SoC는 안녕할 것인가?하면 상당히 의심스럽다는 것이 솔직한 마음이다. 2회의 Qualcomm 항목에서도 설명했듯, 일단 스마트폰 시장에 들어가려는데 모뎀이 없으면 가격경쟁력이 현저하게 떨어진다. 그래서 힘내서 모뎀을 내장했다. 하지만 이미 그것만으로는 차별화 요인이 되지 못한다. 3회에서도 소개했듯, Spreadtrum이나 HiSilicon의 저가격 SoC들조차 모뎀을 내장하고 있으며, 이들과 호각으로 승부하려 한다면 상당히 힘든 싸움이 된다. Intel이 주로 Atom 기반 SoC의 높은 성능을 어필하는 것은, 그쪽으로밖에 승부할 수 밖에 없기 때문이라는 이면도 있다.

더 심각한 문제는, 이렇게까지해도 Intel의 SoC에는 매력이 그다지 없다는 점이다. 이 문제는 스마트폰용에서 특히 현저해진다. 이는 ARM 대 Intel의 대립이란 실제로는 성능이나 명령어셋이 아니라 생태계의 대립이며, 휴대폰용 메이커에 있어서 Intel의 생태계는 매력적이지 않다,는 점에서 이야기는 끝난다.

Intel의 생태계란, 딱잘라 적자면 Intel(과 Microsoft)의 단독 승리가 예정된 생태계다. 이는 오랜 시간에 걸쳐 Intel과 Microsoft가 높은 영업이익률을 매년 유지해온 반면, PC 벤더의 영업이익률은 몇 %에 그마저 앞부분은 저공비행했던 걸 생각해보면 이해하기 쉬울거라 생각한다. 그에 반해 ARM 생태계의 경우에는 이익의 태반은 기기 벤더의 손에 들어간다. 일단 SoC의 원가율은 대략 5% 정도,라고 생각하면 이것도 이해하기 쉬울거라 생각한다. 휴대폰 벤더에 있어 어느쪽 비즈니스가 바람직한지는 말할 필요도 없다.

하는 김에 적어두자면, 실은 성능면에서의 차이라는 건 기기 메이커에 있어 그렇게 중요한 부분은 아니다. 이 부분은 실장 방식에 따라 최종적으로 어떻게든 변하기 때문이다. 물론 10배나 100배 정도되는 성능차가 있으면 이야기는 달라지겠지만, 수십% 차이는 실제로는 최종제품에서는 큰 차이가 되지 않는다. 제품기획을 위해 독자적인 상주 소프트를 넣거나 하는 것만으로도 배터리 수명이나 성능에 영향을 끼치기 때문이다.

또, SoC의 경우 일단 정격 스펙은 있지만 실제로는 기기 벤더가 동작주파수나 구성을 자유롭게 고칠 수 있고, 실제로 상품기획에 맞춰 세세하게 변경되므로 레퍼런스 성능 그대로 나오는 일은 일단 없다. 물론 최종적으로는 성능이 엔드 유저의 조작감이라는 형태로 영향을 미치겠지만, 일반적으로 사람의 감각은 대수에 비례하는지라 10배의 성능이 나오면 대충 「2배정도 빠르다」는 감각. 수십%의 성능차라면 거의 인식하지 못하는 게 현실이다. 이런 상황에서 Intel SoC의 장점으로 드는 「높은 성능」은 그다지 차별화를 위한 무기는 되지 못하는 것이다.

물론 태블릿용으로는 나름대로 셰어를 확보하고 있지만, 이것은 「Windows 8/8.1이 움직이는 것은 현실문제로 x86밖에 없다」는 사정에 의한 것이다. Windows RT의 보급이 진행되지 않아 Windows 계의 태블릿에서는 다른 선택지가 없어져버렸다. 반대로 Android를 움직이는데 x86일 필요는 없다는 상황에는 아무런 타격을 주지 못하고 있는 것이 현실로, Windows의 힘이 미치지 않는 스마트폰 분야에서의 존재감은 여전히 굉장히 희미하다. 기댈 대상이던 Microsoft도 또 Windows Phone 부진으로 고민, 게다가 대응 플랫폼은 ARM 뿐. 기사회생책이어야했던 Tizen은 계속 늦어지고 있다. 전해듣는 말로는 2014년 2월의 MWC에서 첫 Tizen 탑재 스마트폰이 등장할 것"같다"지만, 과연 이것이 어떤 기폭제가 될 수 있을지 현시점에서는 판단하기 힘들다.

Intel이 스마트폰 분야에서 어느 정도의 셰어를 획득하기 위해서는, 우선 생태계(비즈니스 모델) 방식을 고쳐야 할 것이다. 설령 거기까지는 했다고 해도, 앞서 이야기한 Fab의 가동률 저하나 전체적인 이익률 저하라는 근본적인 문제의 해결로는 이어지기 힘들다. 그렇다고 여기서 손을 떼버린다면 추락하는 것밖에 남지않는, 굉장히 고통스러운 방향전환을 강제받는 것이 현재 Intel의 스마트폰용 SoC 비즈니스인 것이다.

x86에서 ARM으로 축을 옮긴 NVIDIA

이어서 NVIDIA다. NVIDIA가 이용하는 CPU 코어는 ARM 기반이므로, 정확하게는 기사 앞머리에 이야기한 「ARM 생태계 이외의 플레이어」라는 표현은 약간 맞지 않는다. 하지만, ARM 생태계에서는 CPU에 중심을 두는 것에 반해 NVIDIA는 GPU를 중핵에 놓고 있다는 점이 다른 생태계 파트너와 다른 점이다.

그 NVIDIA의 휴대폰/PDA용 솔루션 최초의 물건은 2003년에 발표한 「GoForce 2150」이다. 원래 이 제품은 2003년 8월에 매수한 MediaQ라는 벤더가 개발하던 휴대폰용 2D Graphics + 카메라 인터페이스의 SoC인 「MQ2100」을 기반으로 한 것으로, 아직 NVIDIA의 독자적인 색깔은 아직 없었다.

이를 이어 동사는 3D 렌더링 기술을 탑재한 「GoForce 4500/4800/5300/5500」같은 제품을 내놓는다. 이 3D 렌더링 기법은 타일 기반이라는 것 이상의 자세한 내용은 알 수 없다. NVIDIA는 2000년에 3dfx를 매수하였는데, 이 3dfx는 같은 2000년에 GigaPixel이라는 메이커를 매수한다. 이 곳은 휴대폰 등에 맞는 타일기반의 렌더링 엔진을 개발하였고, 1999년에는 MFP(MicroProcessor Forum) 회장에서 「Quake 2」의 동작 데모가 움직일 정도의 완성도였다. 최종적으로 이 GigaPixel의 기술이 어느 정도나 NVIDIA에서 이용되었는지는 알 수 없지만, GoForce 4500 등의 내부가 이것을 기반으로 했다고 해도 그다지 신기한 일은 아니다.

2003년에 발표된 GoForce 2150을 탑재한 PDA와 휴대폰


GoForce 4500 등은 타일기반의 3D 기법을 채용했다


3dfx가 매수한 GigaPixel은 타일기반의 렌더링 기법으로 Quake 2의 동작까지 실현했다.

이렇게 계속 GoForce를 제공해온 NVIDIA지만, 휴대폰에서 GPU를 외장하는 구성은 실장면적에서 불리하다는 건 말할 필요도 없다. 그래서 GoForce의 최종제품인 「GoForce 6100」에서는 애플리케이션 프로세서로 ARM 1176JZ-S 코어를 탑재하고, 나머지는 모뎀만 접속하면 스마트폰 완성,이라는 부분까지 집적도를 높였다. 이 GoForce 6100이 발표된 것은 2007년 2월의 MWC 회장이지만, 그 4개월 후에는 400MHz로 동작하는 ARM11을 탑재한 iPhone이 투입된다. 아무래도 성능면에서 나름 체감성능차가 있기도 해서, 채용사례는 그리 많지 않았다.

자, 이 무렵부터 NVIDIA를 둘러싼 환경이 조금씩 변해온다. 이 무렵에 NVIDIA는 GPU 카드 사업만이 아니라 칩셋 비즈니스에도 힘을 쏟고 있었다. GPU 카드를 사용하려면 성능이 좋은 칩셋이 필요하고, 특히 SLI 구성이라도 하게 되면 PCI Express 슬롯을 2개 쓰게 되므로, 이쪽을 타겟으로 한 칩셋은 나름 잘 팔렸다. 또 당시의 CPU는 GPU를 내장하지 않았으므로, 성능이 좋은 GPU 통합칩셋에 대한 수요도 꽤 있었다.

하지만, 여기서 흐름이 이상하게 된다. 우선 Intel과의 사이에서 버스 라이선스에 관한 교섭에 난항을 겪게 되고, 겨우 P4 버스의 라이선스를 얻어 출하할 수 있게 되자 중요한 Intel이 QPI & DMI로 CPU 인터페이스를 변경해버리고, 거기에 Intel은 이런 인터페이스의 라이선스 계약을 단호하게 거절함으로써 최신 CPU용 칩셋을 제공할 수 없게 되어버린다. 덤으로 Intel은 GPU를 CPU측에 통합하기 시작해, GPU 카드의 수요자체도 줄고 있었다.

더 극단적인 것은 AMD용으로, 마켓 셰어를 반영해서 원래 Intel용 정도의 수량을 내지 않았던데다가 2006년에 AMD가 ATI Technologies를 매수. ATI가 제공하던 칩셋을 AMD 자신이 제공하게 됨으로써, NVIDIA의 셰어는 크게 줄어들게 된다. AMD도 역시 CPU를 GPU에 통합하는 방향성을 확실히 하였기에, NVIDIA의 칩셋 사업의 앞날은 점점 알수 없게 된다. 이런 동향에 따라 NVIDIA는 2010년에 최종적으로 칩셋 사업에서 철수하게 되지만, 그 이전 타이밍에 플랫폼을 종래의 x86에서 ARM으로 전환하기로 결단한다. x86 베이스로는 출하수량이 점점 작아지리라는 것은 명백했고, 새로운 시장을 얻기 위해 ARM으로 전환하기로 결단을 내린 것이다.

이에 따라 2008년에 첫 「Tegra」를 출시한다. 원래 이 Tegra는 말하자면 GoForce 6100의 연장선상에 있는 제품으로 성능면에서 충분하다고는 할 수 없었다. 그래서 CPU 코어를 Cortex-A9으로 전환함과 동시에 듀얼코어화한 「Tegra 2」를 2010년에 투입한다. 이쪽은 Google의 Honeycomb의 레퍼런스가 되어 많은 태블릿에 채용되고, 괜찮은 출발이 되었다.

하지만 2011년 11월에 발표된 「Tegra 3」는 Google의 리드 디바이스인 「Nexus 7(2012)」에 채용되는 등 처음 평판은 나쁘지 않았지만, 점점 속도를 잃게 된다. 그 최대 이유는 CPU를 강화했음에도 GPU 코어의 성능개선이 충분하지 않았기 때문이다. 확실히 Tegra 2와 비교하면 성능은 개선되었지만, 이 무렵에는 경합하는 SoC 모두가 GPU 성능을 강화했으며, 결과적으로 GPU의 성능은 어드밴티지가 되지 않았다. 또, 태블릿에서는 어느 정도 채용예를 획득했지만, 스마트폰용의 채용예는 그리 많지 않았다. 실제로 이 당시 Tegra 3, 혹은 Texas Instruments의 「OMAP 4」를 스마트폰에 채용한 메이커의 다수가 「실은 Snapdragon을 채용하고 싶었지만 Qualcomm의 공급이 부족해서 어쩔수 없이 Snapdragon 이외를 검토할 수 밖에 없었다」는 소극적인 이유에 의한 것으로, Snapdragon의 공급이 회복되자 급속도로 쪼그라든 것은 무리도 아니었다.

또, NVIDIA도 모뎀이 없으면 이야기가 안된다는 것은 Tegra 2 세대에 이미 인식하고 있었던 듯 하지만, 당시에는 아쉽게도 모뎀 관계 기술의 축적은 전무했다. 결국 동사는 2011년에 영국의 Icera라는 베이스밴드 모뎀을 제조하는 회사를 매수. 이것을 기반으로 「Tegra 4」 세대에 겨우 모뎀을 제공할 수 있게 되었다. 그 Tegra 4는 2013년에 발표되었지만, 현재 채용사례는 동사의 레퍼런스 디자인인 Phoenix나 중국 Xiaomi 등, 극히 일부밖에 없는 상황이다. OEM 메이커에 대한 출하는 이미 개시되었기에 2014년의 MWC에서는 다른 회사에서도 나올 가능성이 있지만, 현시점에서는 상당히 난항을 겪고 있다. 이 역시 이유는 명백하여, NVIDIA 모뎀의 캐리어 인증이 전혀 끝나지 않았기 때문이다. 이 점에서 통신기기 메이커와 얽혀있는 HiSilicon이나 애초에 통신관계 비즈니스 역사가 길고, 거기에 자본력을 살린 역량으로 인증을 진행하고 있는 Intel과 달리, NVIDIA에게는 그런 경험의 축적도 엔지니어도 없고, 캐리어 인증에 그만큼 비용을 들일 수도 없다.


Tegra 4와 스마트폰용인 Tegra 4i의 개요

여기부터는 필자의 주관이지만, NVIDIA가 「Shield」나 「Tegra Note 7」같은 제품을 연이어 내놓는 것은, 일단 캐리어 인증을 따낼 때까지 스마트폰용 출하를 기대할 수 없고 스마트폰 이외의 Tegra 4의 채용사례를 늘려놓지 않으면 이도저도 못한다,는 상황에 빠졌기 때문이 아닐까 한다. 적어도 현재로서는 NVIDIA의 SoC 비즈니스가 순조로운가 묻는다면 고개를 가로저을 수 밖에 없다.

포스트 PC 시대를 향해 ARM 생태계 안에서 GPU를 판다,는 비즈니스의 큰 틀은 틀리지 않았다고 생각하지만, 거기서 IP를 파는 것이 아니라 실리콘(반도체)를 파는 것을 골랐기에 고생하게 된 것이 NVIDIA의 현재 모습이다. 그렇다면 NVIDIA도 IP판매에 매진했어야 했는가 묻는다면, ARM의 Mali나 Imagination의 PowerVR을 밀어내고 채용을 획득할만한 생태계 구축에도 역시 그만한 비용과 수고가 드는지라 어느쪽이든 가시밭길이었으리라. 지금은 괴로워하면서도 경험을 쌓아나가는 단계, 라는 것이 바른 인식일지도 모른다.

참고로 NVIDIA가 이 시장에서 철수할 기척은 없으며, 차세대 코어로 「Logan」, 차차세대 코어로 「Parker」를 각자 개발중이다. 특히 「Parker」는 동사가 ARM v8의 라이선스를 받아 자사에서 아키텍처부터 설계한 「Denver」코어를 기반으로 하고 있는 모양이다. 과제는 마찬가지로 ARM v8 아키텍처 라이선스를 받은 Broadcom이나 APM, Apple같은 기업과 달리, 자사에서 CPU 아키텍처를 설계한 적도 없으며 공식적으로 그런 회사를 매수하지도 않았다는 것이다. 소문으로는 2009년 쯤에 실리콘 밸리에서 CPU 설계자를 널리 채용하여, x86 설계팀 1개팀 분을 손에 넣었다는 보도가 흐른 적은 있다. 이것이 사실이라면 개발 리소스는 있다고 할 수 있지만, 이 부분은 명확하지 않다. NVIDIA의 SoC 비즈니스도 Intel과 마찬가지로 괴로워하면서도 계속하고 있다고 하는 것이 정확한 표현이 아닐까.


NVIDIA SoC의 로드맵

※ 이 글은 오가사와라 히로유키(小笠原博之) 씨가 블로그에 적은 글을 번역한 것입니다. 사정에 따라 예고없이 삭제될 수 있으므로 양해부탁드립니다.

3DMark Android 판의 결과로부터

(원문 : 3DMark Android 版の結果から)

Android판 3DMark 앱의 DEVICE CHANNEL에서 각 기종의 결과를 볼 수 있습니다. 매우 흥미진진하고, 보고 있으면 재미있는 데이터이기에 정리해봤습니다.

SoC      CPU       core  GPU              Score        CPU vs GPU
-----------------------------------------------------------------
APQ8064  Krait      x4   Adreno 320       8000-11000   CPU <= GPU*
Exynos5D Cortex-A15 x2   Mali-T604        7800        *CPU >  GPU
MSM8960  Krait      x2   Adreno 225       5000-6500    CPU <= GPU*
MSM8x60  Scorpion   x2   Adreno 220       3700-5000    CPU <= GPU*
Tegra3   Cortex-A9  x4   ULP GeForce(12)  3000-4000   *CPU >> GPU
K3V2     Cortex-A9  x4   Vivante GC4000   3400-3700   *CPU >> GPU
OMAP4470 Cortex-A9  x2   PowerVR SGX544   3600        *CPU >> GPU
Exynos4Q Cortex-A9  x4   Mali-400MP4      2500-3400   *CPU >> GPU
Z2460    Atom       x1   PowerVR SGX540   2400        *CPU >> GPU
Exynos4D Cortex-A9  x2   Mali-400MP4      1600-2100   *CPU >> GPU
OMAP44x0 Cortex-A9  x2   PowerVR SGX540   1300-3400   *CPU >> GPU
MSM8x55  Scorpion   x1   Adreno 205       1750         CPU <  GPU*
RK3066   Cortex-A9  x2   Mali-400MP4      1200-2800   *CPU >> GPU
Tegra2   Cortex-A9  x2   ULP GeForce(8)   1400-2100   *CPU >> GPU

・Score 값이 높을수록 빠름
・수치는 항상 변동하므로 현시점에서의 참고치로 봐주시길.

가장 오른쪽 열은 CPU와 GPU 중에 어느 쪽의 수치가 더 높은지를 나타냅니다.

전체적으로는 Adreno22x/320의 수치가 높은 경향이 있습니다. 오른쪽 열을 보면 알 수 있듯, CPU 보다도 GPU의 점수가 높은 것은 Qualcomm (Adreno)의 프로세서뿐입니다.

Exynos/OMAP/Tegra 등, Quallcom 이외에는 모두 CPU 쪽이 높게 나타나고 있고, 그 차이도 2배 정도까지 넓혀져 있습니다.

어째서 이런 결과가 되었는지 생각해보겠습니다.

CPU

CPU는 두 그룹으로 나뉘어집니다.

(A) Cortex-A9, Scorpion
(B) Cortex-A15, Krait

(B)는 새로운 세대의 CPU 코어로, 동작 클럭 차이도 있지만 실행효율 자체도 향상되어 있습니다. 예를 들어 (A)가 2 명령 디코드(역자 주: 원문에는 deocde라고 되어있으나 decode의 오타라고 생각되어 수정)의 Out-of-Order 실행인 것에 대해, (B)그룹은 3 명령으로 끌어올려져 있습니다. 동일 클럭, 동 코어수라도 Krait, Cortex-A15 쪽이 고속입니다.

Adreno

각 회사의 SoC/GPU는 다종다양하며 특기분야가 확실합니다. Adreno는 ATI 의 흐름을 이은 모바일용 GPU로, 가장 데스크탑용 GPU에 가까운 기능을 갖고 있습니다. 이것은 다른 GPU에는 없는 커다란 특징입니다.

예를 들자면 정점 텍스처나 볼륨 텍스처(3D 텍스처) 등, 모바일 용도로는 별로 필요치 않은 기능에도 확실히 대응하고 있습니다. 다음 링크에 실제로 각종 GPU 기능을 비교한 표가 있습니다.

프래그먼트 셰이더(픽셀 셰이더)의 연산정밀도도 fp32의 highp 고정으로, 묘화 품질 역시 데스크탑 GPU와 동등합니다. 퍼포먼스를 높이기 위해 눈에 보이는 것을 희생할 필요가 업습니다.

그 대신 초기의 Adreno 20x/AMD Z430에서는 정점 캐시가 없었고, 데스크탑 GPU와 동등한 묘화기능을 가진 반면, 퍼포먼스는 생각했던 것만큼 나오지 않는 경향이 있었습니다. 이 점은 Adreno 22x 이후 개량되어, 묘화 프리미티브에 의존하지 않으며 스루풋이 크게 올라가 있습니다.

복잡한 셰이더도 상당히 잘 돌아가지만, 애플리케이션에 따라서는 그다지 속도가 나오지 않는 것도 있습니다. 어디까지나 상상에 지나지 않지만, Adreno는 OpenGL ES 1.1의 고정 파이프를 시뮬레이션하는 부분이 그다지 좋지 않은 것일지도 모릅니다. (미확인입니다)

셰이더를 사용하여 묘화할 경우, Adreno는 극단적으로 모바일에 특화된 최적화할 필요가 없으며, 셰이더를 그대로 이식해도 속도가 잘 떨어지지 않는 경향이 있습니다. 이 점이 벤치마크에서 유리하게 작용하는 것이 아닐까 합니다. 정리하자면,

  • highp 고정이라 연산정밀도를 떨어트리지 않아도 속도가 변하지 않음
  • 모바일용으로 mediump/lowp화하는 등 특별한 최적화를 할 필요가 없음
  • PC의 묘화 품질에서 떨어트릴 필요가 없음
  • Uniform 수, Sampler 수도 많고 Extension도 풍부하여 호환성을 유지하기 쉬움
  • 통합 셰이더이므로, 정점 부하, 픽셀 부하 어느쪽에든 대응하기 쉬움

또 Adreno 320는 OpenGL ES 3.0에 대응하는 새로운 설계의 GPU 코어이므로, 세대적으로도 상당한 고성능입니다. 사용되는 API 가 ES 2.0이므로, 아직 잠들어있는 하드웨어 기능도 있습니다. 앞으로도 더욱 점수가 늘어날 것이라고 생각됩니다.

Mali-400MP4

GPU의「코어 수」는 GPU에 따라 세는 방법이 다르며 단위도 제각각입니다. 단말의 스펙에 GPU의 코어 수가 적혀있는 경우도 있지만, 성능의 지표가 될 수 있는 건 어디까지나 동일 GPU끼리 비교했을 때 뿐입니다.

PowerVR SGX의 MP1~4은 CPU와 거의 같은 개념으로, GPU 그 자체가 복수 존재하여 병렬로 동작합니다.

Tegra의 코어 수는 GPU 내의 연산 유닛 수를 나타냅니다. G80 이후의 데스크탑 GPU에 맞춘 것으로, 통합 셰이더의 스트림 프로세서에 해당하는 것이 몇개분인지를 나타냅니다. Discrete 이지만 정점, 프래그먼트 둘다 카운트됩니다.

Mali-400은 다음 페이지의 그림(Mali-400 MP Image)에 나와있듯 프래그먼트 프로세서의 유닛 수를 선택할 수 있으며, MP1~MP4라고 불립니다. 이 숫자에는 정점 프로세서가 포함되어 있지 않습니다.

Tegra2/3에서도 8→12로 코어 수는 늘어났지만 정점 유닛 수는 동일합니다. 만약 Mali-400MP와 마찬가지로 프래그먼트 프로세서만을 센다면 Tegra2의 ULP GeForce(8)는 정점 4 + 프래그먼트 4로 MP1, Tegra3의 ULP GeForce(12)는 Vertex 4 + Fragment 8로 MP2가 될 것입니다.

다시 말해 Discrete Shader의 GPU에서는 스펙 표기상의 코어 수가 늘어나도, 정점 성능이 향상된다고는 할 수 없습니다.

Galaxy S2에서 Mali-400MP4가 등장했을 때에는 픽셀 퍼포먼스가 굉장히 높아, 다른 GPU와 비교해도 좋은 성능이었습니다. 하지만 그 후 복잡한 3D 장면에서는 정점 성능이 병목이 되었다는 것을 알고 계실겁니다.

위에서 보신 대로 MP4에서도 정점 성능은 늘어나지 않았고, 10~20만 정도의 비교적 낮은 레벨에서 한계에 부딪히고 있는 듯 합니다.

3DMark Ice Storm의 폴리곤 수는 상당한 하이폴리곤인 듯 한데, Mali-400MP4의 퍼포먼스가 나타나지 못하는 것은 그 때문이라고 생각됩니다.

픽셀 셰이더는 mediump이라 엄밀히는 데스크탑 GPU보다 연산정밀도가 떨어집니다. 다만 Tegra나 PowerVR SGX처럼 최적화를 위해 정밀도를 깎아야할 정도로 빡빡하지는 않습니다. 정점이 병목일 뿐 픽셀측은 mediump 고정이므로 그다지 손을 댈 필요는 없을 듯 합니다.

Mali-T604 이후는 통합 셰이더이므로 특성이 또 달라질 것입니다.

Tegra2/3

Mali-400MP와 같은 Discrete Shader지만, 특성은 정반대입니다. 정점에 여유가 있는 대신에 픽셀이 부족해져서, 비교적 하이폴리곤에 심플한 머티리얼일 때 퍼포먼스가 좋아지는 듯 합니다.

Mali-400MP와 마찬가지로 픽셀 정밀도는 mediump까지이지만, 복잡한 셰이더 코드에서는 lowp를 병용하여 질보다 속도를 우선해야할 경우가 생깁니다. 깊이의 해상도도 다른 GPU보다 떨어집니다.

다른 GPU보다도 대응 확장기능이 떨어지며, 하드웨어 기능도 대담하게 삭제되었습니다. 예를 들자면 깊이 텍스처를 사용할 수 없어 섀도우 맵을 컬러 맵에 써넣어야 합니다. 깊이를 압축해야하기에, 셰이더에도 추가 연산 코드가 필요합니다. OpenGL ES 2.0의 사양 상 깊이 텍스처 대응이 필수는 아니지만, 대응하지 않는 GPU는 Tegra2/3 뿐입니다.

3DMark에서는 비교적 하이폴리곤이지만 Mali-400MP 정도로 점수가 떨어지지는 않으며, GPU의 능력으로서 타당한 결과라 생각됩니다.

NVIDIA답지 않은 성능의 GPU도 아마도 이것이 마지막이 아닐까 합니다. Tegra4에서는 기능면에서도 속도면에서도 크게 손을 대어 점수가 상당히 늘어날 것이라 생각됩니다.

PowerVR SGX

이전의 기사에서도 적었듯, PowerVR SGX 5xx는 2종류가 있습니다. Android 단말에서는 낡은 Series 5(SGX540)가 많아, GPU의 성능면에서 벤치마크의 점수가 그다지 좋지 않은 듯합니다. 그 외에도 생각할 수 있는 원인이 있습니다.

PowerVR SGX는 어떤 묘화든 낭비없이 해내는 경향이 있습니다. 정점이 많은 장면이든 픽셀이 많은 장면이든 유연하게 따라갑니다.

사용 방법의 자유도도 높아 화질 우선으로 써도 되고, 속도 중시도 할 수 있고, 용도에 따라 마음대로 쓸 수 있습니다. 그 반면, 정해진 해법이 없이 상황에 맞는 판단이 요구됩니다.

예를 들자면 Uniform 수는 퍼포먼스를 생각한다면 128개 이내, 이식성이나 사용성을 위해서는 256개를 사용한다던가 하는 것입니다. (과거 기사의 comment를 참조)

또 픽셀에 highp fp32를 쓸 수 있어, 데스크탑 GPU와 동일한 정밀도로 묘화할 수 있습니다. 이 경우 퍼포먼스가 떨어지므로, 속도를 생각한다면 겉보기를 희생해서 mediump, lowp로 바꿀 수 있습니다.

다른 GPU와 달리 TBDR(타일 기반 지연 렌더링)이므로, ALU의 이용효율이 전체 퍼포먼스에 주는 영향이 큽니다.

통상의 GPU는 래스터라이저에서 픽셀 셰이더(프래그먼트 셰이더)가 호출되므로, 파이프라인 대기 사이클이 존재합니다. 래스터라이저나 깊이 테스트 등, 다른 스테이지가 막혀있을 때는 셰이더를 줄여도 속도가 크게 변화하지 않습니다.

PowerVR SGX는 지연 렌더링이므로, 픽셀 셰이더가 호출될 때에는 래스터라이저 등 다른 스테이지가 완료되어 있는 상태입니다. 셰이더의 명령을 줄이면 줄일수록 직접 퍼포먼스에 영향을 주므로 최적화가 힘들어지기 쉽습니다.

여기가 가장 Adreno와 다른 포인트로, 퍼포먼스를 우선한다면 상당히 손을 많이 써야할 필요가 있습니다. 고속화를 할 여지가 남아있다고도 할 수 있겠습니다.

첨언하자면 품질이 변할 경우 벤치마크 비교로는 올바르다 할 수 없기에, 3DMark는 비교적 높은 연산정밀도로 렌더링하고 있지 않나 생각됩니다. 만약 그렇다면 Tegra/Mali와는 달리 PowerVR의 점수는 더욱 오를 여지가 남아있게 됩니다.

iOS 판이 나오면, 어느 정도나 PowerVR SGX에 최적화되었는지 알 수 있게 될 것입니다.

결론

  • 아마도 각 GPU 별 셰이더 최적화가 그다지 강하지 않으므로, 속도가 잘 떨어지지 않는 Adreno가 유리
  • OpenGL ES 3.0 대응 최신 GPU + 신 CPU와, 한발 앞서 세대교체한 Qualcomm (Krait quad + Adreno 320)가 역시 빠름

+ Recent posts