컴파일러
FuriosaAI의 컴파일러는 TFLite 와 Onnx 모델(OpSet 13 및 이하 버전 호환)을 분석하고 최적화하여 NPU 가속을 이용하여 모델을 추론하는 프로그램을 생성한다. 이 과정에서 컴파일러는 전체 모델 네트워크를 연산자 단위로 분석하고 가속 가능한 연산자에 대해 NPU를 활용하도록 프로그램을 생성해낸다. 따라서, 기존에 알려진 모델이 아니라도 지원되는 연산자를 잘 활용하면 NPU에 최적화된 모델을 설계할 수 있다. 현재 NPU 가속이 지원되는 연산자 목록은 가속 지원 연산자 목록 에서 찾을 수 있다.
furiosa-compiler
컴파일러는 추론 API의 Session을 초기화 하는 과정에서 모델과 NPU를 초기화할 때
자동으로 호출되어 사용되는 것이 가장 일반적인 사용 방법이다.
그러나 쉘에서 명령행 도구인 furiosa-compiler
이용해 직접 모델을 컴파일하여 프로그램을 생성해볼 수 있다.
furiosa-compiler
명령은 다음 APT 명령으로 설치할 수 있다.
$ apt install furiosa-compiler
furiosa-compiler
명령의 전체적인 사용법은 다음과 같다.
$ furiosa-compiler --help
Furiosa SDK Compiler v0.10.0 (f8f05c8ea 2023-07-31T19:30:30Z)
Usage: furiosa-compiler [OPTIONS] <SOURCE>
Arguments:
<SOURCE>
Path to source file (tflite, onnx, and other IR formats, such as dfg, cdfg, gir, lir)
Options:
-o, --output <OUTPUT>
Writes output to <OUTPUT>
[default: output.<TARGET_IR>]
-b, --batch-size <BATCH_SIZE>
Specifies the batch size which is effective when SOURCE is TFLite, ONNX, or DFG
--target-ir <TARGET_IR>
(experimental) Target IR - possible values: [enf]
[default: enf]
--target-npu <TARGET_NPU>
Target NPU family - possible values: [warboy, warboy-2pe]
[default: warboy-2pe]
--dot-graph <DOT_GRAPH>
Filename to write DOT-formatted graph to
--analyze-memory <ANALYZE_MEMORY>
Analyzes the memory allocation and save the report to <ANALYZE_MEMORY>
-v, --verbose
Shows details about the compilation process
--no-cache
Disables the compiler result cache
-h, --help
Print help (see a summary with '-h')
-V, --version
Print version
SOURCE
는
TFLite 나 ONNX 파일의 경로이며
NPU 가속을 위해서는 모델 양자화 의 결과로 생성된 모델을 사용해야 한다.
-o OUTPUT
은 생략 가능한 옵션이며 지정한다면 출력되는 파일 이름을 지정할 수 있다.
생략했을 때 기본 출력 파일 이름은 output.enf
이다. ENF는 Executable NPU Format의 확장자이다.
예를 들면 아래와 같이 실행하면 기본으로 output.enf
파일을 생성한다.
furiosa-compiler foo.onnx
아래와 같이 직접 출력 파일 이름을 지정하면 foo.enf
파일로 생성된다.
furiosa-compiler foo.onnx -o foo.enf
--target-npu
는 생성한 바이너리가 목표로하는 NPU를 지정하게 한다.
NPU Family |
Number of PEs |
Value |
---|---|---|
Warboy |
1 |
warboy |
Warboy |
2 |
warboy-2pe |
생성한 프로그램이 동작할 NPU가 1개의 PE를 독립적으로 사용하는 Warboy라면 아래와 같이 명령을 실행하면 된다.
furiosa-compiler foo.onnx --target-npu warboy
2개의 PE (Processing Element)를 Fusing 해서 사용하는 경우는 아래와 같이 실행한다.
furiosa-compiler foo.onnx --target-npu warboy-2pe
--batch-size
옵션은 추론 API를 통해 추론을 실행할 때
입력으로 전달할 샘플의 개수인 배치 크기 를 지정하게 한다.
배치 크기가 크면 일반적으로 한번에 많은 데이터를 넣고 실행하므로
NPU의 활용도를 높일 수 있고 추론을 실행하는 과정을 공유하므로 더 효율적일 수 있다.
그러나 NPU에 더 많은 메모리가 필요하게 되어 필요한 메모리 사이즈가 NPU의 DRAM 크기를 초과하면
오히려 호스트(Host)와 NPU간에 메모리 I/O 비용이 커져 큰 성능 저하가 일어날 수 있다.
기본 값은 1이며 적절한 설정은 일반적으로 실험을 통해 찾을 수 있다.
참고로, MLPerf™ Inference Edge v2.0 벤치마크에 포함된 일부 모델들의 최적 배치 크기는 다음과 같다.
Model |
Optimal Batch |
---|---|
SSD-MobileNets-v1 |
2 |
Resnet50-v1.5 |
1 |
SSD-ResNet34 |
1 |
원하는 배치 크기가 2인 경우는 아래와 같이 명령을 실행하면 된다.
furiosa-compiler foo.onnx --batch-size 2
ENF 파일의 활용
FuriosaAI 컴파일러가 컴파일 과정을 마치고 최종적으로 생성해내는 출력물이 ENF (Executable NPU Format) 형식의 데이터이다. 일반적으로, 컴파일 과정은 모델에 따라서 수 초에서 수 분까지 걸리는데 ENF 파일을 한번 생성하여 재사용하면 컴파일을 과정을 생략할 수 있다.
빈번하게 세션을 생성해야 하거나 실제 운영 환경에서 하나의 모델을 여러 머신에서 서빙해야 하는 경우 유용하게 활용할 수 있다.
예를 들면, furiosa-compiler 사용법을 참고하여 ENF 파일을 생성하고
아래 처럼 PythonSDK 를 사용할 때 create_runner()
함수에 인자로 ENF 파일을 전달하면 컴파일 과정을 거치지 않고 즉각적으로 Runner
객체를 생성한다.
from furiosa.runtime import sync
with sync.create_runner("path/to/model.enf") as runner:
outputs = runner.run(inputs)
컴파일러 캐쉬 (Compiler Cache)
컴파일러 캐쉬는 같은 모델을 컴파일 하는 경우 기존에 컴파일된 결과를 저장해 재활용하게 한다.
로컬 파일 시스템 (기본 설정: $HOME/.cache/furiosa/compiler
) 또는
Redis를 캐쉬 스토리지로 활용한다.
컴파일러 캐쉬 기능은 기본으로 활성화 되어 있으며 환경변수 FC_CACHE_ENABLED
를 이용해 비활성화 할 수 있다.
아래 환경 변수는 명령형 도구, Python SDK, 서빙 프레임워크 등 모든 도구에서 동일하게 적용된다.
# Enable Compiler Cache
export FC_CACHE_ENABLED=1
# Disable Compiler Cache
export FC_CACHE_ENABLED=0
캐쉬 스토리지의 기본 설정은 $HOME/.cache/furiosa/compiler``이며
환경변수 ``FC_CACHE_STORE_URL
를 통해 오버라이드 가능하다. redis://
또는 rediss://
(SSL의 경우)
scheme 으로 시작하는 URL을 설정하면 Redis 클러스터를 캐쉬 스토리지로 활용 가능하다.
# When you want to specify a cache directory
export FC_CACHE_STORE_URL=/tmp/cache
# When you want to specify a Redis cluster as the cache storage
export FC_CACHE_STORE_URL=redis://:<PASSWORD>@127.0.0.1:6379
# When you want to specify a Redis cluster over SSL as the cache storage
export FC_CACHE_STORE_URL=rediss://:<PASSWORD>@127.0.0.1:25945
캐쉬는 기본으로 30일의 유효기간을 가지고 있으며 환경변수 FC_CACHE_LIFETIME
를 통해 초 단위 설정을 통해
오버라이드 가능하다.
# 2 hours cache lifetime
export FC_CACHE_LIFETIME=7200
옵션 값에 따라 목적에 맞는 다양한 동작 방식을 선택 할 수 있다.
값 (초) |
설명 |
예 |
---|---|---|
N > 0 |
컴파일 결과가 N 초 만큼 캐쉬로 활용 됨 |
7200 (2 시간) |
0 |
기존 컴파일 결과가 무효가 되며 항상 새로 컴파일 함 (기존 컴파일 결과를 다시 생성하고 싶을 때 활용 가능) |
0 |
N < 0 |
기존 컴파일 결과를 유효시간 없이 영구적으로 사용한다. 읽기 전용 캐쉬를 활용할 때 사용할 수 있다. |
-1 |