고성능·저비용으로 AI 서비스 기업의 경쟁력을 강화해 주는Metep AI 프레임워크

Meta – Tensor Propagation
Metep
낮은 비용으로 정확성 손실 없이
쉽고 빠르게 인공지능 응용/서비스 실행을 지원하는 인공지능 소프트웨어 프레임워크
(AI SW Framework)
- Metep Ondevice Framework
- Metep Cloud Framework
- Metep Ondevice Platform
- Metep Cloud Platform
딥러닝 기반 실시간 객체 탐지 적용 사례
*동일 H/W 환경 & 동일 AI 계산 정확도 기준의 성능 비교 (속도: FPS, 메모리 사용량: Mb, 전력사용량: J)
기존 AI Framework들과 성능 및 비용 비교
- 가장 빠른 응답 시간
- 가장 작은 메모리 비용
- 가장 적은 소비 에너지

응답시간3.43x 향상

메모리 사용7.73x 절감

전력 사용3.58x 절감

NMS 데이터
프로세싱 응답시간14.83x 향상
모든 AI S/W 스택에 대한 계산 성능 결과
End-to-end Task
Object Detection

동일 H/W 환경에서 세계적으로 유명한 딥러닝 프레임워크와 비교 결과,
실시간 객체 감지 작업에서 훨씬 더 적은 컴퓨팅 리소스로 월등한 성능 구현
- 응답시간3배 감소
- 메모리 사용6배 감소
High-level S/W Stack
Tensor Operations

다른 벤더사 제품들 대비 다양한 텐서 연산 작업들에서
최대 3배 적은 메모리 사용과 10배 계산 속도 향상 검증
- 응답시간10배 감소
- 메모리 사용3배 감소
Middle-level S/W Stack
Deep Learning Primitives

Metep의 혁신적인 자체 Convolution 연산 알고리즘을 통해
다양한 자체 딥러닝 연산 알고리즘 지원
- 응답시간5배 감소
- 메모리 사용3배 감소
Low-level S/W Stack
BLAS & Compute-Kernels

Metep의 독자적인 기술인 자체 GEMM 계산 커널 알고리즘을 통해
모든 레벨이 C++ 환경에서 연동 가능
- 응답시간2.5배 감소
- 메모리 사용1.6배 감소
High-level S/W Stack
Comparative benchmarks for Metep’s tensor operations to other vendors

High-level Tensor Operations
Metep은 다른 벤더의 제품들 대비
다양한 텐서 연산 작업들에서
최대 3배 적은 메모리 사용과 10배의 계산 속도 향상을
가능하게 합니다.
Middle-level S/W Stack
Comparative benchmarks for Metep’s convolution operator to other vendors

Middle-level Primitives
Metep의 혁신적인 자체 Convolution 연산 알고리즘은
다른 벤더의 최적화된 소프트웨어 알고리즘 대비
최대 3x 적은 메모리 사용과 5x의 계산 속도 향상을
가능하게 하여 CNN 모델을 혁신하고 있습니다.
Low-level S/W Stack
Comparative benchmarks for Metep’s tensor operations to other vendors

Low-level Compute-Kernels
Metep의 자체 GEMM 계산 커널 알고리즘은
다른 벤더의 최적화된 GEMM 커널과 비교하여
fused matrix multiplication 작업에서
최대 40% 적은 메모리 사용과 2.5x 계산 속도 향상을 제공합니다.