Performance

Cost Results over AI SW stacks

End-to-end Task

Object Detection

Object Detection

동일 H/W 환경에서 세계적으로 유명한 딥러닝 프레임워크와 비교 결과,
실시간 객체 감지 작업에서 훨씬 더 적은 컴퓨팅 리소스로 월등한 성능 구현

  • 응답시간3배 감소
  • 메모리 사용6배 감소

High-level S/W Stack

Tensor Operations

Tensor Operations

다른 벤더사 제품들 대비 다양한 텐서 연산 작업들에서
최대 3배 적은 메모리 사용과 10배 계산 속도 향상 검증

  • 응답시간10배 감소
  • 메모리 사용3배 감소

Middle-level S/W Stack

Deep Learning Primitives

Deep Learning Primitives

Metep의 혁신적인 자체 Convolution 연산 알고리즘을 통해
다양한 자체 딥러닝 연산 알고리즘 지원

  • 응답시간5배 감소
  • 메모리 사용3배 감소

Low-level S/W Stack

BLAS & Compute-Kernels

BLAS & Compute-Kernels

Metep의 독자적인 기술인 자체 GEMM 계산 커널 알고리즘을 통해
모든 레벨이 C++ 환경에서 연동 가능

  • 응답시간2.5배 감소
  • 메모리 사용1.6배 감소

High-level Tensor Operations

Comparative benchmarks for Metep’s tensor operations to other vendors

High-level Tensor Operations

Metep은 다른 벤더의 제품들 대비
다양한 텐서 연산 작업들에서
최대 3배 적은 메모리 사용과 10배의 계산 속도 향상
가능하게 합니다.

Middle-level Primitives

Comparative benchmarks for Metep’s convolution operator to other vendors

Middle-level Primitives

Metep의 혁신적인 자체 Convolution 연산 알고리즘은
다른 벤더의 최적화된 소프트웨어 알고리즘 대비
최대 3x 적은 메모리 사용과 5x의 계산 속도 향상
가능하게 하여 CNN 모델을 혁신하고 있습니다.

Low-level Compute-Kernels

Comparative benchmarks for Metep’s tensor operations to other vendors

Low-level Compute-Kernels

Metep의 자체 GEMM 계산 커널 알고리즘은
다른 벤더의 최적화된 GEMM 커널과 비교하여
fused matrix multiplication 작업에서
최대 40% 적은 메모리 사용과 2.5x 계산 속도 향상을 제공합니다.

DesignedAI와 함께 AI 비즈니스를 혁신하고 효율성을 극대화 하세요.
Metep은 당신의 비즈니스를 강화하는 강력한 솔루션입니다.

문의하기