kubwa inference AI 추론 가속 시스템
-
이미지 / 영상 / 텍스트
-
딥러닝 학습모델
Python
-
소프트웨어
Model 모델링
변환 및 최적화 -
하드웨어
Inference
추론 가속
kubwa Inference 시스템 (H/W + S/W)
-
Train
딥러닝 학습
(Deep Learning)• TensorFlow
• PyTorch
• Caffe -
Optimization
학습 모델 최적화
(Model optimizer)• Converting 변환
• Optimizing 최적화
• Preparing inference 추론 준비Run ModelOptimizer -
Inference
추론 엔진
(Inference Engine)최적화 된 학습 모델을
사용자 어플리케이션에
맞게 추론User ApplicationInference Engine -
Heterogeneous
이종 가속화
(Multiple Accelerating)FPGA, GPU 시스템에서
추론 엔진을 가속화VPUFPGAGPU
AI 추론 가속 사용 분야
- 데이터센터
- 비디오 및 이미지 처리
- DB 및 데이터 분석
- 컴퓨팅 스토리지
- 고성능 컴퓨팅 네트워크 가속
- 금융 High–Frequency 트레이딩
- 통신
- 5G 장비
- 통신 데이터 가속
- 사이버 보안
- 엣지 컴퓨팅
- 의료
- ML 및 AI 추론
- OS / RTOS
- 하이퍼 바이저 / 컨테이너
- 데이터베이스
- 산업
- 사이버 보안 / 방화벽
- 머신 비전
- IoT 솔루션 스택
- 임베디드 비전
- 검사 장비
- AI 추론
- 딥러닝
- 자율주행
kubwa AIoT Cloud Orchestration
• 머신러닝, 딥러닝 모델을 각 Applicaiton 별로 데이터 파이프라인을 구축하는 Orchestration 플랫폼
• Docker와 Kubernetes의 컨네이너 기반으로 On-premise와 Cloud 환경에서 kubwa MLOps 제공
• kubwa AIoT로 open(개방), convergence(융합), flow(순환) 목표 달성
