kubwa inference AI 추론 가속 시스템

  • 이미지 / 영상 / 텍스트

  • 딥러닝 학습모델

    Python

  • 소프트웨어

    Model 모델링
    변환 및 최적화

  • 하드웨어

    Inference
    추론 가속

kubwa Inference 시스템 (H/W + S/W)

  • Train

    딥러닝 학습
    (Deep Learning)

    • TensorFlow
    • PyTorch
    • Caffe

  • Optimization

    학습 모델 최적화
    (Model optimizer)

    • Converting 변환
    • Optimizing 최적화
    • Preparing inference 추론 준비

    Run ModelOptimizer
  • Inference

    추론 엔진
    (Inference Engine)

    최적화 된 학습 모델을
    사용자 어플리케이션에
    맞게 추론

    User Application
    Inference Engine
  • Heterogeneous

    이종 가속화
    (Multiple Accelerating)

    FPGA, GPU 시스템에서
    추론 엔진을 가속화

    VPU
    FPGA
    GPU

AI 추론 가속 사용 분야

  • 데이터센터
  • 비디오 및 이미지 처리
  • DB 및 데이터 분석
  • 컴퓨팅 스토리지
  • 고성능 컴퓨팅 네트워크 가속
  • 금융 High–Frequency 트레이딩
  • 통신
  • 5G 장비
  • 통신 데이터 가속
  • 사이버 보안
  • 엣지 컴퓨팅
  • 의료
  • ML 및 AI 추론
  • OS / RTOS
  • 하이퍼 바이저 / 컨테이너
  • 데이터베이스
  • 산업
  • 사이버 보안 / 방화벽
  • 머신 비전
  • IoT 솔루션 스택
  • 임베디드 비전
  • 검사 장비
  • AI 추론
  • 딥러닝
  • 자율주행

kubwa AIoT Cloud Orchestration

• 머신러닝, 딥러닝 모델을 각 Applicaiton 별로 데이터 파이프라인을 구축하는 Orchestration 플랫폼
• Docker와 Kubernetes의 컨네이너 기반으로 On-premise와 Cloud 환경에서 kubwa MLOps 제공
• kubwa AIoT로 open(개방), convergence(융합), flow(순환) 목표 달성