sml8648 / dl_inference

numble 딥러닝 인퍼런스 서버 구축하기

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

dl_inference

개요

  • FastAPI를 이용하여 딥러닝 모델 서빙 api를 요청할 수 있는 서버 구축
  • Dockerfile을 이용해 빌드하여 컨테이너 환경에서 실행 시킬 수 있는 형태로 구축

세부 구현 사항

Directory structure

dl_inderence
├──📁logs
├──📁model_store -> torchserver를 위한 .mar file 저장
├──📁Transformer_model -> .mar file을 만들기 위한 transformer 모델 저장공간
├──📁configs -> Transformer 모델을 다운로드 받기위한 config 파일 및 handler
├── Dockerfile
├── model_down_register.sh -> 서빙하기 위한 모델을 다운받는 script
├── model_register.sh -> 모델을 torchserve에 등록하는 script
├── main.py # fastapi server
├── utils.py
├── requirements.txt
└── README.md

설치 명령어

git clone https://github.com/sml8648/dl_inference.git
cd dl_inference
docker build . -t inference_server
docker run --name inference_server -d -p 8000:8000 inference_server
docker exec -i inference_server bash ./model_register.sh

About

numble 딥러닝 인퍼런스 서버 구축하기


Languages

Language:Python 94.4%Language:Shell 4.7%Language:Dockerfile 0.9%