szrambo / Forward

A library for high performance deep learning inference on NVIDIA GPUs.

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Forward 深度学习推理加速框架

License Build Status


[English Version]

简介

Forward 是一款腾讯研发的 GPU 高性能推理加速框架。它提出了一种解析方案,可直接加载主流框架模型(Tensorflow / PyTorch / Keras)转换成 TensorRT 推理加速引擎,帮助用户节省中间繁杂的模型转换或网络构建步骤。相对于直接使用 TensorRT,Forward 更易用以及更容易扩展支持更多模型和算子。目前,Forward 除了覆盖支持主流的 CV,NLP 及推荐领域的深度学习模型外,还支持一些诸如 BERT,FaceSwap,StyleTransfer 这类高级模型。

特点

Forward 具有以下特点:

  • 模型性能优化高:基于 TensorRT API 开发网络层级的支持,保证对于通用网络层级的推理性能优化处于最优级别。
  • 模型支持范围广:除了通用的 CV,NLP,及推荐类模型,还支持一些诸如 BERT,FaceSwap,StyleTransfer 这类高级模型。
  • 多种推理模式:支持 FLOAT / HALF / INT8 推理模式。
  • 接口简单易用:直接导入已训练好的 Tensorflow(.pb) / PyTorch(.pth) / Keras(.h5) 导出的模型文件,隐式转换为高性能的推理 Engine 进行推理加速。
  • 支持自研扩展:可根据业务模型扩展支持自定义网络层级
  • 支持 C++ 和 Python 接口调用

快速开始

环境依赖

Forward 的环境依赖如下:

  • NVIDIA CUDA >= 10.0, CuDNN >= 7 (推荐 CUDA 10.2 以上)
  • TensorRT >= 7.0.0.11, (推荐 TensorRT-7.2.1.6)
  • CMake >= 3.12.2
  • GCC >= 5.4.0, ld >= 2.26.1
  • (Pytorch) pytorch == 1.3.1 或 pytorch == 1.7.1
  • (Tensorflow) TensorFlow == 1.15.0 (linux 需额外下载【Tensorflow 1.15.0】,将解压出来的 so 拷贝至 source/third_party/tensorflow/lib 目录下)
  • (Keras) HDF 5 (从 source/third_party/hdf5 源码构建)

项目构建

使用 CMake 进行构建生成 Makefiles 或者 Visual Studio 项目。 根据使用目的,Forward 可构建成适用于不同框架的库, 如 Fwd-Torch, Fwd-Python-Torch, Fwd-Tf, Fwd-Python-Tf, Fwd-Keras, Fwd-Python-Keras. 构建目标由 CMake 构建配置

CMake 参数配置

  • TensorRT_ROOT : TensorRT 安装路径
  • 更多参数配置可参考 CMake 参数

Logging 日志

Forward 使用 easylogging++ 作为日志功能, 并使用 forward_log.conf 作为日志配置文件.

  • 如果 forward_log.conf 能在工作目录被找到, 则 Forward 将使用这个配置文件. (参考 Using-configuration-file).

forward_log.conf

* GLOBAL:
   FORMAT               =  "[%level] %datetime %fbase(%line): %msg"
   FILENAME             =  "Forward.log"
   ENABLED              =  true
   TO_FILE              =  true
   TO_STANDARD_OUTPUT   =  true
   PERFORMANCE_TRACKING =  true
   MAX_LOG_FILE_SIZE    =  2097152 ## 2MB - Comment starts with two hashes (##)
   LOG_FLUSH_THRESHOLD  =  100 ## Flush after every 100 logs
  • 如果 forward_log.conf 无法在工作目录被找到, Forward 将使用默认配置, 并将日志记录到 logs/myeasylog.log.

单元测试

当项目构建完毕,可执行单元测试来确认项目构建是否成功。

cd build/bin
./unit_test --gtest_filter=TestTfNodes.*

Forward-Cpp 使用

参考 Demo for using Forward-Cpp in Linux

Forward-Python 使用

参考 Demo for using Forward-Python

Forward-Bert 使用

Refer to Demo for using Forward-Bert

更多使用方法

注意: 模型输入名可通过模型查看器来查看, 例如用 Netron 查看.

常见问题

使用过程中遇到的一些问题,可先查阅 常见问题

模型和算子支持

当前 Forward 的模型与算子支持如下所示,如有需要添加更多支持的,欢迎联系添加 Issue 反馈。如需要自行扩展添加支持的,可参考 开源共建:扩展添加支持操作的流程

模型

算子

贡献

  1. 联系进入开源共建交流讨论群。
  2. 参考 CONTRIBUTING.md 进行开源共建。

贡献者

Aster JIAN
Zexi YUAN
Ao LI
Paul LU
JettHu
Ryosuke1eep

感谢所有贡献者,欢迎更多人加入一起贡献。

许可证

详情见 LISENCE

交流QQ群:776314438

qq_group_776314438

About

A library for high performance deep learning inference on NVIDIA GPUs.

License:Other


Languages

Language:C++ 94.1%Language:Jupyter Notebook 4.1%Language:Cuda 0.7%Language:Python 0.6%Language:CMake 0.4%Language:Shell 0.0%Language:Batchfile 0.0%