awesome-cv-model
awesome cv model
计算机视觉-算法整理列表
基于对算法研究和应用的长期实践经验,总结了一份深度学习时代计算机视觉炼丹师不可错过的算法列表。
我们按照不同方向,为大家推荐了每个计算机视觉方向必须了解的典型算法。
此列表对于深度学习算法,从学术、科研、生态、产业应用等角度,综合考量了各个方面,归纳为了两个评价维度:即算法影响力和算法性能。基于算法的综合得分,我们会划分 P0、P1 和 P2 算法,作为最终的列表。其中,第一版分级列表涉及的计算机视觉方向包括:图像分类、目标检测、实例分割、语义分割、动作识别、2D 姿态估计和 OCR ,共7个主流方向。
这份算法列表用途举例如下:
算法列表用途 |
- 业务算法参考 |
- 训练框架适配和评测 |
- 推理引擎适配和评测 |
- 训练芯片适配和评测 |
- 集群环境评测 |
一、分级推荐列表
1、图像分类
2、目标检测
3、实例分割
4、语义分割
5、动作识别
6、2D姿态估计
7、OCR识别
二、影响力数据
1、图像分类
方向 |
算法 |
论文名 |
影响力评分 |
Google Scholar 引用数 |
Google Search 结果数 |
GitHub repository Search 结果数 |
GitHub code Search 结果数 |
图像分类 |
ResNet (2015) |
Deep Residual Learning for Image Recognition |
5 |
123,773 |
2,480,000 |
6,631 |
823,551 |
|
MobileNet V2 (2018) |
MobileNetV2: Inverted Residuals and Linear Bottlenecks |
3 |
10,007 |
48,100 |
865 |
98,276 |
|
ViT (2020) |
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale |
4 |
4,985 |
85,000 |
1,891 |
183,629 |
|
EfficientNet (2019) |
Rethinking Model Scaling for Convolutional Neural Networks |
4 |
7,195 |
132,000 |
861 |
72,186 |
|
InceptionV3 (2015) |
Rethinking the Inception Architecture for Computer Vision |
3 |
20,421 |
156,000 |
526 |
169,504 |
|
DenseNet (2016) |
Densely Connected Convolutional Networks |
3 |
25,988 |
268,000 |
1,174 |
64,907 |
|
SENets (2017) |
Squeeze-and-Excitation Networks |
2 |
13,565 |
51,100 |
167 |
14,368 |
|
Swin Transformer (2021) |
Swin Transformer: Hierarchical Vision Transformer using Shifted Windows |
3 |
1,805 |
33,900 |
189 |
24,178 |
|
VGGNet (2014) |
Very Deep Convolutional Networks for Large-Scale Image Recognition |
4 |
81,277 |
847,000 |
4,386 |
400,117 |
|
ShuffleNetV2 (2018) |
Shufflenet v2: Practical guidelines for efficient cnn architecture design |
2 |
2,371 |
14,800 |
24 |
5,891 |
|
RepVGG (2021) |
Repvgg: Making vgg-style convnets great again |
2 |
192 |
5,500 |
37 |
2,604 |
2、目标检测
方向 |
算法 |
论文名 |
影响力评分 |
Google Scholar 引用数 |
Google Search 结果数 |
GitHub repository Search 结果数 |
GitHub code Search 结果数 |
目标检测 |
SSD (2015) |
SSD: Single Shot MultiBox Detector |
4 |
22,196 |
85,900 |
3961 |
484552 |
|
YOLOV3 (2018) |
YOLOv3: An Incremental Improvement |
5 |
13,740 |
248,000 |
4909 |
112,082 |
|
Cascade R-CNN (2017) |
Cascade R-CNN: High Quality Object Detection and Instance Segmentation |
2 |
438 |
27,500 |
41 |
55 |
|
CenterNet (2019) |
Objects as Points |
2 |
1,638 |
20,100 |
339 |
26,024 |
|
DETR (2020) |
End-to-End Object Detection with Transformers |
4 |
2,579 |
48,000 |
592 |
38,909 |
|
Faster R-CNN (2015) |
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks |
4 |
44,477 |
389,000 |
2,175 |
7,822 |
|
FCOS (2019) |
FCOS: Fully Convolutional One-Stage Object Detection |
3 |
2,139 |
45,600 |
167 |
49,960 |
|
RetinaNet (2017) |
Focal Loss for Dense Object Detection |
4 |
14,103 |
117,000 |
766 |
136,616 |
|
ATSS (2019) |
Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection |
2 |
518 |
8,760 |
22 |
20,023 |
3、实例分割
方向 |
算法 |
论文名 |
影响力评分 |
Google Scholar 引用数 |
Google Search 结果数 |
GitHub repository Search 结果数 |
GitHub code Search 结果数 |
实例分割 |
Mask R-CNN (2017) |
Mask R-CNN |
4 |
19,529 |
101,000 |
2,229 |
9,627 |
|
SOLO (2019) |
SOLO: Segmenting Objects by Locations |
2 |
285 |
10,200 |
9 |
254,495 |
4、语义分割
方向 |
算法 |
论文名 |
影响力评分 |
Google Scholar 引用数 |
Google Search 结果数 |
GitHub repository Search 结果数 |
GitHub code Search 结果数 |
语义分割 |
PSPNet (2016) |
Pyramid Scene Parsing Network |
3 |
7519 |
53,900 |
218 |
21,377 |
|
DeepLabv3 (2017) |
Rethinking Atrous Convolution for Semantic Image Segmentation |
3 |
5055 |
52,900 |
487 |
32901 |
|
FCN (2014) |
Fully Convolutional Networks for Semantic Segmentation |
5 |
31794 |
158,000 |
1,846 |
271,636 |
|
DeepLabv3Plus (2018) |
Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation |
4 |
6815 |
55,400 |
134 |
16,118 |
|
UNet (2015) |
U-Net: Convolutional Networks for Biomedical Image Segmentation |
4 |
44256 |
132,000 |
9,445 |
31,920 |
|
UperNet (2018) |
Unified Perceptual Parsing for Scene Understanding |
2 |
475 |
3,200 |
5 |
9,208 |
5、动作识别
6、2D姿态估计
7、OCR
三、性能数据
1、图像分类
|
|
小模型(参数量: ~20M) |
|
|
|
|
|
中模型(参数量: 20M ~ 40M) |
|
|
|
|
|
大模型(参数量:40M ~ ) |
|
|
|
|
|
方向 |
算法名称 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
图像分类 |
VGGNet |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
VGG-16 |
354.5 |
4.41 |
71.62 |
0.138G |
15.538G |
|
ResNet |
R18 |
356.1 |
1.46 |
71.71 |
11.69M |
1.827G |
R50 |
178.9 |
2.95 |
80.12 |
25.557M |
4.145G |
R101 |
96.6 |
5.11 |
81.35 |
44.549M |
7.883G |
|
MobileNet V2 |
MobileNet V2 |
185.3 |
1 |
71.86 |
3.505M |
0.334G |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
|
ViT |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
base |
155.1 |
9.53 |
82.36 |
91.234M |
17.587G |
|
ShuffleNetV2 |
ShuffleNetV2 |
139.8 |
1.24 |
69.55 |
2.279M |
0.155G |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
|
RepVGG |
RepVGG-A0 |
413.9 |
1.27 |
72.41 |
9.109M |
1.535G |
/ |
/ |
/ |
/ |
/ |
/ |
RepVGG-B3 |
282.8 |
7.33 |
80.52 |
0.123G |
29.224G |
|
InceptionV3 |
/ |
/ |
/ |
/ |
/ |
/ |
InceptionV3 |
95.4 |
|
77.57 |
23.835M |
2.861G |
|
|
4.53 |
/ |
/ |
/ |
|
SENets |
/ |
/ |
/ |
/ |
/ |
/ |
R50 |
116.1 |
5.44 |
77.74 |
28.088M |
4.153G |
R101 |
59.5 |
7.55 |
78.26 |
49.327M |
7.896G |
|
EfficientNet |
B0 |
106.1 |
3.47 |
77.53 |
5.289M |
0.422G |
B4 |
58.7 |
5.55 |
83.25 |
19.342M |
1.596G |
B8 |
26.8 |
8.93 |
85.38 |
87.413M |
7.239G |
|
Swin Transformer |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
base |
47.8 |
8.05 |
83.36 |
87.768M |
15.468G |
|
DenseNet |
DenseNet-121 |
63.9 |
5.84 |
74.96 |
7.979M |
2.913G |
DenseNet-161 |
47.8 |
6.86 |
77.61 |
28.681M |
7.875G |
/ |
/ |
/ |
/ |
/ |
/ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2、目标检测
|
|
小模型(参数量: ~20M) |
|
|
|
|
|
中模型(参数量: 20M ~ 40M) |
|
|
|
|
|
大模型(参数量:40M ~ ) |
|
|
|
|
|
方向 |
算法名称 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
目标检测 |
YOLOV3 |
MobileNet v2-320 |
123.7 |
6.73 |
22.2 |
3.738M |
0.824G |
/ |
/ |
/ |
/ |
/ |
/ |
DarkNet53-608 |
90.2 |
12.38 |
33.7 |
61.949M |
9.604G |
|
SSD |
MobileNet v2-320 |
102.3 |
9.64 |
21.3 |
/ |
/ |
VGG-300 |
121.9 |
33.77 |
25.5 |
/ |
/ |
VGG-512 |
87.8 |
33.16 |
29.5 |
/ |
/ |
|
CenterNet |
R18-FPN |
68.8 |
8.86 |
42.5 |
19.273M |
7.649G |
R50 |
52.8 |
/ |
46.3 |
32.293M |
10.089G |
R101 |
39.9 |
/ |
48.1 |
51.285M |
13.827G |
|
RetinaNet |
R18-FPN |
72.7 |
19.7 |
39.8 |
21.41M |
9.272G |
R50 |
53.1 |
25.58 |
43.2 |
37.969M |
11.769G |
R101 |
41 |
32.2 |
44.2 |
56.961M |
15.507G |
|
ATSS |
R18-FPN |
66 |
/ |
42 |
19.276M |
7.651G |
R50 |
50.4 |
25.62 |
46.3 |
32.295M |
10.092G |
R101 |
38.8 |
30.67 |
48.2 |
51.287M |
13.83G |
|
FCOS |
R18-FPN |
63.7 |
/ |
42 |
19.278M |
7.651G |
R50 |
50.1 |
25.26 |
45.7 |
32.297M |
10.092G |
R101 |
38.1 |
31.41 |
47.2 |
51.289M |
13.83G |
|
Faster R-CNN |
/ |
/ |
/ |
/ |
/ |
/ |
R18-FPN |
63.6 |
/ |
40 |
28.684M |
0.14T |
R101 |
37.2 |
27.18 |
46.3 |
60.745M |
0.255T |
|
DETR |
/ |
/ |
/ |
/ |
/ |
/ |
R18 |
59.8 |
22.07 |
38 |
28.85M |
43.269G |
R101 |
34.5 |
/ |
43 |
60.567M |
0.153T |
|
Cascade R-CNN |
/ |
/ |
/ |
/ |
/ |
/ |
R18-FPN |
48.7 |
/ |
43.3 |
56.326M |
0.168T |
R101 |
31.4 |
33.51 |
48.3 |
88.387M |
0.283T |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
3、实例分割
|
|
小模型(参数量: ~20M) |
|
|
|
|
|
中模型(参数量: 20M ~ 40M) |
|
|
|
|
|
大模型(参数量:40M ~ ) |
|
|
|
|
|
方向 |
算法名称 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
实例分割 |
Mask R-CNN |
/ |
/ |
/ |
/ |
/ |
/ |
R18-FPN |
54.5 |
/ |
37.2 |
31.328M |
0.193T |
R101 |
41.7 |
31.38 |
42 |
63.388M |
0.308T |
|
SOLO |
R18-FPN |
38.6 |
/ |
34.8 |
23.232M |
31.296G |
R50 |
31.6 |
347.61 |
38 |
36.301M |
33.891G |
R101 |
27.2 |
/ |
39.4 |
55.293M |
37.629G |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4、语义分割
|
|
小模型(参数量: ~20M) |
|
|
|
|
|
中模型(参数量: 20M ~ 40M) |
|
|
|
|
|
大模型(参数量:40M ~ ) |
|
|
|
|
|
方向 |
算法名称 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
语义分割 |
PSPNet |
R18 |
45.9 |
7.6 |
74.87 |
12.641M |
0.434T |
/ |
/ |
/ |
/ |
/ |
/ |
R101 |
10.5 |
38.07 |
79.76 |
65.603M |
2.051T |
|
FCN |
R18 |
45.5 |
7.56 |
71.11 |
12.674M |
0.444T |
/ |
/ |
/ |
/ |
/ |
/ |
R101 |
10.8 |
39.86 |
75.13 |
66.125M |
2.205T |
|
DeepLabv3 |
R18 |
42.6 |
7.83 |
76.7 |
13.838M |
0.48T |
/ |
/ |
/ |
/ |
/ |
/ |
R101 |
9.2 |
49.13 |
80.2 |
84.74M |
2.781T |
|
DeepLabv3Plus |
R18 |
39.2 |
9.33 |
76.89 |
12.32M |
0.434T |
R50 |
13.5 |
32.57 |
80.09 |
41.225M |
1.413T |
R101 |
9.5 |
45.55 |
80.97 |
60.217M |
2.035T |
|
UperNet |
/ |
/ |
/ |
/ |
/ |
/ |
R18 |
17.7 |
30.99 |
76.02 |
40.807M |
1.764T |
R101 |
12.2 |
38.24 |
79.4 |
83.043M |
2.052T |
|
UNet |
/ |
/ |
/ |
/ |
/ |
/ |
UNet-FCN |
11 |
39.57 |
69.1 |
28.988M |
1.626T |
/ |
/ |
/ |
/ |
/ |
/ |
5、动作识别
|
|
小模型(参数量: ~20M) |
|
|
|
|
|
中模型(参数量: 20M ~ 40M) |
|
|
|
|
|
大模型(参数量:40M ~ ) |
|
|
|
|
|
方向 |
算法名称 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
动作识别 |
ST-GCN |
ST-GCN |
168.3 |
/ |
87.58 |
3.1M |
5.7G |
None |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
|
TSN |
/ |
/ |
/ |
/ |
/ |
/ |
R50 |
125.1 |
123.02 |
70.6 |
24.3M |
102.7G |
R101 |
71.4 |
191.97 |
74.1 |
43.3M |
195.8G |
|
SlowFast |
/ |
/ |
/ |
/ |
/ |
/ |
R50 |
43.1 |
399.03 |
76 |
34.6M |
66.1G |
R101 |
28.8 |
|
77.9 |
62.9M |
126G |
6、2D 姿态估计
|
|
小模型(参数量: ~20M) |
|
|
|
|
|
中模型(参数量: 20M ~ 40M) |
|
|
|
|
|
大模型(参数量:40M ~ ) |
|
|
|
|
|
方向 |
算法名称 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
2D 姿态估计 |
DeepPose |
Resnet50_256x192 |
78.6 |
2.65 |
0.528 |
/ |
/ |
Resnet101_256x192 |
40.1 |
4.54 |
0.562 |
/ |
/ |
Resnet152_256x192 |
28.5 |
6.35 |
0.584 |
/ |
/ |
|
HRNet |
HRNet_w32_256x192 |
16.3 |
7.87 |
0.746 |
/ |
/ |
/ |
/ |
10.02 |
/ |
/ |
/ |
HRNet_w48_256x192 |
16.1 |
/ |
0.756 |
/ |
/ |
7、文本识别
|
|
小模型(参数量: ~20M) |
|
|
|
|
|
中模型(参数量: 20M ~ 40M) |
|
|
|
|
|
大模型(参数量:40M ~ ) |
|
|
|
|
|
方向 |
算法名称 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
文本识别 |
CRNN |
MobileNet-v2 |
163.4 |
1.06 |
61.2 |
6.577M |
0.194G |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
|
SAR |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
/ |
R31 |
19.3 |
/ |
87.3 |
57.458M |
17.414G |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
8、文本检测
|
|
小模型(参数量: ~20M) |
|
|
|
|
|
中模型(参数量: 20M ~ 40M) |
|
|
|
|
|
大模型(参数量:40M ~ ) |
|
|
|
|
|
方向 |
算法名称 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
名称 |
FPS (PyTorch) |
FPS(T4-FP16) |
精度 |
参数量 |
计算量 |
文本检测 |
DBNet |
R18 |
56.6 |
6.45 |
69.3 |
12.341M |
24.897G |
R50 |
43.4 |
/ |
71.2 |
26.281M |
35.232G |
R101 |
34.2 |
/ |
72.8 |
46.331M |
51.268G |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
四、PaddleX List
1、图像分类
模型类型 |
模型 |
Top1 Acc(%) |
GPU 推理耗时(ms) |
CPU 推理耗时(ms) |
模型存储大小(M) |
详情 |
图像分类 |
CLIP_vit_base_patch16_224 |
85.39 |
4.68 |
67.35 |
331 |
info |
|
SwinTransformer_base_patch4_window7_224 |
83.37 |
6.55 |
838.15 |
342 |
info |
|
PP-HGNet_small |
81.51 |
2.43 |
24.01 |
94 |
info |
|
ResNet50 |
76.50 |
2.15 |
10.83 |
98 |
info |
|
PP-LCNet_x1_0 |
71.32 |
0.47 |
1.63 |
12 |
info |
|
MobileNetV3_small_x1_0 |
68.24 |
0.83 |
1.79 |
12 |
info |
2、图像分割
模型类型 |
模型 |
mIoU (%) |
GPU 推理耗时(ms) |
CPU 推理耗时(ms) |
模型存储大小(M) |
详情 |
图像分割 |
OCRNet |
82.15 |
158.60 |
3011.93 |
270 |
info |
|
PP-LiteSeg |
77.04 |
7.55 |
208.67 |
31 |
info |
3、目标检测
模型类型 |
模型 |
mAP(%) |
GPU 推理耗时(ms) |
CPU 推理耗时(ms) |
模型存储大小(M) |
详情 |
目标检测 |
rt_detr_hgnetv2_l |
53.0 |
12.34 |
228.53 |
125 |
info |
|
ppyoloe_plus_l |
52.9 |
11.57 |
256.29 |
200 |
info |
|
picodet_s_320_lcnet |
29.1 |
9.46 |
6.27 |
5 |
info |
4、OCR
模型类型 |
模型 |
检测 mAP(%) |
识别 Top1 Acc(%) |
GPU 推理耗时(ms) |
CPU 推理耗时(ms) |
模型存储大小(M) |
详情 |
OCR |
PP-OCRv4-server |
82.69 |
79.20 |
32.59 |
423.91 |
198 |
文本检测/文本识别 |
|
PP-OCRv4-mobile |
77.79 |
78.20 |
3.12 |
35.47 |
15 |
文本检测/文本识别 |
5、PP-ChatOCR
模型类型 |
模型 |
关键信息抽取准确率 |
启动训练 |
PP-ChatOCR |
PP-ChatOCR |
61%(百度自有数据集,复杂度较大) |
info |
6、PDF转Word
模型类型 |
算法 |
模型 |
精度 |
GPU 推理耗时(ms) |
CPU 推理耗时(ms) |
模型存储大小(M) |
详情 |
PDF转Word |
版面分析 |
picodet_layout_1x |
86.80 |
4.99 |
76.41 |
9.7 |
版面分析 |
|
文本检测 |
ch_PP-OCRv4_det |
77.79/82.69 |
3.63/77.74 |
-/2244.96 |
4.7/111 |
mobile/server |
|
文本识别 |
ch_PP-OCRv4_rec |
78.20/79.20 |
1.46/6.55 |
-/134.59 |
11/89 |
mobile/server |
|
表格识别 |
SLANet |
76.31 |
868.23 |
395.39 |
9.3 |
SLANet |
7、时序预测
模型类型 |
模型 |
mse |
mae |
模型存储大小(M) |
详情 |
时序预测 |
DLinear |
0.386 |
0.445 |
80k |
info |
|
RLinear |
0.408 |
0.456 |
44k |
info |
|
Nlinear |
0.411 |
0.459 |
44k |
info |
|
PatchTST |
0.291 |
0.380 |
2.2M |
info |
|
TimesNet |
0.284 |
0.386 |
5.2M |
info |
|
TiDE |
0.376 |
0.441 |
35M |
info |
|
Nonstationary |
0.385 |
0.463 |
61M |
info |
|
XGBoost |
0.426 |
0.470 |
15M |
info |
|
PP-TS |
0.210 |
0.318 |
63M |
info |
8、图像识别系统
模型类型 |
模型 |
主体检测模型 mAP(%) |
Aliproduct数据集recall@1(%) |
Aliproduct数据集mAP(%) |
SOP数据集recall@1(%) |
SOP数据集mAP(%) |
详情 |
图像识别系统 |
PP-ShiTuV2 |
41.5 |
84.2 |
83.3 |
77.6 |
55.3 |
主体检测/特征提取 |
9、3D目标检测
模型类型 |
模型 |
精度 |
NDS (%) |
GPU 推理耗时(ms) |
CPU 推理耗时(ms) |
模型存储大小(M) |
详情 |
3D目标检测 |
CaDDN |
7.86%(3DmAP Mod) |
- |
182.4 |
- |
121 |
info |
|
CenterPoint |
50.79% (3D mAP) |
61.30 |
34.0 |
- |
24.5 |
info |
|
PETRv1 |
38.35 (3D mAP) |
43.52 |
262.5 |
22341.2 |
345 |
info |
|
PETRv2 |
41.05 (3D mAP) |
49.86 |
515.3 |
42693.8 |
121 |
info |
五、附录
1.影响力评价目前共有四个维度,即Google Scholar 引用数、Google Search 结果数、GitHub repository 数、GitHub code 数,分别定义为变量A、B、C、D .
2.计算各维度对应 Arxiv 发表至今的月均结果,即:, , , 。
b, c, d计算方式亦然。
注:Year_now与Month_now分别表示当前年、月份,Year_arxiv与Month_arxiv分别表示改算法对应的论文在Arxiv上发表的年、月份。
3.计算各维度的细项评分,即,,,,以为例,如下公式中,,,分别表示该方向(如目标检测)下所有算法中a的最大值,算数平均值与最小值。
4.计算该模型的影响力总体得分,即:
,其中Roundup为向上舍入取整函数。
综合考虑模型在标准 Benchmark 上精度和速度的 trade-off,比较精度-速度曲线。
计算量与参数量计算方式,详见:MMEngine-统计模型计算量和参数量.
六、参考: