happynear / AMSoftmax

A simple yet effective loss function for face verification.

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

关于预训练模型在LFW数据集上准确率的问题

xisi789 opened this issue · comments

我使用sphereface里的evaluation.m文件在LFW数据集上测试您提供的模型face_train_test_iter_30000.caffemodel,输出结果如下:
fold ACC

1 61.17%
2 60.33%
3 64.00%
4 60.00%
5 59.50%
6 58.83%
7 59.17%
8 58.33%
9 62.33%
10 65.67%

AVE 60.93%
是我哪里操作失误吗?准确率为什么跟您论文里描述的差了那么多呢?

hi, 你用insightface的gluon版本了吗,能得到正确的结果吗?

您的意思是让我用insightface的gluon版本测试AMSoftmax还是insightface呢?

都可以,哪个版本都可以,有一个好用就行。

insightface的gluon版本不能用

什么问题? 我看还能运行

Traceback (most recent call last):
File "E:/0-project/1-facerecognition/1-code/insightface-master/insightface-master/gluon/verification.py", line 365, in
testing verification..
acc1, std1, acc2, std2, xnorm, embeddings_list = test(ver_list[i], model, ctx, args.batch_size, args.nfolds)
File "E:/0-project/1-facerecognition/1-code/insightface-master/insightface-master/gluon/verification.py", line 229, in test
z = net.feature(x)
AttributeError: 'Module' object has no attribute 'feature'
另外我只是想测试AMSoftmax模型的性能,insightface我已经测试过。

在 insightface里 是有feature 属性的。

你insightface测试的准确率是多少? 参数和之前的一样吗?

测试的准确率和他论文里提到的差不多

非常感谢,我去试试

Did you extract feature from 'fc5'?

Did you extract feature from 'fc5'?

Is feature extracted from 'fc5 not from the last layer in face_deploy_mirror_normalize.prototxt?