Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

请问这个GEN只针对market数据吗 #56

Open
guanyonglai opened this issue Sep 16, 2020 · 6 comments
Open

请问这个GEN只针对market数据吗 #56

guanyonglai opened this issue Sep 16, 2020 · 6 comments

Comments

@guanyonglai
Copy link

duke,cuhk,或者我自己的数据能达到这个效果吗

@layumi
Copy link
Contributor

layumi commented Sep 16, 2020

可以。但由于这两个数据集的license,所以nv不能open,就没提供config。

@guanyonglai
Copy link
Author

多谢,另外想问下生成好的market1501的数据集DG-Market.zip,总共752个文件夹,一个文件夹里的图片表示是一个ID吗?通过这10w+图片不加market1501原数据进行训练就能达到文中所述精度吗?

@layumi
Copy link
Contributor

layumi commented Sep 16, 2020

应该是751个文件夹。 是的。同个文件夹里的图片表示是一个ID。
一共 1w多 不是 10w

@guanyonglai
Copy link
Author

对,是751个文件夹,还有一个是文件。总共 128281 张图片

@guanyonglai
Copy link
Author

guanyonglai commented Sep 16, 2020

请教作者一个问题,不知道你用没用过MGN,为什么当训练ID数超过10000的时候loss收敛速度变得特别慢,而且最终map还不如5000ID训的结果,请问这种情况怎么调参呢?我的参数配置是
`epoch:600
lr: 2e-4, 280和450step时下降10倍

optimizer: Adam

loss: entropy + hard triplet

batch: 96 (24 ID * 4 imgs)

sample: 每个ID随机抽4张图片组成一个epoch

GPU: 2块12G的1080Ti`

@layumi
Copy link
Contributor

layumi commented Oct 4, 2020

@guanyonglai
你好,我没尝试过MGN。
你可以尝试减小一些dropout,特别是你数据量足够以后。
另外,你可以尝试延长训练的总epoch。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants