Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

关于3090用torch1.8跑rfft和irfft如何改动,我自己改动后不报错但现在loss一直是nan。 #32

Open
Ada22222 opened this issue Mar 15, 2023 · 6 comments

Comments

@Ada22222
Copy link

您好我想咨询一下3090显卡用torch1.8跑rfft和irfft需要怎么处理,我按照网上帖子处理后不报错了但是loss一直是nan。而我本人笔记本2060跑的时候同样torch1.8却不报错,loss也正常。

@Algolzw
Copy link
Collaborator

Algolzw commented Mar 15, 2023

你好,你可以尝试这里的代码:#12 (comment)

@Ada22222
Copy link
Author

非常感谢您的解答,解决了rfft相关问题。
另外还有一件事想请教您,我用您提供的pth文件test的每个测试集结果和原论文差距有点大。不知道是什么原因?这是setting1的X2的两个测试集结果。
未命名图片
未命名图片2
另外,我都担心难道我测试集生成的时候不对。麻烦您看看,generate_.....这个文件我除了改动了倍数别的都没动。

未命名图片3
未命名图片4

@Algolzw
Copy link
Collaborator

Algolzw commented Mar 26, 2023

生成测试集的时候generate里面改了倍数的话 sig 范围也要改。x2的sig应该是[0.2-2.0], 但你数据集里出现了sig3.2。

@Ada22222
Copy link
Author

生成测试集的时候generate里面改了倍数的话 sig 范围也要改。x2的sig应该是[0.2-2.0], 但你数据集里出现了sig3.2。

非常感谢您的耐心回答。是和论文中一样的~~~另外,我用单卡A6000跑的时候,如果把batchsize改成128,您觉得n_workers改成多少合适呀,还有总iters500K我是不是也该对应batchsize成倍减少才对~~

@Algolzw
Copy link
Collaborator

Algolzw commented Mar 30, 2023

我还没试过128的batchsize,不过nworkers一般看你服务器是几核的,个人感觉核数/2或4比较合适,不会影响别的程序性能。iteration的话改不改都行,最后差距应该不会太大,可能0.1~0.2个点。

@Ada22222
Copy link
Author

我还没试过128的batchsize,不过nworkers一般看你服务器是几核的,个人感觉核数/2或4比较合适,不会影响别的程序性能。iteration的话改不改都行,最后差距应该不会太大,可能0.1~0.2个点。

好的感谢您的回答~~~

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants