Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

作者您好关于BATM模型的问题 #13

Open
WuDiDaBinGe opened this issue Jun 28, 2021 · 1 comment
Open

作者您好关于BATM模型的问题 #13

WuDiDaBinGe opened this issue Jun 28, 2021 · 1 comment

Comments

@WuDiDaBinGe
Copy link

最近我按照您的代码实现思路,我复现了一下论文中的模型,有几个问题想请教您:
1.不知道您是否增加试验过增加epoch,实验中我epoch=3000左右的时候Dsicrimimator_loss已经收敛,但是encoder和generator的loss我训练到20K的时候两者还未收敛?
2.topic words分布刚开始不是很好,会出现很多主题下有相同的词,但是在可能10Kepoch后有了效果。
希望能和您进一步讨论 感谢~

@Sunxiaoni
Copy link

最近我按照您的代码实现思路,我复现了一下论文中的模型,有几个问题想请教您:
1.不知道您是否增加试验过增加epoch,实验中我epoch=3000左右的时候Dsicrimimator_loss已经收敛,但是encoder和generator的loss我训练到20K的时候两者还未收敛?
2.topic wopiprds分布刚开始不是很好,会出现很多主题下有相同的词,但是在可能10Kepoch后有了效果。
希望能和您进一步讨论 感谢~

亲 请问你复现的时候怎么import models的 我pip clone 之后 from models import BATM 怎么不行呢

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants