We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
最近我按照您的代码实现思路,我复现了一下论文中的模型,有几个问题想请教您: 1.不知道您是否增加试验过增加epoch,实验中我epoch=3000左右的时候Dsicrimimator_loss已经收敛,但是encoder和generator的loss我训练到20K的时候两者还未收敛? 2.topic words分布刚开始不是很好,会出现很多主题下有相同的词,但是在可能10Kepoch后有了效果。 希望能和您进一步讨论 感谢~
The text was updated successfully, but these errors were encountered:
最近我按照您的代码实现思路,我复现了一下论文中的模型,有几个问题想请教您: 1.不知道您是否增加试验过增加epoch,实验中我epoch=3000左右的时候Dsicrimimator_loss已经收敛,但是encoder和generator的loss我训练到20K的时候两者还未收敛? 2.topic wopiprds分布刚开始不是很好,会出现很多主题下有相同的词,但是在可能10Kepoch后有了效果。 希望能和您进一步讨论 感谢~
亲 请问你复现的时候怎么import models的 我pip clone 之后 from models import BATM 怎么不行呢
Sorry, something went wrong.
No branches or pull requests
最近我按照您的代码实现思路,我复现了一下论文中的模型,有几个问题想请教您:
1.不知道您是否增加试验过增加epoch,实验中我epoch=3000左右的时候Dsicrimimator_loss已经收敛,但是encoder和generator的loss我训练到20K的时候两者还未收敛?
2.topic words分布刚开始不是很好,会出现很多主题下有相同的词,但是在可能10Kepoch后有了效果。
希望能和您进一步讨论 感谢~
The text was updated successfully, but these errors were encountered: