admin管理员组文章数量:1794759
报错:RuntimeError: Adam does not support sparse gradients, please consider SparseAdam instead
日萌社
人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)
使用torch.optim.Adam(model.parameters(), lr=0.1)后报错如下: RuntimeError: Adam does not support sparse gradients, please consider SparseAdam instead 分析:因为Adam的关系,所以nn.Embedding(vocab_size, embed_dim, sparse=True)中的sparse不能等于True,必须为False 解决:nn.Embedding(vocab_size, embed_dim, sparse=False)
本文标签: 报错AdamRuntimeErrorsupportgradients
版权声明:本文标题:报错:RuntimeError: Adam does not support sparse gradients, please consider SparseAdam instead 内容由林淑君副主任自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.xiehuijuan.com/baike/1686552293a81024.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论