PyTorch警告关于在前向包含多个autograd节点时使用非完整后向钩子

我对 pytorch 和构建神经网络比较陌生。

最近升级后,在运行我的 pytorch 循环时,我现在收到警告“ using a non-full backward hook when the forward contains multiple autograd Nodes”。

培训仍在运行并完成,但我不确定应该将register_full_backward_hook函数放在哪里。

我曾尝试将其添加到我的神经网络中的每一层,但这会导致有关使用不同钩子的更多错误。

任何人都可以请指教吗?

以上是PyTorch警告关于在前向包含多个autograd节点时使用非完整后向钩子的全部内容。
THE END
分享
二维码
< <上一篇
下一篇>>