当我用Theano或Tensorflow训练我的神经网络时,它们会在每个纪元报告一个名为“损失”的变量。我该如何解释这个变量呢?更高的损失是好是坏,或者它对我的神经网络的最终性能(准确性)意味着什么?
当我用Theano或Tensorflow训练我的神经网络时,它们会在每个纪元报告一个名为“损失”的变量。我该如何解释这个变量呢?更高的损失是好是坏,或者它对我的神经网络的最终性能(准确性)意味着什么?
为什么在训练期间需要调用zero_grad() ?
如何在PyTorch中保存训练好的模型?我读到过:Torch.save ()/torch.load()用于保存/加载可序列化对象。model.state_dict()/model.load_state
对于任何Keras层(层类),有人能解释一下如何理解input_shape,单位,暗淡等之间的区别吗?例如,文档说单位指定一个层的输出形状。在神经网络的图像中,隐藏层1有4个单元。这是否直接转换为图层
我试图调和我对lstm的理解,并在Christopher Olah在Keras中实现的这篇文章中指出。我正在关注Jason Brownlee写的关于Keras教程的博客。我最困惑的是,将数据序列重塑为
在接下来的TensorFlow函数中,我们必须在最后一层中输入人工神经元的激活。我能理解。但我不明白为什么叫logits?这不是一个数学函数吗?
在tf.nn中“SAME”和“VALID”填充之间的区别是什么?tensorflow的Max_pool ?在我看来,'VALID'意味着当我们做max pool时,边缘外不会有零填充。根据深度学习卷积
训练多层感知器时,历元和迭代的区别是什么?