我是keras的新手。

我在旨在减少对数损失的数据集上运行它。
对于每个时期,它给我相同的损失值。无论我是否走上正轨,我都感到困惑。

例如:

Epoch 1/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 2/5
91456/91456 [==============================] - 139s - loss: 3.8019 - val_loss: 3.8278
Epoch 3/5
91456/91456 [==============================] - 143s - loss: 3.8019 - val_loss: 3.8278
Epoch 4/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 5/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278

3.8019在每个时代都是相同的。它应该更少。

最佳答案

我也遇到了这个问题。经过深思熟虑,我发现这是我的输出层上的激活函数。

我有这个模型来预测二进制结果:

model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='softmax'))

我需要这个用于二进制交叉熵
model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='sigmoid'))

我会考虑您要解决的问题以及确保您的激活功能所需的输出。

关于conv-neural-network - 喀拉拉邦在每个时代都遭受同样的损失,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/35540269/

10-13 00:04