我得到这个 keras 神经网络的准确率为 0%
I'm getting a 0% accuracy for this keras neural network
我正在尝试对 MNIST 数据集的一个子集进行二元分类。目标是预测样本是 6 还是 8。因此,每个样本有 784 个像素特征,数据集中有 8201 个样本。我构建了一个包含一个输入层、2 个隐藏层和一个输出层的网络。我使用 sigmoid 作为激活函数来输出层和隐藏层的 relu。我不知道为什么我最后的准确度是 0%。
#import libraries
from keras.models import Sequential
from keras.layers import Dense
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
import os
np.random.seed(7)
os.chdir('C:/Users/olivi/Documents/Python workspace')
#data loading
data = pd.read_csv('MNIST_CV.csv')
#Y target label
Y = data.iloc[:,0]
#X: features
X = data.iloc[:,1:]
X_train, X_test, y_train, y_test = train_test_split(X, Y,test_size=0.25,random_state=42)
# create model
model = Sequential()
model.add(Dense(392,kernel_initializer='normal',input_dim=784,
activation='relu'))
model.add(Dense(196,kernel_initializer='normal', activation='relu'))
model.add(Dense(98,kernel_initializer='normal', activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss = 'binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.summary()
# Training the model
model.fit(X_train, y_train, epochs=100, batch_size=50)
print(model.predict(X_test,batch_size= 50))
score = model.evaluate(X_test, y_test)
print("\n Testing Accuracy:", score[1])
选择 MNIST 的子集后,您必须确定样本(训练集和测试集)中有多少不同的 类 数字。
所以:
classes=len(np.unique(Y))
那么你应该热编码 Y:
Y_train = np_utils.to_categorical(y_train, classes)
Y_test = np_utils.to_categorical(y_test, classes)
之后,将神经网络的最后一层更改为:
model.add(Dense(classes, activation='sigmoid'))
最后:
model.predict_classes(X_test,batch_size= 50)
确保训练集和测试集的 Y 的 类 数量相同。
预测后,使用 np.where()、select 这个子样本找到 6 和 8 的位置并测试您的准确性。
如果您使用二元交叉熵,您的标签应为 0 或 1(分别代表 "is not number 6" 或 "is number 6")。
如果您现在的 Y 目标标签是值 6 和 8,它将失败。
我正在尝试对 MNIST 数据集的一个子集进行二元分类。目标是预测样本是 6 还是 8。因此,每个样本有 784 个像素特征,数据集中有 8201 个样本。我构建了一个包含一个输入层、2 个隐藏层和一个输出层的网络。我使用 sigmoid 作为激活函数来输出层和隐藏层的 relu。我不知道为什么我最后的准确度是 0%。
#import libraries
from keras.models import Sequential
from keras.layers import Dense
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
import os
np.random.seed(7)
os.chdir('C:/Users/olivi/Documents/Python workspace')
#data loading
data = pd.read_csv('MNIST_CV.csv')
#Y target label
Y = data.iloc[:,0]
#X: features
X = data.iloc[:,1:]
X_train, X_test, y_train, y_test = train_test_split(X, Y,test_size=0.25,random_state=42)
# create model
model = Sequential()
model.add(Dense(392,kernel_initializer='normal',input_dim=784,
activation='relu'))
model.add(Dense(196,kernel_initializer='normal', activation='relu'))
model.add(Dense(98,kernel_initializer='normal', activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss = 'binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.summary()
# Training the model
model.fit(X_train, y_train, epochs=100, batch_size=50)
print(model.predict(X_test,batch_size= 50))
score = model.evaluate(X_test, y_test)
print("\n Testing Accuracy:", score[1])
选择 MNIST 的子集后,您必须确定样本(训练集和测试集)中有多少不同的 类 数字。
所以:
classes=len(np.unique(Y))
那么你应该热编码 Y:
Y_train = np_utils.to_categorical(y_train, classes)
Y_test = np_utils.to_categorical(y_test, classes)
之后,将神经网络的最后一层更改为:
model.add(Dense(classes, activation='sigmoid'))
最后:
model.predict_classes(X_test,batch_size= 50)
确保训练集和测试集的 Y 的 类 数量相同。
预测后,使用 np.where()、select 这个子样本找到 6 和 8 的位置并测试您的准确性。
如果您使用二元交叉熵,您的标签应为 0 或 1(分别代表 "is not number 6" 或 "is number 6")。
如果您现在的 Y 目标标签是值 6 和 8,它将失败。