训练模型以预测简单的线性函数

Train model to predict simple linear function

我正在尝试使用 keras 进行逻辑回归,这是我在 ML 中的第一个实验之一。假设我想预测一些只有 1 个参数的非常简单的连续函数的值,比如 y = x*10

我试过这样训练模型:

from matplotlib import pyplot as plt
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Activation

# fix random seed for reproducibility
np.random.seed(7)

# function
curve = np.vectorize(lambda x: x*10)

# data
Xideal = np.arange(1, 15.5, 0.005)
Yideal = curve(Xideal)
X = Xideal[1::5]
Y = curve(X)

# Model 
model = Sequential()
model.add(Dense(20, activation='sigmoid', input_dim=1))
model.add(Dense(5, activation='linear'))
model.add(Dense(1))

model.compile(loss='mse', optimizer='rmsprop', metrics=['accuracy'])

# Fit

model.fit(X, Y, nb_epoch=1000, batch_size=32, verbose=0)

# Evaluate

# evaluate the model
scores = model.evaluate(Xideal, Yideal)
print("\n%s: %.2f%%" % (model.metrics_names[1], scores[1]*100))
print("\n%s: %.2f%%" % (model.metrics_names[0], scores[0]*100))

给我的结果是 2624/2900 [==========================>...] - ETA: 0s acc: 2.38% loss: 44.35%

不确定为什么只有 2.38% 的准确率。我正在试验具有不同激活函数、批量大小和时期的不同模型,但最高准确度仅为 10%。我想我在这里错过了一些基本的东西

对于这种线性数据,一个密集层就足够了。 我只想使用梯度下降而不是 rmsprop。

我已经为你创建了一个 ipython 笔记本:http://nbviewer.jupyter.org/gist/lhk/6650e4fb85f625199ee5be6d52cbbd0d

请注意:在绘图中,我不得不手动将两条线彼此分开。这就是为什么有 -2 的原因。