如何使用机器学习或预测来解决 Python 3 中的这种回归?
How to use machine learning or prediction to solve this regression in Python 3?
我想了解有关机器学习的技巧。
输入:
[[2, 3, 7],
[3, 9, 5],
[2, 6, 4]]
输出:
[4, 1, 1].T
已经给出了数据集。我想知道输入 [8, 1, 7] 的输出。我认为这是一种机器学习-回归问题。从根本上说,让我们猜测输入数据集是一组纯数字。
从长远来看,我想知道某些输入集不是纯数字的情况,但现在不急,以后再考虑。直觉上看起来很简单,但是我技术不好,搜索不到怎么解决。
我该如何解决这个问题?
您的 3 个观察数据集非常小,无法采用合理的机器学习技术。
我可能会在这里使用 k 最近邻方法:给定输入,计算到已知数据点的距离,以及 select 与最近的数据点相关联的输出。
这里,最接近 [8,1,7] 的观测值(通过欧几里德距离测量)是 [2, 3, 7],因此该方法将预测输出为 4。
如果您获得更大的数据集,您将能够使用更好的方法。
我想了解有关机器学习的技巧。
输入:
[[2, 3, 7],
[3, 9, 5],
[2, 6, 4]]
输出:
[4, 1, 1].T
已经给出了数据集。我想知道输入 [8, 1, 7] 的输出。我认为这是一种机器学习-回归问题。从根本上说,让我们猜测输入数据集是一组纯数字。
从长远来看,我想知道某些输入集不是纯数字的情况,但现在不急,以后再考虑。直觉上看起来很简单,但是我技术不好,搜索不到怎么解决。
我该如何解决这个问题?
您的 3 个观察数据集非常小,无法采用合理的机器学习技术。 我可能会在这里使用 k 最近邻方法:给定输入,计算到已知数据点的距离,以及 select 与最近的数据点相关联的输出。 这里,最接近 [8,1,7] 的观测值(通过欧几里德距离测量)是 [2, 3, 7],因此该方法将预测输出为 4。 如果您获得更大的数据集,您将能够使用更好的方法。