具有隐式时间分量的分类问题
Classification problems with an implicit time component
大部分分类问题都没有时间元素。
例如。图像识别。
因此,LR、Random Forrest 或 Neural Networks 等分类算法的应用是直接的。然而,一些分类问题具有隐式时间分量。例如。流失 classification/default 分类。也就是说,这不仅仅是 churn/non 流失的问题,最重要的是 when!
过去我们所做的就是将时间离散化window。也就是说,如果我们想要预测下个月的流失,并且如果客户活跃了 12 个月并在第 13 个月流失,我们将为该客户创建 13 行。在这 12 个中,有 12 个将没有流失作为响应,1 个将有流失作为响应。
我们显然可以为这类问题拟合生存模型,但我对 ML 算法更感兴趣。
我们可以看看机器 Learning/Deep 学习景观中是否有方法来处理这个问题?
有一整套深度学习架构可以处理时间序列。
他们处理一系列数据,每次他们做出预测并有一种内部记忆来提醒过去什么是重要的。
这些神经网络称为递归神经网络 (RNN)。最成功的 RNN 称为长短期记忆网络 (LSTM)。
在这里你可以找到keras的代码:
https://machinelearningmastery.com/time-series-prediction-lstm-recurrent-neural-networks-python-keras/
大部分分类问题都没有时间元素。 例如。图像识别。
因此,LR、Random Forrest 或 Neural Networks 等分类算法的应用是直接的。然而,一些分类问题具有隐式时间分量。例如。流失 classification/default 分类。也就是说,这不仅仅是 churn/non 流失的问题,最重要的是 when!
过去我们所做的就是将时间离散化window。也就是说,如果我们想要预测下个月的流失,并且如果客户活跃了 12 个月并在第 13 个月流失,我们将为该客户创建 13 行。在这 12 个中,有 12 个将没有流失作为响应,1 个将有流失作为响应。
我们显然可以为这类问题拟合生存模型,但我对 ML 算法更感兴趣。
我们可以看看机器 Learning/Deep 学习景观中是否有方法来处理这个问题?
有一整套深度学习架构可以处理时间序列。
他们处理一系列数据,每次他们做出预测并有一种内部记忆来提醒过去什么是重要的。
这些神经网络称为递归神经网络 (RNN)。最成功的 RNN 称为长短期记忆网络 (LSTM)。
在这里你可以找到keras的代码: https://machinelearningmastery.com/time-series-prediction-lstm-recurrent-neural-networks-python-keras/