NeuralProphet之一:安装与使用

时间序列论文: NeuralProphet: Explainable Forecasting at Scale
NeuralProphet之一:安装与使用
NeuralProphet之二:季节性(Seasonality)
NeuralProphet之三:回归(Regressors)
NeuralProphet之四:事件(Events)
NeuralProphet之五:多时序预测模型
NeuralProphet之六:多元时间序列预测
NeuralProphet之七:NeuralProphet + Optuna
NeuralProphet之八:NeuralProphet部署
NeuralProphet官方示例一:建筑物用电量预测(Building load forecasting)
NeuralProphet官方示例二:日照辐射强度预测(Forecasting hourly solar irradiance)

NeuralProphet之一:安装与使用

论文PDF:NeuralProphet: Explainable Forecasting at Scale
文档地址:https://neuralprophet.com/html/contents.html
数据地址:https://github.com/ourownstory/neuralprophet-data
示例地址:https://github.com/ourownstory/neural_prophet/tree/main/tutorials

1 概述

NeuralProphet模型集成了Prophet的所有优点,不仅具有不错的可解释性,还有优于Prophet的预测性能。

  • 使用PyTorch作为后端进行优化的梯度下降法。
  • 使用AR-Net对时间序列的自相关进行建模。
  • 使用seepearate前馈神经网络对滞后回归者进行建模。
  • 可配置的FFNNs非线性深层。
  • 可调整到特定的预测范围(大于1)。
  • 自定义损失和指标。

2 安装

pip install neuralprophet

3 使用

导入包:

from neuralprophet import NeuralProphet

调用:

m = NeuralProphet()
metrics = m.fit(df)
forecast = m.predict(df)

可视化结果:

fig_forecast = m.plot(forecast)
fig_components = m.plot_components(forecast)
fig_model = m.plot_parameters()

预测:

m = NeuralProphet().fit(df, freq="D")
df_future = m.make_future_dataframe(df, periods=30)
forecast = m.predict(df_future)
fig_forecast = m.plot(forecast)

4 Hyperparameters

ParameterDefault Value说明备注
growthlinear
changepointsNone手动设置改变点
n_changepoints5控制趋势灵活度
changepoints_range0.8默认值0.8,表示后20%的训练数据无changepoints
trend_reg0趋势正则项
trend_reg_thresholdFalse
yearly_seasonalityauto默认6
weekly_seasonalityauto默认 4
daily_seasonalityauto默认6
seasonality_modeadditiveadditive,multiplicative
seasonality_reg0值越大正则约束越大0.1-1或者1-100
n_forecasts1预测范围,1意味着将来预测一步
n_lags0定义是否使用AR-Net,n_lags决定AR-Net回看步数,建议取值大于n_forecasts
num_hidden_layers0定义FFNNs的隐藏层数,0意味着只有一个隐藏层0,1,2
d_hiddenNone隐藏层的单元数,如果未指定,默认为n_lags + n_forecastsn_lags 和 n_forecasts 之间
ar_sparsityNone0完全稀疏,1无正则约束0-1
learning_rateNone如果未指定,自动调整
epochsNone如果未指定,根据数据大小设定
batch_sizeNone
loss_funcHuber如果未指定,根据数据大小设定Huber, MSE,torch.nn.modules.loss
optimizerAdamWAdamW,SDG
train_speedNone
normalizeautomin-max normalization
impute_missingTrue惩罚缺失值
collect_metricsTrue默认计算mae 和 rmse


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部