自定义模型集成
简介
Qlib
的模型库包含诸如LightGBM
、MLP
、LSTM
等模型。这些模型是预测 模型
的示例。除了默认提供的模型外,用户还可以将自己定义的自定义模型集成到Qlib
中。
用户可以按照以下步骤集成自己的自定义模型。
定义一个自定义模型类,该类应继承自qlib.model.base.Model。
编写一个配置文件,描述自定义模型的路径和参数。
测试自定义模型。
自定义模型类
自定义模型需要继承自qlib.model.base.Model,并重写其中的方法。
- 重写__init__方法
Qlib
会将初始化参数传递给__init__方法。配置文件中模型的超参数必须与__init__方法中定义的参数保持一致。
代码示例:在以下示例中,配置文件中的模型超参数应包含诸如loss:mse之类的参数。
def __init__(self, loss='mse', **kwargs): if loss not in {'mse', 'binary'}: raise NotImplementedError self._scorer = mean_squared_error if loss == 'mse' else roc_auc_score self._params.update(objective=loss, **kwargs) self._model = None
- 重写fit方法
Qlib
调用 fit 方法来训练模型。参数中必须包含训练特征dataset,这是接口设计的一部分。
参数中可以包含一些带有默认值的可选参数,例如num_boost_round = 1000用于GBDT。
代码示例:在以下示例中,num_boost_round = 1000是一个可选参数。
def fit(self, dataset: DatasetH, num_boost_round = 1000, **kwargs): # prepare dataset for lgb training and evaluation df_train, df_valid = dataset.prepare( ["train", "valid"], col_set=["feature", "label"], data_key=DataHandlerLP.DK_L ) x_train, y_train = df_train["feature"], df_train["label"] x_valid, y_valid = df_valid["feature"], df_valid["label"] # Lightgbm need 1D array as its label if y_train.values.ndim == 2 and y_train.values.shape[1] == 1: y_train, y_valid = np.squeeze(y_train.values), np.squeeze(y_valid.values) else: raise ValueError("LightGBM doesn't support multi-label training") dtrain = lgb.Dataset(x_train.values, label=y_train) dvalid = lgb.Dataset(x_valid.values, label=y_valid) # fit the model self.model = lgb.train( self.params, dtrain, num_boost_round=num_boost_round, valid_sets=[dtrain, dvalid], valid_names=["train", "valid"], early_stopping_rounds=early_stopping_rounds, verbose_eval=verbose_eval, evals_result=evals_result, **kwargs )
- 重写predict方法
参数中必须包含dataset参数,用于获取测试数据集。
返回预测得分。
请参考模型 API了解 fit 方法的参数类型。
代码示例:在以下示例中,用户需要使用LightGBM预测测试数据x_test的标签(例如preds),并返回结果。
def predict(self, dataset: DatasetH, **kwargs)-> pandas.Series: if self.model is None: raise ValueError("model is not fitted yet!") x_test = dataset.prepare("test", col_set="feature", data_key=DataHandlerLP.DK_I) return pd.Series(self.model.predict(x_test.values), index=x_test.index)
- 重写finetune方法(可选)
该方法对用户而言是可选的。当用户希望在自己的模型上使用此方法时,应继承
ModelFT
基类,该类包含了finetune接口。参数中必须包含dataset参数。
代码示例:在以下示例中,用户将使用LightGBM作为模型并对其进行微调。
def finetune(self, dataset: DatasetH, num_boost_round=10, verbose_eval=20): # Based on existing model and finetune by train more rounds dtrain, _ = self._prepare_data(dataset) self.model = lgb.train( self.params, dtrain, num_boost_round=num_boost_round, init_model=self.model, valid_sets=[dtrain], valid_names=["train"], verbose_eval=verbose_eval, )
配置文件
配置文件在工作流文档中有详细说明。为了将自定义模型集成到Qlib
中,用户需要修改配置文件中的“model”字段。该配置描述了应使用哪些模型以及如何初始化它们。
示例:以下示例描述了上述自定义 lightgbm 模型的配置文件中的model字段,其中module_path为模块路径,class为类名,args为传递给__init__方法的超参数。该字段中的所有参数都会通过**kwargs传入__init__中的self._params,但loss = mse除外。
model: class: LGBModel module_path: qlib.contrib.model.gbdt args: loss: mse colsample_bytree: 0.8879 learning_rate: 0.0421 subsample: 0.8789 lambda_l1: 205.6999 lambda_l2: 580.9768 max_depth: 8 num_leaves: 210 num_threads: 20
用户可以在examples/benchmarks
中找到模型
基线的配置文件。不同模型的所有配置都列在相应模型的文件夹下。
模型测试
假设配置文件为examples/benchmarks/LightGBM/workflow_config_lightgbm.yaml
,用户可以运行以下命令来测试自定义模型:
cd examples # Avoid running program under the directory contains `qlib`
qrun benchmarks/LightGBM/workflow_config_lightgbm.yaml
注意
qrun
是Qlib
的一个内置命令。
此外,模型
也可以作为独立模块进行测试。在examples/workflow_by_code.ipynb
中已提供了一个示例。
参考
如需了解更多关于预测 模型
的信息,请参阅预测模型:模型训练与预测和模型 API。