機械学習実装ノート

Kaggle などのコンペでも使える機械学習モデルの実装についてまとめていきます。

    Loading...

## カテゴリ変数のエンコード

特徴量について、前処理を含む何かしらの加工を施すことは特徴量エンジニアリングなどと呼ばれているようです。

序盤に試すテーブルデータの特徴量エンジニアリング
序盤に試すテーブルデータの特徴量エンジニアリング favicon zenn.dev
序盤に試すテーブルデータの特徴量エンジニアリング

特徴量エンジニアリングの一環として、文字列で表されるカテゴリカルな特徴量を、モデルが学習可能な数値データに変換する エンコード という操作が挙げられます。

  • Label Encoding
    • カテゴリに対して一意な整数を割り振ります。カテゴリ変数が順序関係をもつかどうかを判断せねばなりません(順序尺度と名義尺度↗)。
  • One-Hot Encoding
    • カテゴリの存在を T/F で表現する新しいカラムを作成します。特徴量の次元が増大します。
  • Count Encoding
    • カテゴリの出現回数に変換します。不均衡なデータであっても、重みを表現しやすいです。
  • Target Encoding
    • 目的変数の値を使用したエンコーディング方式です。

Count Encoder を除く Encoder 各種は Scikit-learn や category_encoders に実装されていますが、自前での実装も可能です。

Label Encoder:

Count Encoder:

## クロスバリデーション (CV)

交差検証

交差検証交差確認) とは、統計学において標本データを分割し、その一部をまず解析して、残る部分でその解析のテストを行い、解析自身の妥当性の検証・確認に当てる手法を指す。データの解析(および導出された推定・統計的予測)がどれだけ本当に母集団に対処できるかを良い近似で検証・確認するための手法である。

Wikipedia - 交差検証↗ より引用

機械学習においては、トレーニングデータの一部をバリデーションデータとして分割し、モデルの汎化性能を評価する手法です。モデルに LightGBM を用いた、データ (X, y) の k-Fold 交差検証は以下のように実装できます。

k-fold.py
import numpy as np
import pandas as pd
import lightgbm as lgb
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import KFold

# LightGBM のモデル初期化
params = {
    "boosting_type": "gbdt",    # 勾配ブースティング決定木
    "objective": "regression",  # 回帰
    "metric": "mse",            # 評価指標は MSE
    "random_state": 42          # seed を固定
}

model = lgb.LGBMRegressor(**params)

# 交差検証
fold_num = 5
kf = KFold(n_splits=fold_num, shuffle=True, random_state=42)
folds = []

for (train_index, true_index) in kf.split(X, y):

    # バリデーションデータを分割
    X_train, X_true = X.iloc[train_index], X.iloc[true_index]
    y_train, y_true = y.iloc[train_index], y.iloc[true_index]

    # モデルの訓練
    model.fit(
        X_train,
        y_train,
        eval_set=[(X_true, y_true)],
        callbacks=[
            lgb.early_stopping(stopping_rounds=100, verbose=False),
        ],
    )

    # 予測
    y_pred = model.predict(X_true)

    # Accuracy の評価
    accuracy = model.score(y_true, y_pred)

    # MSE の評価
    mse = mean_squared_error(y_true, y_pred)

    # 結果を格納
    folds.append({
      "model": model,
      "accuracy": accuracy,
      "mse": mse,
      "true": y_true,
      "pred": y_pred
    })

# 予測
preds = []

for fold in folds:
    model = fold["model"]
    y_pred = model.predict(X)
    preds.append(y_pred)

## LightGBM の実装関連

### 評価指標を自前で実装する

LightGBM にビルトインされていない評価指標を自前で実装し、 model.fit() の引数 eval_metrics に渡すこともできます。

lightgbm.LGBMRegressor — LightGBM 4.6.0.99 documentation
lightgbm.LGBMRegressor — LightGBM 4.6.0.99 documentation favicon lightgbm.readthedocs.io

例えば、

RMSLE=1Ni=1N(log(1+y^i)log(1+yi))\operatorname{RMSLE} = \sqrt{\frac{1}{N}\sum_{i=1}^N (\log (1 + \hat{y}_i) - \log (1 + y_i))}

であれば、

from sklearn.metrics import root_mean_squared_log_error

def rmsle(y_true, y_pred):
    # 予測値が負になる場合があるので、折り返す
    y_pred = np.maximum(0, y_pred)
    rmsle = root_mean_squared_log_error(y_true, y_pred)
    return "RMSLE", rmsle, False

を用いて、

k-fold.py
import lightgbm as lgb

params = {
    "metric": "none", # ビルトインの評価指標を使わない
}

model = lgb.LGBMRegressor(**params)

model.fit(
    X_train,
    y_train,
    eval_metrics=rmsle,
    callbacks=[
        lgb.early_stopping(stopping_rounds=100, verbose=False),
    ],
)

のようにすることができます。

## ハイパーパラメータ最適化

### グリッドサーチ

### Optuna の使用

Discussions

記事がありません