Skip to content

LightGBM 模型推論服務

mlserver 開箱即用地支援 lightgbm 模型的部署和服務。預設情況下,它會假設這些模型已使用 bst.save_model() method 進行序列化

在此範例中,我們將介紹如何訓練和序列化一個簡單的模型,然後使用 mlserver 為其提供模型推論服務。

安裝相依套件

要使用 mlserver 開箱即用地支援 lightgbm Runtime, 必需要先安裝下列套件:

pip install mlserver-lightgbm

模型訓練

第一步是訓練一個簡單的 lightgbm 模型。

train.py
import lightgbm as lgb
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
import os

model_dir = "."
BST_FILE = "iris-lightgbm.bst"

iris = load_iris()
y = iris['target']
X = iris['data']

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1)

dtrain = lgb.Dataset(X_train, label=y_train)

params = {
    'objective':'multiclass', 
    'metric':'softmax',
    'num_class': 3
}
lgb_model = lgb.train(params=params, train_set=dtrain)

保存模型

為了保存經過訓練的模型,我們將使用 bst.save_model() 進行序列化。這是 XGBoost 專案推薦的方法。

我們的模型將儲存為名為 iris-lightgbm.bst 的文件

train.py
model_dir = "."
BST_FILE = "iris-lightgbm.bst"
model_file = os.path.join(model_dir, BST_FILE)

lgb_model.save_model(model_file)

我們的模型將儲存為名為 iris-lightgbm.bst 的檔案。

模型推論

現在我們已經訓練並保存了模型,下一步將是使用 mlserver 為其提供模型推論服務。為此,我們需要建立 2 個設定檔:

  • settings.json: 儲存我們伺服器的配置(例如連接埠、日誌等級等)。
  • model-settings.json: 儲存模型的配置(例如輸入類型、使用的執行時間等)。

settings.json

settings.json
{
    "debug": "true"
}

model-settings.json

model-settings.json
{
    "name": "iris-lgb",
    "implementation": "mlserver_lightgbm.LightGBMModel",
    "parameters": {
        "uri": "./iris-lightgbm.bst",
        "version": "v0.1.0"
    }
}

開始模型推論服務

現在我們已經有了配置,我們可以透過執行 mlserver start 來啟動伺服器。

mlserver start .

由於此命令將啟動伺服器並封鎖終端,等待請求,因此需要在單獨的終端機上在背景執行。

發送推理請求

現在我們的模型由 mlserver 提供服務。為了確保一切按預期工作,讓我們從測試數據集發送請求。

為此,我們可以使用 mlserver 提供的開箱即用的 Python 類型,也可以手動建立請求。

import requests

x_0 = X_test[0:1]
inference_request = {
    "inputs": [
        {
        "name": "predict-prob",
        "shape": x_0.shape,
        "datatype": "FP32",
        "data": x_0.tolist()
        }
    ]
}

endpoint = "http://localhost:8080/v2/models/iris-lgb/versions/v0.1.0/infer"
response = requests.post(endpoint, json=inference_request)

print(response.json())
from mlserver.codecs import NumpyRequestCodec

x_0 = X_test[0:1]

# Encode an entire V2 request
inference_request = NumpyRequestCodec.encode_request(x_0)

endpoint = "http://localhost:8080/v2/models/iris-lgb/versions/v0.1.0/infer"

response = requests.post(endpoint, json=inference_request.model_dump())

print(response.json())
from mlserver.types import InferenceRequest
from mlserver.codecs import NumpyCodec

x_0 = X_test[0:1]

# Encode an entire V2 request
inference_request = InferenceRequest(
    inputs=[
        NumpyCodec.encode_input("x_0", x_0)
    ]
)

endpoint = "http://localhost:8080/v2/models/iris-lgb/versions/v0.1.0/infer"

response = requests.post(endpoint, json=inference_request.model_dump())

print(response.json())

結果:

{
  "model_name": "mushroom-xgboost",
  "model_version": "v0.1.0",
  "id": "69ba8342-f7fe-4d7e-a483-1ab252495793",
  "parameters": {},
  "outputs": [
    {
      "name": "predict",
      "shape": [
        1,
        1
      ],
      "datatype": "FP32",
      "parameters": {
        "content_type": "np"
      },
      "data": [
        0.285208523273468
      ]
    }
  ]
}

正如我們在下面看到的,模型預測輸入接近 0,這與測試數據集上的結果相符。

print(y_test[0])

結果:

0