Databricks でモデルを提供する
このセクションでは、Mosaic AI Model Serving を使用して REST エンドポイントを通じて機械学習モデルを提供する方法と、MLflow を使用してバッチ推論とストリーミング推論を行う方法について説明します。
バッチ推論
Databricks では、MLflow を使用してオフライン (バッチおよびストリーミング) 推論用の MLflow モデルをデプロイすることをお勧めします。 詳細については、「 バッチ推論と予測のためのモデルのデプロイ」を参照してください。