Databricks でモデルを提供する

このセクションでは、Mosaic AI Model Serving を使用して REST エンドポイントを通じて機械学習モデルを提供する方法と、MLflow を使用してバッチ推論とストリーミング推論を行う方法について説明します。

バッチ推論

Databricks では、MLflow を使用してオフライン (バッチおよびストリーミング) 推論用の MLflow モデルをデプロイすることをお勧めします。 詳細については、「 バッチ推論と予測のためのモデルのデプロイ」を参照してください。