Mosaic AI Model Serving でサポートされている基盤モデル
この記事では、Mosaic AI Model Servingを使用して提供できる基盤モデルについて説明します。
基盤モデルは、大規模な事前トレーニング済みのニューラルネットワークであり、大規模なデータと広範なデータの両方でトレーニングされています。 これらのモデルは、言語、画像、またはその他のデータ型の一般的なパターンを学習するように設計されており、追加のトレーニングを使用して特定のタスクに合わせて微調整できます。
モデルサービングは、お客様のニーズに基づいて基盤モデルをホスティングおよびクエリするための柔軟なオプションを提供します。
外部モデル: このオプションを使用すると、OpenAI や Anthropic によって提供されるモデルなど、Databricks の外部でホストされている基盤モデルにアクセスできます。 これらのモデルは、Databricks 内で一元管理して、ガバナンスを効率化できます。
プロビジョニング スループット: パフォーマンスの保証が必要な本番運用のユースケースに推奨されます。 このオプションを使用すると、最適化されたサービスエンドポイントを使用して、微調整された基盤モデルをデプロイできます。
Databricks でホストされる基盤モデル
Databricks は、GTE-Large のような最先端のオープン基盤モデルをホストしています。 これらのモデルは、プロビジョニング スループットAPIs基盤モデル を使用して使用できます。
プロビジョニングされたスループット
基盤モデル APIs プロビジョニング スループットは、本番運用の場合に推奨されます。 プロビジョニングされたスループットを使用するエンドポイントを作成して、微調整された基盤モデルアーキテクチャをデプロイできます。 プロビジョニングされたスループットを使用すると、サービスエンドポイントは、パフォーマンスの保証が必要な基盤モデルのワークロードに最適化されます。
次の表は、プロビジョニングされたスループットでサポートされているモデル アーキテクチャをまとめたものです。 Databricks では、プロビジョニングされたスループット ワークロードに対して 、Unity Catalog で事前トレーニング済みの基盤モデル を使用することをお勧めします。
モデルアーキテクチャ |
タスクのタイプ |
注 |
---|---|---|
GTE v1.5 (英語) |
Embeddings |
正規化された埋め込みは生成されません。 |
BGE v1.5 (英語) |
Embeddings |
Databricks の外部でホストされている基盤モデルにアクセスする
OpenAI や Anthropic などの LLM プロバイダーによって作成された基盤モデルには、 Databricks で外部モデルを使用してアクセスすることもできます。 これらのモデルは Databricks の外部でホストされており、クエリを実行するためのエンドポイントを作成できます。 これらのエンドポイントは Databricks から一元的に管理できるため、組織内のさまざまな LLM プロバイダーの使用と管理が効率化されます。
次の表に、サポートされているモデルと対応する エンドポイントの種類の一覧を示します。 一覧表示されているモデルの関連付けを使用すると、新しくリリースされたモデルの種類が特定のプロバイダーで利用可能になったときに、エンドポイントとして構成できます。 お客様は、該当するモデルライセンスでコンプライアンスを確保する責任があります。
注:
LLMの急速な発展に伴い、このリストが常に最新であるという保証はありません。 同じプロバイダーの新しいモデル バージョンは、通常、リストにない場合でもサポートされます。
モデルプロバイダー |
llm/v1/completions |
llm/v1/chat |
llm/v1/embeddings |
---|---|---|---|
OpenAI(オープンAI)** |
|
|
|
Azure OpenAI** |
|
|
|
Anthropic |
|
|
|
Cohere** |
|
|
|
Mosaic AI モデルサービング |
Databricks サービス エンドポイント |
Databricks サービス エンドポイント |
Databricks サービス エンドポイント |
Amazon Bedrock |
Anthropic:
Cohere:
AI21 Labs:
|
Anthropic:
Cohere:
|
Amazon:
Cohere:
|
AI21 Labs† |
|
||
Google Cloud Vertex AI |
text-bison |
|
|
**
モデル プロバイダーは、ファインチューニングされた補完モデルとチャット モデルをサポートしています。 ファインチューニングされたモデルをクエリするには、external model
構成の name
フィールドにファインチューニングされたモデルの名前を入力します。
† モデル プロバイダーは、カスタム入力候補モデルをサポートしています。
エンドポイントを提供する基盤モデルの作成
AIアプリケーションで基盤モデルをクエリして使用するには、まずモデルサービング エンドポイントを作成する必要があります。モデルサービングは、統合された API とUIを使用して、基盤モデルを提供するエンドポイントを作成および更新します。
「基盤モデル APIs プロビジョニング スループットを使用して利用可能になった基盤モデルの微調整されたバリアントを提供するエンドポイントを作成するには、「REST APIを使用してプロビジョニング スループット エンドポイントを作成する」を参照してください。
外部モデルオファリングを使用して利用可能になった基盤モデルにアクセスするサービングエンドポイントを作成するには、「 外部モデルサービングエンドポイントを作成する」を参照してください。
クエリ基盤モデルの提供エンドポイント
サービングエンドポイントを作成したら、基盤モデルをクエリできます。 モデルサービングは、基盤モデルのクエリに統一されたOpenAI互換の API と SDK を使用します。 この統一されたエクスペリエンスにより、エクスペリメントを行い、サポートされているクラウドやプロバイダー間での本番運用のための基盤モデルをカスタマイズする方法が簡素化されます。
「クエリ基盤モデル」を参照してください。