メインコンテンツまでスキップ
バージョン: User Guides (Cloud)

クイックスタート: 外部コレクションを使用したオンデマンド検索
Public Preview

オンデマンド検索を使用すると、外部ストレージ内のデータや Zilliz Cloud にインポートされたデータにゼロコピーでアクセスし、大規模データセットを検索できます。コンピューティングリソースを継続的に実行しておく必要はありません。外部ボリュームやインポートされたファイルからコレクションを作成し、プロジェクトデータプレーンエンドポイントを介してインデックスの構築とメタデータの更新を行い、検索やクエリワークロードを実行する必要があるときだけオンデマンドクラスタを起動できます。

これを行うには、以下の手順に従います。

開始前の準備

  • ストレージ統合の作成

    ストレージ統合は、データの場所とアクセス認証情報を記録するプロファイルです。ストレージ統合を設定するには、AWS S3Google GCS、または Azure のストレージ統合を作成する手順に従い、ストレージ統合IDを取得してください。

  • 外部ボリュームの作成

    外部ボリュームは、ストレージ統合内のパスです。生データがそのパス上にあることを確認してください。同じストレージ統合から複数の外部ボリュームを作成できます。外部ボリュームの作成については、外部ボリューム を参照してください。

ステップ 1: プロジェクトエンドポイントへの接続

データベースを操作する前に、プロジェクトエンドポイントに接続します。プロジェクトエンドポイントは、Zilliz Cloud コンソールでオンデマンドコンピューティングを有効にした後、クイックスタートページで取得できます。

📘Notes

外部コレクション操作には、認証のためのAPI キーが必要です。このフローでは username:password 認証はサポートされていません。

# connect to database
client = MilvusClient(
# a project-specific on-demand compute endpoint
uri="https://{project-id}.{region}.api.zillizcloud.com",
token="YOUR_API_KEY"
)

Step 2: (オプション) データベースを作成する。

Zilliz Cloud にはデフォルトのデータベースが付属しています。これを使用する場合は、この手順をスキップしてください。以下のようにデータベースを作成することもできます。

client.create_database(
db_name="my_database"
)

Step 3: 外部コレクションを作成する。

データベースの準備ができたら、外部コレクションを作成できます。外部コレクションは、そのカラムを指定したデータファイルにマッピングし、そのコレクション内の検索用にオンデマンドのコンピューティングリソースをアタッチします。

管理コレクションが生データをコレクションにインポートすることを要求するのとは異なり、外部コレクションはサブ秒のリフレッシュ操作を通じて生データからメタデータを生成します。

次の例は、コレクションフィールドとデータファイルの間のマッピング関係を設定する方法を示しています。スキーマを初期化する際に、データのボリュームパスとファイル形式を渡します。

from pymilvus import MilvusClient, DataType

schema = MilvusClient.create_schema(
external_source='volume://my_volume/iceberg/metadata/00001-xxx.metadata.json',
external_spec='{
"format": "iceberg-table",
"snapshot_id": "1234567890123456789"
}'
)

schema.add_field(
field_name="vector",
datatype=DataType.FLOAT_VECTOR,
dim=1536,
# highlight-next
external_field="embedding" # field name in the external data file
)

schema.add_field(
field_name="product_id",
datatype=DataType.VARCHAR,
max_length=32,
nullable=True,
# highlight-next
external_field="product_id"
)

schema.add_field(
field_name="title",
datatype=DataType.VARCHAR,
max_length=512,
nullable=True,
# highlight-next
external_field="title"
)

schema.add_field(
field_name="main_category",
datatype=DataType.VARCHAR,
max_length=64,
nullable=True,
# highlight-next
external_field="main_category"
)

schema.add_field(
field_name="price",
datatype=DataType.DOUBLE,
nullable=True,
# highlight-next
external_field="price"
)

schema.add_field(
field_name="average_rating",
datatype=DataType.DOUBLE,
nullable=True,
# highlight-next
external_field="average_rating"
)

schema.add_field(
field_name="rating_number",
datatype=DataType.INT64,
nullable=True,
# highlight-next
external_field="rating_number"
)

次に、上記のスキーマを使用してコレクションを作成できます。デフォルトのデータベースを使用する場合は、db_name パラメータを安全に省略できます。

client.use_database(
db_name="my_database"
)

# create the collection
client.create_collection(
collection_name="my_collection",
schema=schema
)

Step 4: インデックスを作成し、コレクションをリフレッシュする。

外部データベースでも、マネージドコレクションと同様にインデックスを作成できます。すべてのベクトルフィールドにインデックスを作成する必要があり、高速なメタデータフィルタリングのために一部のスカラーフィールドにインデックスを作成することも選択できます。ただし、インデックスを構築するために refresh を呼び出す必要があります。

index_params = client.prepare_index_params()

# Add indexes
index_params.add_index(
field_name="vector",
index_type="AUTOINDEX",
metric_type="COSINE"
)

index_params.add_index(
field_name="main_category",
index_type="AUTOINDEX"
)

client.create_index(
db_name="my_database",
collection_name="my_collection",
index_params=index_params
)

次に、外部コレクションを更新します。externalSourceexternalSpec を省略してコレクションスキーマを再利用することも、両方を指定して新しいソースからコレクションスキーマを更新することもできます。

# refresh the external database
job_id = client.refresh_external_collection(
collection_name="my_collection"
)

次に、ループを作成して進捗監視の呼び出しをラップし、リフレッシュ操作の進捗状況を追跡できます。

progress = client.get_refresh_external_collection_progress(job_id=job_id)

ステップ 5: オンデマンドクラスターの作成

外部コレクションの準備ができたら、オンデマンド検索のためにオンデマンドクラスターにアタッチする必要があります。以下のコマンドはクラスターを作成し、その ID を返します。

export CONTROL_PLANE_ENDPOINT="https://api.cloud.zilliz.com"

curl --request POST \
--url "${CONTROL_PLANE_ENDPOINT}/v2/clusters/createOnDemandCluster" \
--header "Authorization: Bearer ${TOKEN}" \
--header "Content-Type: application/json" \
-d '{
"projectId": "proj-xxxxxxxxxxxxxxxxxxx",
"regionId": "aws-us-west-2",
"clusterName": "my-on-demand",
"cuSize": 8,
"autoSuspend": 60
}'

# inxx-xxxxxxxxxxxxx

Step 6: Conduct searches.

When you need to conduct searches, queries, or hybrid searches, you can attach to the on-demand cluster created in the previous step through a session.

session = client.session(
cluster_id="inxx-xxxxxxxxxxxxx"
)

# 1536-dimensional vector
query_vector = [0.3580376395471989, -0.6023495712049978, 0.18414012509913835, -0.26286205330961354, ..., 0.9029438446296592]
res = session.search(
db_name="my_database",
collection_name="my_collection",
anns_field="vector",
data=[query_vector],
limit=3,
output_fields=["product_id", "title", "main_category", "price", "average_rating", "rating_number"],
search_params={"metric_type": "COSINE"}
)

その後、データを探索し、最も価値の高いサブセットを見つけることができます。その後、サービングクラスタに接続し、データをインポートして、本番環境でサービングすることができます。