データインポート (RESTful API)
このページでは、Zilliz Cloud RESTful API を使用して準備済みのデータをインポートする方法について説明します。
開始前に
以下の条件が満たされていることを確認してください。
-
クラスターの API キーを取得済みであること。詳細については、API キー を参照してください。
-
サポートされている形式のいずれかでデータを準備済みであること。
データの準備方法の詳細については、ストレージオプション および 形式オプション を参照してください。また、エンドツーエンドのノートブック データインポート Hands-On も参考にして、さらに詳しく学ぶことができます。
-
例題データセットに一致するスキーマを持つコレクションを作成済みであること。
コレクションの作成方法の詳細については、コレクションの管理 (コンソール) を参照してください。
ボリュームを介したデータインポート
ボリュームからデータをインポートするには、まず マネージドボリュームまたは外部ボリューム を作成します。マネージドボリュームの場合、データファイルをボリュームにアップロードします。外部ボリュームの場合、データファイルがマップされたクラウドストレージバケット内にあることを確認します。その後、以下の手順でデータをインポートします。
curl --request POST \
--url "https://api.cloud.zilliz.com/v2/vectordb/jobs/import/create" \
--header "Authorization: Bearer ${API_KEY}" \
--header "Content-Type: application/json" \
-d '{
"clusterId": "inxx-xxxxxxxxxxxxxxx",
"dbName": "default",
"collectionName": "medium_articles",
"partitionName": "",
"volumeName": "my_volume",
"dataPaths": [
[
"json-folder/1.json"
]
]
}'
特定のパーティションにデータをインポートするには、リクエストに partitionName を含める必要があります。
Zilliz Cloud が上記のリクエストを処理した後、ジョブ ID が返されます。このジョブ ID を使用して、次のコマンドでインポートの進捗状況を監視できます。
curl --request POST \
--url "https://api.cloud.zilliz.com/v2/vectordb/jobs/import/getProgress" \
--header "Authorization: Bearer ${API_KEY}" \
--header "Accept: application/json" \
--header "Content-Type: application/json" \
-d '{
"clusterId": "inxx-xxxxxxxxxxxxxxx",
"jobId": "job-xxxxxxxxxxxxxxxxxxxxx"
}'
外部ストレージ経由でのデータインポート
外部ストレージ経由でファイルからデータをインポートするには、まずファイルを AWS S3 や Google Cloud Storage (GCS) などのオブジェクトストレージバケットにアップロードする必要があります。アップロード後、リモートバケット内のファイルパスと、Zilliz Cloud がお客様のバケットからデータを取得するために必要なバケット認証情報を取得してください。サポートされているオブジェクトパスの詳細については、ストレージオプション を参照してください。
データセキュリティ要件に応じて、データインポート時に長期認証情報または短期認証情報のいずれかを使用できます。
認証情報の取得方法の詳細については、以下を参照してください:
-
Amazon S3: 長期認証情報を使って認証する
-
Google Cloud Storage: サービスアカウントの HMAC キーを管理する
-
Azure Blob Storage: ストレージアカウントのアクセスキーを表示する
セッショントークンの使用方法については、この FAQ を参照してください。
データインポートを成功させるには、ターゲットコレクションの実行中または保留中のインポートジョブが 10,000 件未満であることを確認してください。
オブジェクトパスおよびバケット認証情報を取得したら、次のように API を呼び出します:
# replace url and token with your own
curl --request POST \
--url "https://api.cloud.zilliz.com/v2/vectordb/jobs/import/create" \
--header "Authorization: Bearer ${API_KEY}" \
--header "Accept: application/json" \
--header "Content-Type: application/json" \
-d '{
"clusterId": "inxx-xxxxxxxxxxxxxxx",
"collectionName": "medium_articles",
"partitionName": "",
"objectUrl": "https://assets.zilliz.com/docs/example-data-import.json",
"accessKey": "",
"secretKey": ""
}'
特定のパーティションにデータをインポートするには、リクエストに partitionName を含める必要があります。
Zilliz Cloud が上記のリクエストを処理した後、ジョブ ID が返されます。このジョブ ID を使用して、次のコマンドでインポートの進捗状況を監視できます。
curl --request POST \
--url "https://api.cloud.zilliz.com/v2/vectordb/jobs/import/getProgress" \
--header "Authorization: Bearer ${API_KEY}" \
--header "Accept: application/json" \
--header "Content-Type: application/json" \
-d '{
"clusterId": "inxx-xxxxxxxxxxxxxxx",
"jobId": "job-xxxxxxxxxxxxxxxxxxxxx"
}'
詳細については、インポート および インポート進捗の取得 を参照してください。
結果の確認
コマンドの出力が以下と同様の場合、インポートジョブは正常に送信されています:
{
"code": 0,
"data": {
"jobId": "job-xxxxxxxxxxxxxxxxxxxxx"
}
}
RESTful API を呼び出して、現在のインポートジョブの進行状況を取得 したり、すべてのインポートジョブを一覧表示 したりして、さらに詳細な情報を取得することもできます。別の方法として、Zilliz Cloud コンソールの ジョブセンター にアクセスして、結果とジョブの詳細を確認することもできます。
FAQ
外部ボリュームと外部ストレージからの直接インポートの違いは何ですか?
どちらも、独自の S3 または GCS バケットからデータをインポートできます。主な違いは以下の通りです。
-
外部ボリュームでは、認証情報の管理に ストレージ統合 を使用します。認証情報は一度設定すれば、複数のボリュームや操作で再利用できます。データエンジニアはクラウドストレージキーに直接アクセスする必要がありません。
-
直接 外部ストレージインポート では、各インポートリクエストとともに認証情報(アクセスキー、シークレットキー)をインラインで提供する必要があります。これはワンタイムのインポートには簡単ですが、認証情報の分離や再利用性は提供されません。