メインコンテンツまでスキップ
バージョン: User Guides (BYOC)

Parquet ファイルからのインポート

Apache Parquet は、効率的なデータストレージと取得のために設計された、オープンソースの列指向データファイル形式です。高パフォーマンスの圧縮とエンコーディングスキームを提供し、大量の複雑なデータを管理でき、さまざまなプログラミング言語や分析ツールでサポートされています。

生データを Parquet ファイルに準備するには、BulkWriter ツール の使用を推奨します。以下の図は、生データを Parquet ファイルにどのようにマッピングできるかを示しています。

parquet_file_structure_en

📘Notes
  • AutoID を有効にするかどうか

id フィールドはコレクションのプライマリフィールドとして機能します。プライマリフィールドを自動的にインクリメントするには、スキーマで AutoID を有効にできます。この場合、ソースデータの各行から id フィールドを除外する必要があります。

  • 動的フィールドを有効にするかどうか

ターゲットコレクションで動的フィールドが有効になっている場合、事前定義されたスキーマに含まれていないフィールドを保存する必要がある場合、書き込み操作時に $meta カラムを指定し、対応するキーと値のデータを提供できます。

  • 大文字小文字の区別

辞書キーとコレクションフィールド名は大文字小文字を区別します。データ内の辞書キーがターゲットコレクションのフィールド名と完全に一致することを確認してください。ターゲットコレクションに id という名前のフィールドがある場合、各エンティティ辞書には id という名前のキーが必要です。IDId を使用するとエラーが発生します。

ディレクトリ構造

データを Parquet ファイルに準備する場合は、以下のツリー図に示すように、すべての Parquet ファイルをソースデータフォルダに直接配置してください。

├── parquet-folder
│ ├── 1.parquet
│ └── 2.parquet

データのインポート

データの準備ができたら、以下のいずれかの方法を使用して、Zilliz Cloud コレクションにインポートできます。

📘Notes

ファイルが比較的小さい場合は、フォルダまたは複数パス方式を使用して一度にすべてインポートすることをお勧めします。このアプローチでは、インポートプロセス中に内部最適化が行われ、後のリソース消費を削減するのに役立ちます。

データは Zilliz Cloud コンソール上で Milvus SDK を使用してインポートすることもできます。詳細については、データのインポート(コンソール) および データのインポート(SDK) を参照してください。

複数のパスからファイルをインポートする場合は、各 Parquet ファイルのパスを個別のリストに含め、次に以下のコード例のようにすべてのリストを上位レベルのリストにグループ化します。

curl --request POST \
--url "https://api.cloud.zilliz.com/v2/vectordb/jobs/import/create" \
--header "Authorization: Bearer ${TOKEN}" \
--header "Accept: application/json" \
--header "Content-Type: application/json" \
-d '{
"clusterId": "inxx-xxxxxxxxxxxxxxx",
"collectionName": "medium_articles",
"partitionName": "",
"objectUrls": [
["s3://bucket-name/parquet-folder-1/1.parquet"],
["s3://bucket-name/parquet-folder-2/1.parquet"],
["s3://bucket-name/parquet-folder-3/"]
],
"accessKey": "",
"secretKey": ""
}'

フォルダからファイルをインポートする

ソースフォルダにインポート対象のParquetファイルのみが含まれている場合、リクエストにソースフォルダを以下のように指定できます。

curl --request POST \
--url "https://api.cloud.zilliz.com/v2/vectordb/jobs/import/create" \
--header "Authorization: Bearer ${TOKEN}" \
--header "Accept: application/json" \
--header "Content-Type: application/json" \
-d '{
"clusterId": "inxx-xxxxxxxxxxxxxxx",
"collectionName": "medium_articles",
"partitionName": "",
"objectUrls": [
["s3://bucket-name/parquet-folder/"]
],
"accessKey": "",
"secretKey": ""
}'
📘Notes

フォルダに複数の形式のファイルが含まれている場合、リクエストは失敗します。

単一ファイルのインポート

準備したデータファイルが単一のParquetファイルである場合は、以下のコード例に示すようにインポートします。

curl --request POST \
--url "https://api.cloud.zilliz.com/v2/vectordb/jobs/import/create" \
--header "Authorization: Bearer ${TOKEN}" \
--header "Accept: application/json" \
--header "Content-Type: application/json" \
-d '{
"clusterId": "inxx-xxxxxxxxxxxxxxx",
"collectionName": "medium_articles",
"partitionName": "",
"objectUrls": [
["s3://bucket-name/parquet-folder/1.parquet"]
],
"accessKey": "",
"secretKey": ""
}'

ストレージパス

Zilliz Cloud は、クラウドストレージからのデータインポートをサポートしています。以下の表に、データファイルの可能なストレージパスを示します。

Cloud

クイック例

AWS S3

s3://bucket-name/parquet-folder/

s3://bucket-name/parquet-folder/data.parquet

Google Cloud Storage

gs://bucket-name/parquet-folder/

gs://bucket-name/parquet-folder/data.parquet

Azure Blob

https://myaccount.blob.core.windows.net/bucket-name/parquet-folder/

https://myaccount.blob.core.windows.net/bucket-name/parquet-folder/data.parquet

制限

ローカルの Parquet ファイルまたはクラウドストレージの Parquet ファイルからデータをインポートする際に、遵守すべき制限がいくつかあります。

方法

インポートあたりの最大ファイル数

最大ファイルサイズ

最大合計インポートサイズ

ローカルファイルから

1 ファイル

1 GB

1 GB

オブジェクトストレージから

1,000 ファイル

10 GB

1 TB

生データを Parquet ファイルに準備するには、BulkWriter ツール の使用を推奨します。上記のスキーマに基づいて準備されたサンプルデータはこちらからダウンロードできます