メインコンテンツまでスキップ
バージョン: User Guides (BYOC)

Standard Tokenizer

Zilliz Cloudのstandardトークナイザーは、スペースと句読点に基づいてテキストを分割し、ほとんどの言語に適しています。

構成

standardトークナイザーを使用したアナライザーを構成するには、analyzer_paramstokenizerstandardに設定します。

analyzer_params = {
"tokenizer": "standard",
}

standardトークナイザーは、1つまたは複数のフィルターと連携して動作できます。例えば、以下のコードはstandardトークナイザーとlowercaseフィルターを使用するアナライザーを定義しています。

analyzer_params = {
"tokenizer": "standard",
"filter": ["lowercase"]
}
📘注意

より簡単なセットアップのために、standard アナライザーを選択することもできます。これはstandardトークナイザーとlowercaseフィルターの組み合わせです。

analyzer_paramsを定義した後、コレクションスキーマを定義する際にVARCHARフィールドに適用できます。これにより、Zilliz Cloudは、指定されたアナライザーを使用してそのフィールド内のテキストを効率的にトークン化およびフィルタリング処理できます。詳細については、使用例を参照してください。

コレクションスキーマにアナライザー構成を適用する前に、run_analyzerメソッドを使用してその動作を検証してください。

アナライザー構成

analyzer_params = {
"tokenizer": "standard",
"filter": ["lowercase"]
}

run_analyzerを使用した検証

from pymilvus import (
MilvusClient,
)

client = MilvusClient(
uri="YOUR_CLUSTER_ENDPOINT",
token="YOUR_CLUSTER_TOKEN"
)

# 解析するサンプルテキスト
sample_text = "The Milvus vector database is built for scale!"

# 定義された構成でstandardアナライザーを実行
result = client.run_analyzer(sample_text, analyzer_params)
print("English analyzer output:", result)

期待される出力

['the', 'milvus', 'vector', 'database', 'is', 'built', 'for', 'scale']