メインコンテンツまでスキップ
バージョン: User Guides (BYOC)

Remove Punct

removepunct フィルターは、トークンストリームから独立した句読点トークンを削除します。句読点ではなく意味のあるコンテンツ語に焦点を当てた、よりクリーンなテキスト処理を行いたい場合に使用します。

📘Notes

このフィルターは、句読点を個別のトークンとして保持する jiebalindera、および icu トークナイザーと組み合わせて使用すると最も効果的です(例: "Hello!"["Hello", "!"])。一方、standardwhitespace のような他のトークナイザーはトークン化の段階で句読点を破棄するため、それらに対して removepunct を適用しても効果はありません。

設定

removepunct フィルターは Zilliz Cloud に組み込まれています。使用するには、analyzer_params 内の filter セクションでその名前を指定するだけです。

analyzer_params = {
"tokenizer": "jieba",
"filter": ["removepunct"]
}

removepunct フィルターはトークナイザーによって生成された語彙項に対して動作するため、トークナイザーと組み合わせて使用する必要があります。

analyzer_params を定義した後、コレクションスキーマを定義する際にそれを VARCHAR フィールドに適用できます。これにより、Zilliz Cloud はそのフィールド内のテキストを指定されたアナライザーを使用して処理し、効率的なトークン化とフィルタリングを実現します。詳細については、使用例を参照してください。

コレクションスキーマにアナライザー設定を適用する前に、run_analyzer メソッドを使用してその動作を検証してください。

アナライザー設定

analyzer_params = {
"tokenizer": "icu",
"filter": ["removepunct"]
}

run_analyzer を使用した検証

from pymilvus import (
MilvusClient,
)

client = MilvusClient(uri="YOUR_CLUSTER_ENDPOINT")

# Sample text to analyze
sample_text = "Привет! Как дела?"

# Run the standard analyzer with the defined configuration
result = client.run_analyzer(sample_text, analyzer_params)
print("Standard analyzer output:", result)

期待される出力

['Привет', 'Как', 'дела']