メインコンテンツまでスキップ
バージョン: User Guides (BYOC)

Jieba

jieba トークナイザーは、中国語テキストを構成単語に分割して処理します。

📘Notes

jieba トークナイザーは、句読点を個別のトークンとして出力に保持します。たとえば、"你好!世界。"["你好", "!", "世界", "。"] になります。これらの独立した句読点トークンを削除するには、removepunct フィルターを使用してください。

設定

Milvus では、jieba トークナイザーに対してシンプル設定とカスタム設定の 2 種類の設定方法がサポートされています。

シンプル設定

シンプル設定では、トークナイザーを "jieba" に設定するだけで済みます。例:

# Simple configuration: only specifying the tokenizer name
analyzer_params = {
"tokenizer": "jieba", # Use the default settings: dict=["_default_"], mode="search", hmm=True
}

このシンプルな設定は、以下のカスタム設定と同等です。

# Custom configuration equivalent to the simple configuration above
analyzer_params = {
"type": "jieba", # Tokenizer type, fixed as "jieba"
"dict": ["_default_"], # Use the default dictionary
"mode": "search", # Use search mode for improved recall (see mode details below)
"hmm": True # Enable HMM for probabilistic segmentation
}

パラメータの詳細については、カスタム設定を参照してください。

カスタム設定

より細かい制御を行うには、カスタム辞書の指定、分かち書きモードの選択、および隠れマルコフモデル(HMM)の有効化または無効化を可能にするカスタム設定を提供できます。例:

# Custom configuration with user-defined settings
analyzer_params = {
"tokenizer": {
"type": "jieba", # Fixed tokenizer type
"dict": ["customDictionary"], # Custom dictionary list; replace with your own terms
"mode": "exact", # Use exact mode (non-overlapping tokens)
"hmm": False # Disable HMM; unmatched text will be split into individual characters
}
}

パラメータ

説明

デフォルト値

type

トークナイザーのタイプ。これは固定で "jieba" です。

"jieba"

dict

アナライザーが語彙ソースとして読み込む辞書のリスト。組み込みオプション:

  • "default": エンジンに組み込まれた簡体字中国語辞書を読み込みます。詳細については、dict.txt を参照してください。

  • "extend_default": "default" のすべてに加えて、繁体字中国語の補足辞書も読み込みます。詳細については、dict.txt.big を参照してください。

    組み込み辞書と任意の数のカスタム辞書を混在させることも可能です。例: ["default", "结巴分词器"]

["default"]

mode

分かち書きモード。指定可能な値:

  • "exact": 文を最も正確な方法で分かち書きしようとし、テキスト分析に最適です。

  • "search": exact モードをベースに、長い単語をさらに細かく分割することで再現率を向上させ、検索エンジンでのトークン化に適しています。

    詳細については、Jieba GitHub Project を参照してください。

"search"

hmm

辞書に存在しない単語を確率的に分かち書きするために Hidden Markov Model (HMM) を有効にするかどうかを示すブール値フラグ。

true

analyzer_params を定義した後、コレクションスキーマを定義する際に VARCHAR フィールドに適用できます。これにより、Zilliz Cloud はそのフィールド内のテキストを指定されたアナライザーを使用して処理し、効率的なトークン化とフィルタリングを実現します。詳細については、Example use を参照してください。

Examples

コレクションスキーマにアナライザー設定を適用する前に、run_analyzer メソッドを使用してその動作を確認してください。

Analyzer configuration

analyzer_params = {
"tokenizer": {
"type": "jieba",
"dict": ["结巴分词器"],
"mode": "exact",
"hmm": False
}
}

run_analyzer を使用した検証

from pymilvus import (
MilvusClient,
)

client = MilvusClient(
uri="YOUR_CLUSTER_ENDPOINT",
token="YOUR_CLUSTER_TOKEN"
)

# Sample text to analyze
sample_text = "milvus结巴分词器中文测试"

# Run the standard analyzer with the defined configuration
result = client.run_analyzer(sample_text, analyzer_params)
print("Standard analyzer output:", result)

期待される出力

['milvus', '结巴分词器', '中', '文', '测', '试']