Analyzer 概要
テキスト処理において、アナライザーは生のテキストを構造化された検索可能な形式に変換する重要なコンポーネントです。各アナライザーは通常、2つのコア要素:トークナイザーとフィルターで構成されています。これらは一緒に動作して入力テキストをトークンに変換し、これらのトークンを洗練させ、効率的なインデックス作成と検索の準備を行います。
Zilliz Cloudでは、アナライザーはコレクション作成時にコレクションスキーマにVARCHARフィールドを追加する際に設定されます。アナライザーによって生成されたトークンは、キーワードマッチングのためのインデックス構築に使用されるか、全文検索用にスパース埋め込みに変換されます。詳細については、全文検索またはテキストマッチを参照してください。
アナライザーの使用はパフォーマンスに影響を与える可能性があります:
全文検索:全文検索では、DataNodeおよびQueryNodeチャネルは、トークン化が完了するのを待つ必要があるため、データをよりゆっくりと消費します。その結果、新しくインジェストされたデータが検索可能になるまでに時間がかかります。
キーワードマッチ:キーワードマッチでは、インデックス作成はトークン化が完了してからインデックスを作成できるため、より遅くなります。
アナライザーの構造
Zilliz Cloudのアナライザーは、正確に1つのトークナイザーと0個以上のフィルターで構成されます。
-
トークナイザー:トークナイザーは入力テキストをトークンと呼ばれる離散的な単位に分割します。これらのトークンは、トークナイザーの種類に応じて単語または語句になります。
-
フィルター:フィルターは、トークナイザーによって生成されたトークンに適用され、小文字にする、一般的な単語を削除するなど、トークンをさらに洗練させることができます。
トークナイザーはUTF-8形式のみをサポートします。他の形式のサポートは今後のリリースで追加される予定です。
以下のワークフローは、アナライザーがテキストを処理する方法を示しています。

アナライザーの種類
Zilliz Cloudは、異なるテキスト処理のニーズに合わせて2種類のアナライザーを提供しています:
-
組み込みアナライザー:これらは一般的なテキスト処理タスクをカバーするための事前定義された構成で、最小限のセットアップで使用できます。組み込みアナライザーは、複雑な構成を必要としない汎用目的の検索に最適です。
-
カスタムアナライザー:より高度な要件のために、カスタムアナライザーでは、トークナイザーと0個以上のフィルターを指定して独自の構成を定義できます。このレベルのカスタマイズは、テキスト処理に対する正確な制御が必要な特殊なユースケースに特に有効です。
コレクション作成時にアナライザー構成を省略した場合、Zilliz Cloudはデフォルトですべてのテキスト処理に
standardアナライザーを使用します。詳細については、Standardを参照してください。最適な検索およびクエリパフォーマンスを得るためには、テキストデータの言語に一致するアナライザーを選択することを推奨します。例えば、
standardアナライザーは多目的に使用できますが、中国語、日本語、韓国語のような独特な文法構造を持つ言語には最適ではない場合があります。このような場合、chineseのような言語固有のアナライザーまたは専門のトークナイザー(lindera、icuなど)とフィルターを組み込んだカスタムアナライザーを使用することが、正確なトークン化とより良い検索結果を保証するために強く推奨されます。
組み込みアナライザー
Zilliz Cloudクラスターの組み込みアナライザーは、特定のトークナイザーとフィルターで事前構成されており、これらのコンポーネントを自分で定義することなくすぐに使用できます。各組み込みアナライザーは、事前設定されたトークナイザーとフィルターを含むテンプレートとして機能し、カスタマイズのためのオプションパラメータがあります。
たとえば、standard組み込みアナライザーを使用するには、単にその名前standardをtypeとして指定し、必要に応じてこのアナライザー固有の追加構成(たとえばstop_words)を含めます:
- Python
- Java
- NodeJS
- Go
- cURL
analyzer_params = {
"type": "standard", # 標準組み込みアナライザーを使用
"stop_words": ["a", "an", "for"] # トークン化から除外する一般的な単語(ストップワード)のリストを定義
}
Map<String, Object> analyzerParams = new HashMap<>();
analyzerParams.put("type", "standard");
analyzerParams.put("stop_words", Arrays.asList("a", "an", "for"));
const analyzer_params = {
"type": "standard", // 標準組み込みアナライザーを使用
"stop_words": ["a", "an", "for"] // トークン化から除外する一般的な単語(ストップワード)のリストを定義
};
analyzerParams := map[string]any{"type": "standard", "stop_words": []string{"a", "an", "for"}}
export analyzerParams='{
"type": "standard",
"stop_words": ["a", "an", "for"]
}'
アナライザーの実行結果を確認するには、run_analyzerメソッドを使用します:
- Python
- Java
- NodeJS
- Go
- cURL
# 解析するサンプルテキスト
text = "An efficient system relies on a robust analyzer to correctly process text for various applications."
# アナライザーを実行
result = client.run_analyzer(
text,
analyzer_params
)
import io.milvus.v2.service.vector.request.RunAnalyzerReq;
import io.milvus.v2.service.vector.response.RunAnalyzerResp;
List<String> texts = new ArrayList<>();
texts.add("An efficient system relies on a robust analyzer to correctly process text for various applications.");
RunAnalyzerResp resp = client.runAnalyzer(RunAnalyzerReq.builder()
.texts(texts)
.analyzerParams(analyzerParams)
.build());
List<RunAnalyzerResp.AnalyzerResult> results = resp.getResults();
// javascript 解析するサンプルテキスト
const text = "An efficient system relies on a robust analyzer to correctly process text for various applications."
// アナライザーを実行
const result = await client.run_analyzer({
text,
analyzer_params
});
import (
"context"
"encoding/json"
"fmt"
"github.com/milvus-io/milvus/client/v2/milvusclient"
)
bs, _ := json.Marshal(analyzerParams)
texts := []string{"An efficient system relies on a robust analyzer to correctly process text for various applications."}
option := milvusclient.NewRunAnalyzerOption(texts).
WithAnalyzerParams(string(bs))
result, err := client.RunAnalyzer(ctx, option)
if err != nil {
fmt.Println(err.Error())
// handle error
}
# restful
export MILVUS_HOST="YOUR_CLUSTER_ENDPOINT"
export TEXT_TO_ANALYZE="An efficient system relies on a robust analyzer to correctly process text for various applications."
curl -X POST "http://${MILVUS_HOST}/v2/vectordb/common/run_analyzer" \
-H "Content-Type: application/json" \
-d '{
"text": ["'"${TEXT_TO_ANALYZE}"'"],
"analyzerParams": "{\"type\":\"standard\",\"stop_words\":[\"a\",\"an\",\"for\"]}"
}'
出力は以下のようになります:
['efficient', 'system', 'relies', 'on', 'robust', 'analyzer', 'to', 'correctly', 'process', 'text', 'various', 'applications']
これは、アナライザーが入力テキストを適切にトークン化し、ストップワード"a"、"an"、"for"を除外し、残りの意味のあるトークンを返していることを示しています。
上記のstandard組み込みアナライザーの構成は、以下のように明示的にパラメータを定義して同様の機能を実現するカスタムアナライザーを設定することと同等です:
- Python
- Java
- NodeJS
- Go
- cURL
analyzer_params = {
"tokenizer": "standard",
"filter": [
"lowercase",
{
"type": "stop",
"stop_words": ["a", "an", "for"]
}
]
}
Map<String, Object> analyzerParams = new HashMap<>();
analyzerParams.put("tokenizer", "standard");
analyzerParams.put("filter",
Arrays.asList("lowercase",
new HashMap<String, Object>() {{
put("type", "stop");
put("stop_words", Arrays.asList("a", "an", "for"));
}}));
const analyzer_params = {
"tokenizer": "standard",
"filter": [
"lowercase",
{
"type": "stop",
"stop_words": ["a", "an", "for"]
}
]
};
analyzerParams = map[string]any{"tokenizer": "standard",
"filter": []any{"lowercase", map[string]any{
"type": "stop",
"stop_words": []string{"a", "an", "for"},
}}}
export analyzerParams='{
"type": "standard",
"filter": [
"lowercase",
{
"type": "stop",
"stop_words": ["a", "an", "for"]
}
]
}'
Zilliz Cloudは、以下のような特定のテキスト処理ニーズに合わせて設計された組み込みアナライザーを提供しています:
-
standard:汎用的なテキスト処理に適し、標準的なトークン化と小文字フィルタリングを適用します。 -
english:英語テキストに最適化され、英語のストップワードをサポートしています。 -
chinese:中国語テキスト処理に特化し、中国語言語構造に適したトークン化を含みます。
カスタムアナライザー
より高度なテキスト処理のために、Zilliz Cloudのカスタムアナライザーでは、トークナイザーとフィルターを指定して、カスタムのテキスト処理パイプラインを構築できます。このセットアップは、正確な制御が必要な特殊なユースケースに最適です。
トークナイザー
トークナイザーはカスタムアナライザーの必須コンポーネントであり、アナライザーのパイプラインを開始し、入力テキストを離散的な単位またはトークンに分解します。トークン化は、スペースや句読点で分割するなど、トークナイザーの種類に応じた特定のルールに従います。このプロセスにより、各単語や語句をより正確に独立して処理できるようになります。
たとえば、トークナイザーはテキスト「Vector Database Built for Scale」を個別のトークンに変換します:
["Vector", "Database", "Built", "for", "Scale"]
トークナイザーの指定例:
- Python
- Java
- NodeJS
- Go
- cURL
analyzer_params = {
"tokenizer": "whitespace",
}
Map<String, Object> analyzerParams = new HashMap<>();
analyzerParams.put("tokenizer", "whitespace");
const analyzer_params = {
"tokenizer": "whitespace",
};
analyzerParams = map[string]any{"tokenizer": "whitespace"}
export analyzerParams='{
"type": "whitespace"
}'
フィルター
フィルターはオプションのコンポーネントで、トークナイザーによって生成されたトークンに処理し、必要に応じて変換または洗練させます。たとえば、lowercaseフィルターをトークン化された語句["Vector", "Database", "Built", "for", "Scale"]に適用した場合、結果は以下のようになります:
["vector", "database", "built", "for", "scale"]
カスタムアナライザーのフィルターは、構成の必要に応じて組み込みまたはカスタムです。
-
組み込みフィルター:Zilliz Cloudによって事前構成され、最小限のセットアップで済みます。これらのフィルターは名前を指定するだけで即座に使用できます。以下は直接使用できる組み込みフィルターです:
-
lowercase:テキストを小文字に変換し、大文字小文字を区別しないマッチングを保証します。詳細については、Lowercaseを参照してください。 -
asciifolding:非ASCII文字をASCII相当に変換し、多言語テキスト処理を簡素化します。詳細については、ASCII foldingを参照してください。 -
alphanumonly:他の文字を削除して英数字のみを保持します。詳細については、Alphanumonlyを参照してください。 -
cnalphanumonly:中国語、英語、数字以外の文字を含むトークンを削除します。詳細については、Cnalphanumonlyを参照してください。 -
cncharonly:中国語以外の文字を含むトークンを削除します。詳細については、Cncharonlyを参照してください。
組み込みフィルターの使用例:
- Python
- Java
- NodeJS
- Go
- cURL
analyzer_params = {
"tokenizer": "standard", # 必須:トークナイザーを指定
"filter": ["lowercase"], # オプション:テキストを小文字に変換する組み込みフィルター
}Map<String, Object> analyzerParams = new HashMap<>();
analyzerParams.put("tokenizer", "standard");
analyzerParams.put("filter", Collections.singletonList("lowercase"));const analyzer_params = {
"tokenizer": "standard", // 必須:トークナイザーを指定
"filter": ["lowercase"], // オプション:テキストを小文字に変換する組み込みフィルター
}analyzerParams = map[string]any{"tokenizer": "standard",
"filter": []any{"lowercase"}}export analyzerParams='{
"type": "standard",
"filter": ["lowercase"]
}' -
-
カスタムフィルター:カスタムフィルターでは、特殊な構成が可能です。有効なフィルタータイプ(
filter.type)を選択し、各フィルタータイプに固有の設定を追加することで、カスタムフィルターを定義できます。カスタマイズをサポートするフィルタータイプの例:-
stop:ストップワードのリストを設定することで指定された一般的な単語を削除します(例:"stop_words": ["of", "to"])。詳細については、Stopを参照してください。 -
length:長さの基準に応じてトークンを除外し、最大トークン長を設定できます。詳細については、Lengthを参照してください。 -
stemmer:単語を語幹に縮小し、より柔軟なマッチングを可能にします。詳細については、Stemmerを参照してください。
カスタムフィルターの構成例:
- Python
- Java
- NodeJS
- Go
- cURL
analyzer_params = {
"tokenizer": "standard", # 必須:トークナイザーを指定
"filter": [
{
"type": "stop", # フィルターの種類として'stop'を指定
"stop_words": ["of", "to"], # このフィルタータイプのストップワードをカスタマイズ
}
]
}Map<String, Object> analyzerParams = new HashMap<>();
analyzerParams.put("tokenizer", "standard");
analyzerParams.put("filter",
Collections.singletonList(new HashMap<String, Object>() {{
put("type", "stop");
put("stop_words", Arrays.asList("a", "an", "for"));
}}));const analyzer_params = {
"tokenizer": "standard", // 必須:トークナイザーを指定
"filter": [
{
"type": "stop", // フィルターの種類として'stop'を指定
"stop_words": ["of", "to"], // このフィルタータイプのストップワードをカスタマイズ
}
]
};analyzerParams = map[string]any{"tokenizer": "standard",
"filter": []any{map[string]any{
"type": "stop",
"stop_words": []string{"of", "to"},
}}}export analyzerParams='{
"type": "standard",
"filter": [
{
"type": "stop",
"stop_words": ["a", "an", "for"]
}
]
}' -
使用例
この例では、以下の要素を含むコレクションスキーマを作成します:
-
埋め込み用のベクトルフィールド。
-
テキスト処理用の2つの
VARCHARフィールド:-
一方のフィールドは組み込みアナライザーを使用します。
-
もう一方はカスタムアナライザーを使用します。
-
これらの構成をコレクションに組み込む前に、run_analyzerメソッドを使用して各アナライザーを検証します。
ステップ1:MilvusClientの初期化とスキーマ作成
Milvusクライアントのセットアップと新しいスキーマの作成から始めます。
- Python
- Java
- NodeJS
- Go
- cURL
from pymilvus import MilvusClient, DataType
# Milvusクライアントをセットアップ
client = MilvusClient(
uri="YOUR_CLUSTER_ENDPOINT",
token="YOUR_CLUSTER_TOKEN"
)
# 新しいスキーマを作成
schema = client.create_schema(auto_id=True, enable_dynamic_field=False)
import io.milvus.v2.client.ConnectConfig;
import io.milvus.v2.client.MilvusClientV2;
import io.milvus.v2.common.DataType;
import io.milvus.v2.common.IndexParam;
import io.milvus.v2.service.collection.request.AddFieldReq;
import io.milvus.v2.service.collection.request.CreateCollectionReq;
# Milvusクライアントをセットアップ
ConnectConfig config = ConnectConfig.builder()
.uri("YOUR_CLUSTER_ENDPOINT")
.token("YOUR_CLUSTER_TOKEN")
.build();
MilvusClientV2 client = new MilvusClientV2(config);
# スキーマを作成
CreateCollectionReq.CollectionSchema schema = CreateCollectionReq.CollectionSchema.builder()
.enableDynamicField(false)
.build();
import { MilvusClient, DataType } from "@zilliz/milvus2-sdk-node";
# Milvusクライアントをセットアップ
const client = new MilvusClient({
address: "YOUR_CLUSTER_ENDPOINT",
token: "YOUR_CLUSTER_TOKEN"
);
import (
"context"
"fmt"
"github.com/milvus-io/milvus/client/v2/column"
"github.com/milvus-io/milvus/client/v2/entity"
"github.com/milvus-io/milvus/client/v2/index"
"github.com/milvus-io/milvus/client/v2/milvusclient"
)
ctx, cancel := context.WithCancel(context.Background())
defer cancel()
cli, err := milvusclient.New(ctx, &milvusclient.ClientConfig{
Address: "YOUR_CLUSTER_ENDPOINT",
token: "YOUR_CLUSTER_TOKEN"
})
if err != nil {
fmt.Println(err.Error())
# handle err
}
defer client.Close(ctx)
schema := entity.NewSchema().WithAutoID(true).WithDynamicFieldEnabled(false)
# restful
export MILVUS_HOST="YOUR_CLUSTER_ENDPOINT"
export MILVUS_TOKEN="YOUR_CLUSTER_TOKEN"
curl -X POST "http://${MILVUS_HOST}/v2/vectordb/collections/create" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer ${MILVUS_TOKEN}" \
-d '{
"collectionName": "my_collection",
"dimension": 768,
"schema": {
"autoId": true,
"enableDynamicField": false
}
}'
ステップ2:アナライザー構成の定義と検証
-
組み込みアナライザー(
english)の構成と検証:-
構成:組み込み英語アナライザーのアナライザーのパラメータを定義します。
-
検証:
run_analyzerを使用して、構成が期待されるトークン化を生成していることを確認します。
- Python
- Java
- NodeJS
- Go
- cURL
# 英語テキスト処理用の組み込みアナライザー構成
analyzer_params_built_in = {
"type": "english"
}
# 組み込みアナライザー構成の検証
sample_text = "Milvus simplifies text analysis for search."
result = client.run_analyzer(sample_text, analyzer_params_built_in)
print("Built-in analyzer output:", result)
# 期待される出力:
# Built-in analyzer output: ['milvus', 'simplifi', 'text', 'analysi', 'search']Map<String, Object> analyzerParamsBuiltin = new HashMap<>();
analyzerParamsBuiltin.put("type", "english");
List<String> texts = new ArrayList<>();
texts.add("Milvus simplifies text analysis for search.");
RunAnalyzerResp resp = client.runAnalyzer(RunAnalyzerReq.builder()
.texts(texts)
.analyzerParams(analyzerParams)
.build());
List<RunAnalyzerResp.AnalyzerResult> results = resp.getResults();# VARCHARフィールド`title_en`用に組み込みアナライザーを使用
const analyzerParamsBuiltIn = {
type: "english",
};
const sample_text = "Milvus simplifies text analysis for search.";
const result = await client.run_analyzer({
text: sample_text,
analyzer_params: analyzer_params_built_in
});analyzerParams := map[string]any{"type": "english"}
bs, _ := json.Marshal(analyzerParams)
texts := []string{"Milvus simplifies text analysis for search."}
option := milvusclient.NewRunAnalyzerOption(texts).
WithAnalyzerParams(string(bs))
result, err := client.RunAnalyzer(ctx, option)
if err != nil {
fmt.Println(err.Error())
# handle error
}# restful
export MILVUS_HOST="YOUR_CLUSTER_ENDPOINT"
export SAMPLE_TEXT="Milvus simplifies text analysis for search."
curl -X POST "http://${MILVUS_HOST}/v2/vectordb/common/run_analyzer" \
-H "Content-Type: application/json" \
-d '{
"text": ["'"${SAMPLE_TEXT}"'"],
"analyzerParams": "{\"type\":\"english\"}"
}' -
-
カスタムアナライザーの構成と検証:
-
構成:標準トークナイザーとカスタムフィルター(トークン長とストップワード)を使用するカスタムアナライザーを定義します。
-
検証:
run_analyzerを使用して、カスタム構成が意図したとおりにテキストを処理することを確認します。
- Python
- Java
- NodeJS
- Go
- cURL
# 標準トークナイザーとカスタムフィルターを含むカスタムアナライザー構成
analyzer_params_custom = {
"tokenizer": "standard",
"filter": [
"lowercase", # 組み込みフィルター:トークンを小文字に変換
{
"type": "length", # カスタムフィルター:トークン長を制限
"max": 40
},
{
"type": "stop", # カスタムフィルター:指定されたストップワードを削除
"stop_words": ["of", "for"]
}
]
}
# カスタムアナライザー構成の検証
sample_text = "Milvus provides flexible, customizable analyzers for robust text processing."
result = client.run_analyzer(sample_text, analyzer_params_custom)
print("Custom analyzer output:", result)
# 期待される出力:
# Custom analyzer output: ['milvus', 'provides', 'flexible', 'customizable', 'analyzers', 'robust', 'text', 'processing']# カスタムアナライザーを構成
Map<String, Object> analyzerParams = new HashMap<>();
analyzerParams.put("tokenizer", "standard");
analyzerParams.put("filter",
Arrays.asList("lowercase",
new HashMap<String, Object>() {{
put("type", "length");
put("max", 40);
}},
new HashMap<String, Object>() {{
put("type", "stop");
put("stop_words", Arrays.asList("of", "for"));
}}
)
);
List<String> texts = new ArrayList<>();
texts.add("Milvus provides flexible, customizable analyzers for robust text processing.");
RunAnalyzerResp resp = client.runAnalyzer(RunAnalyzerReq.builder()
.texts(texts)
.analyzerParams(analyzerParams)
.build());
List<RunAnalyzerResp.AnalyzerResult> results = resp.getResults();# VARCHARフィールド`title`用にカスタムアナライザーを構成
const analyzerParamsCustom = {
tokenizer: "standard",
filter: [
"lowercase",
{
type: "length",
max: 40,
},
{
type: "stop",
stop_words: ["of", "to"],
},
],
};
const sample_text = "Milvus provides flexible, customizable analyzers for robust text processing.";
const result = await client.run_analyzer({
text: sample_text,
analyzer_params: analyzer_params_built_in
});analyzerParams = map[string]any{"tokenizer": "standard",
"filter": []any{"lowercase",
map[string]any{
"type": "length",
"max": 40,
map[string]any{
"type": "stop",
"stop_words": []string{"of", "to"},
}}}
bs, _ := json.Marshal(analyzerParams)
texts := []string{"Milvus provides flexible, customizable analyzers for robust text processing."}
option := milvusclient.NewRunAnalyzerOption(texts).
WithAnalyzerParams(string(bs))
result, err := client.RunAnalyzer(ctx, option)
if err != nil {
fmt.Println(err.Error())
# handle error
}# curl
export MILVUS_HOST="YOUR_CLUSTER_ENDPOINT"
export SAMPLE_TEXT="Milvus provides flexible, customizable analyzers for robust text processing."
# カスタムアナライザー構成を使用
curl -X POST "http://${MILVUS_HOST}/v2/vectordb/common/run_analyzer" \
-H "Content-Type: application/json" \
-d '{
"text": ["'"${SAMPLE_TEXT}"'"],
"analyzerParams": "{\"tokenizer\":\"standard\",\"filter\":[\"lowercase\",{\"type\":\"length\",\"max\":40},{\"type\":\"stop\",\"stop_words\":[\"of\",\"for\"]}]}"
}' -
ステップ3:アナライザーをスキーマフィールドに追加
アナライザー構成を検証したので、スキーマフィールドにそれらを追加します:
- Python
- Java
- NodeJS
- Go
- cURL
# 組み込みアナライザー構成を使用するVARCHARフィールド'title_en'を追加
schema.add_field(
field_name='title_en',
datatype=DataType.VARCHAR,
max_length=1000,
enable_analyzer=True,
analyzer_params=analyzer_params_built_in,
enable_match=True,
)
# カスタムアナライザー構成を使用するVARCHARフィールド'title'を追加
schema.add_field(
field_name='title',
datatype=DataType.VARCHAR,
max_length=1000,
enable_analyzer=True,
analyzer_params=analyzer_params_custom,
enable_match=True,
)
# 埋め込み用のベクトルフィールドを追加
schema.add_field(field_name="embedding", datatype=DataType.FLOAT_VECTOR, dim=3)
# 主キー用のフィールドを追加
schema.add_field(field_name="id", datatype=DataType.INT64, is_primary=True)
schema.addField(AddFieldReq.builder()
.fieldName("title")
.dataType(DataType.VarChar)
.maxLength(1000)
.enableAnalyzer(true)
.analyzerParams(analyzerParams)
.enableMatch(true) # TextMatchを使用する場合はこれを有効にする必要があります
.build());
// ベクトルフィールドを追加
schema.addField(AddFieldReq.builder()
.fieldName("embedding")
.dataType(DataType.FloatVector)
.dimension(3)
.build());
// 主フィールドを追加
schema.addField(AddFieldReq.builder()
.fieldName("id")
.dataType(DataType.Int64)
.isPrimaryKey(true)
.autoID(true)
.build());
// スキーマを作成
const schema = {
auto_id: true,
fields: [
{
name: "id",
type: DataType.INT64,
is_primary: true,
},
{
name: "title_en",
data_type: DataType.VARCHAR,
max_length: 1000,
enable_analyzer: true,
analyzer_params: analyzerParamsBuiltIn,
enable_match: true,
},
{
name: "title",
data_type: DataType.VARCHAR,
max_length: 1000,
enable_analyzer: true,
analyzer_params: analyzerParamsCustom,
enable_match: true,
},
{
name: "embedding",
data_type: DataType.FLOAT_VECTOR,
dim: 4,
},
],
};
schema.WithField(entity.NewField().
WithName("id").
WithDataType(entity.FieldTypeInt64).
WithIsPrimaryKey(true).
WithIsAutoID(true),
).WithField(entity.NewField().
WithName("embedding").
WithDataType(entity.FieldTypeFloatVector).
WithDim(3),
).WithField(entity.NewField().
WithName("title").
WithDataType(entity.FieldTypeVarChar).
WithMaxLength(1000).
WithEnableAnalyzer(true).
WithAnalyzerParams(analyzerParams).
WithEnableMatch(true),
)
# restful
export SCHEMA_CONFIG='{
"autoId": false,
"enableDynamicField": false,
"fields": [
{
"fieldName": "id",
"dataType": "Int64",
"isPrimary": true
},
{
"fieldName": "title_en",
"dataType": "VarChar",
"elementTypeParams": {
"max_length": "1000",
"enable_analyzer": true,
"analyzer_params": "{\"type\":\"english\"}",
"enable_match": true
}
},
{
"fieldName": "title",
"dataType": "VarChar",
"elementTypeParams": {
"max_length": "1000",
"enable_analyzer": true,
"analyzer_params": "{\"tokenizer\":\"standard\",\"filter\":[\"lowercase\",{\"type\":\"length\",\"max\":40},{\"type\":\"stop\",\"stop_words\":[\"of\",\"for\"]}]}",
"enable_match": true
}
},
{
"fieldName": "embedding",
"dataType": "FloatVector",
"elementTypeParams": {
"dim": "3"
}
}
]
}'
ステップ4:インデックスパラメータを準備し、コレクションを作成
- Python
- Java
- NodeJS
- Go
- cURL
# ベクトルフィールドのインデックスパラメータをセットアップ
index_params = client.prepare_index_params()
index_params.add_index(field_name="embedding", metric_type="COSINE", index_type="AUTOINDEX")
# 定義されたスキーマとインデックスパラメータでコレクションを作成
client.create_collection(
collection_name="my_collection",
schema=schema,
index_params=index_params
)
// ベクトルフィールドのインデックスパラメータをセットアップ
List<IndexParam> indexes = new ArrayList<>();
indexes.add(IndexParam.builder()
.fieldName("embedding")
.indexType(IndexParam.IndexType.AUTOINDEX)
.metricType(IndexParam.MetricType.COSINE)
.build());
// 定義されたスキーマでコレクションを作成
CreateCollectionReq requestCreate = CreateCollectionReq.builder()
.collectionName("my_collection")
.collectionSchema(schema)
.indexParams(indexes)
.build();
client.createCollection(requestCreate);
// ベクトルフィールドのインデックスパラメータをセットアップ
const indexParams = [
{
name: "embedding",
metric_type: "COSINE",
index_type: "AUTOINDEX",
},
];
// 定義されたスキーマでコレクションを作成
await client.createCollection({
collection_name: "my_collection",
schema: schema,
index_params: indexParams,
});
console.log("Collection created successfully!");
idx := index.NewAutoIndex(index.MetricType(entity.COSINE))
indexOption := milvusclient.NewCreateIndexOption("my_collection", "embedding", idx)
err = client.CreateCollection(ctx,
milvusclient.NewCreateCollectionOption("my_collection", schema).
WithIndexOptions(indexOption))
if err != nil {
fmt.Println(err.Error())
# handle error
}
export INDEX_PARAMS='[{"fieldName": "embedding", "metricType": "COSINE", "indexType": "AUTOINDEX"}]'
# restful
curl -X POST "YOUR_CLUSTER_ENDPOINT/v2/vectordb/collections/create" \
-H "Content-Type: application/json" \
-d "{
\"collectionName\": \"my_collection\",
\"schema\": ${SCHEMA_CONFIG},
\"indexParams\": ${INDEX_PARAMS}
}"
Zilliz Cloudコンソールでの使用例
Zilliz Cloudコンソールを使用して上記操作を行うこともできます。詳細については、以下のデモをご覧ください。
次のステップ
アナライザーを構成する際には、使用例に最も適した構成を決定するために、以下のベストプラクティス記事を読むことを推奨します:
アナライザーを構成した後、Zilliz Cloudが提供するテキスト検索機能と統合できます。詳細は: