쿼리
exists 쿼리
필드에 대해 인덱싱된 값이 포함된 문서를 반환합니다.
유사 항목 쿼리(Fuzzy query)
검색어와 유사한 Term가 포함된 문서를 반환합니다. Elasticsearch 측정값 Levenshtein 편집 거리를사용하는 유사성 또는 흐릿함.
IDS 쿼리
index ID를 기준으로 문서를 반환합니다.
접두사 쿼리(prefix query)
제공된 필드에 특정 접두어가 포함된 문서를 반환합니다.
범위 쿼리(range query)
제공된 범위 내의 term이 포함된 문서를 반환합니다.
정규 표현식 쿼리(regexp query)
정규식과 일치하는 term이 포함된 문서를 반환합니다.
term 쿼리(term query)
제공된 필드에 정확한 term이 포함된 문서를 반환합니다.
terms_set 쿼리
제공된 최소 개수의 정확한 term이 포함된 문서를 반환합니다. 밭. 필드를 사용하여 일치하는 term의 최소 수를 정의할 수 있습니다.
와일드카드 쿼리(wildcard query)
와일드카드 패턴과 일치하는 term가 포함된 문서를 반환합니다.
Word Oriented Tokenizers
Standard Tokenizer
텍스트를 단어 경계에 대한 term으로 나눕니다. Unicode Text Segmentation 알고리즘에 의해 정의됩니다. 그것은 대부분을 제거합니다 문장 부호 기호. 대부분의 언어에 가장 적합한 선택입니다.
Letter Tokenizer
텍스트를 만날 때마다 여러 term으로 나눕니다.
Lowercase Tokenizer
텍스트를 문자가 아닌 문자를 만날 때마다 term을 사용하지만 모든 term을 소문자로 표시합니다.
Whitespace Tokenizer
공백을 만나는 것을 기준으로 나눕니다.
UAX URL Email Tokenizer
URL과 이메일 주소를 단일 토큰으로 인식합니다.
Classic Tokenizer
영어에 대한 문법 기반 토크나이저입니다.
Thai Tokenizer
태국어 텍스트를 단어로 분할합니다.
Partial Word Tokenizers
N-Gram Tokenizer
토크나이저는 다음 중 하나를 만날 때 텍스트를 단어로 나눌 수 있습니다. 지정된 문자 목록(예: 공백 또는 구두점)을 반환하면 각 단어의 n-그램: 연속된 문자의 슬라이딩 창, 예: → . ngramquick[qu, ui, ic, ck]
Edge N-Gram Tokenizer
토크나이저는 다음 중 하나를 만날 때 텍스트를 단어로 나눌 수 있습니다. 지정된 문자 목록(예: 공백 또는 구두점)을 반환하면 단어의 시작 부분에 고정된 각 단어의 n-그램(예: → . edge_ngramquick[q, qu, qui, quic, quick]
Structured Text Tokenizers
Keyword Tokenizer
어떤 텍스트든 받아들이는 "noop" 토크나이저입니다 가 주어지고 단일 term과 정확히 동일한 텍스트를 출력합니다. 결합할 수 있습니다 소문자와 같은 토큰 필터를 사용하여 분석된 항을 정규화합니다.
Pattern Tokenizer
정규식을 사용하여 텍스트를 단어 구분 기호와 일치할 때마다 또는 일치하는 텍스트를 캡쳐합니다
Simple Pattern Tokenizer
정규식을 사용하여 일치를 캡처합니다 Text를 term로. 정규식 기능의 제한된 하위 집합을 사용합니다 일반적으로 토크나이저보다 빠릅니다.
Char Group Tokenizer
분할할 문자 집합을 통해 구성할 수 있습니다
Simple Pattern Split Tokenizer
주어진 패턴에 맞게 문자열을 분리하여 토큰으로 만드는 역할을 합니다. 예를 들어, 특정 문자나 패턴을 기준으로 문장이나 문서를 토큰으로 나눌 수 있습니다.
Path Tokenizer
파일 시스템과 같은 계층적 값을 사용합니다 path, 경로 구분 기호에서 분할하고 의 각 구성 요소에 대한 항을 내보냅니다.