티스토리 뷰

ElasticSearch

엘라스틱서치 살펴보기

엔꾸꾸 2020. 6. 20. 14:47

서론

 

엘라스틱서치에서 사용하는 기본용어들을 살펴보기, 제공하는 주요 API들을 살펴본다.

 

 

엘라스틱서치를 구성하는 개념

 

엘라스틱서치의 데이터는 인덱스, 타입, 문서, 필드 구조로 되어 있다.

 

ES 데이터 구조

 

인덱스

 

인덱스 (Index) 는 데이터 저장공간이다.

하나의 타입만을 가지며, 하나의 물리적인 노드에 여러 개의 논리적인 인덱스 생성이 가능하다.

인덱스는 생성시 기본적으로 5개의 프라이머리 샤드와 1개의 레플리카 세트를 생성한다.

인덱스는 데이터 검색시에 활용되며, 이름은 모두 소문자 여야 한다. RESTful API 를 제공하기 때문에, 이를 통한 데이터 조작이 가능하며 인덱스가 없는 상태에서 데이터가 추가될 경우 자동적으로 인덱스를 생성한다.

 

 

샤딩 (Sharding)

 

데이터를 분산해서 저장하는 방법이다.

ElasticSearch에서 스케일 아웃을 위해 인덱스를 여러 샤드로 쪼갠것

작업을 여러 샤드에 분산 배치하고 병렬화 함으로써 성능 및 처리량을 늘릴 수 있다.

 

복제 (Replica)

 

또 다른 형태의 샤드 라고 할 수 있다.

노드를 손실했을 때 데이터의 신뢰성을 위해 샤드들을 복제 하는것이다.

레플리카는 서로 다른 노드에 존재할 것을 권장한다.

 

레플리카는 노드의 데이터가 손실 되었을 때 복구하기 위해서 사용한다.
하지만 복제본을 같은 노드에 위치 시킬경우, 해당 노드가 죽었을때 다른 노드에서 데이터를 알 수 없기 때문에 의미가 없다.

 

 

샤드

 

인덱스 내부에 색인된 데이터는 물리적인 공간에 여러 개의 파티션을 나뉘어 구성된다.

이 파티션을 샤드 (Shard) 라고 한다.

샤드로 문서를 분산 저장하고 있어, 데이터 손실의 위험을 최소화 할 수 있다.

 

 

타입

 

타입 (Type) 은 인덱스의 논리적인 구조를 의미한다.

6.0 이하 버전에서는 하나의 인덱스에 여러 타입 설정이 가능했으나, 6.1 버전 부터는 불가능하다.

6.0 버전 이하에서는 타입을 특정 카테고리 분류 목적으로 사용했지만, 현재는 타입 사용을 권장하지 않는다.

카테고리 분류가 필요하다면, 카테고리 별로 인덱스를 생성해서 사용해야 한다.

 

멀티타입 기능을 지원하지 않는 이유 ?

 

기존에 제공하던 멀티타입 기능을 지원하지 않으려는 이유는 무엇일까 ?

아주 편리한 기능인데 말이다..

그 이유는 같은 유형이면서 서로 다른 매핑 타입에 존재하는 field는 내부적으로 같은 루씬 필드를 사용한다.

만약에 a 유형의 user 타입의 user_name 필드는, a 유형인 team타입의 user_name 필드와 정확히 동일한 필드에 저장된다.

같은 유형 내에서 타입이 다르더라도 필드명이 동일하다면, 모두 동일한 매핑 (정의) 를 가져야하는 문제가 있다.

 

필드를 지우거나, 문서 압축을 하는 등 과정에서 문제가 발생할 수 있기 때문에 이를 제거하기로 하였고, 7버전 부터는 완전히 제거한다

 

 

문서

 

문서 (Document) 는 데이터가 저장되는 최소 단위 이다.

또한 색인화가 가능한 기본 단위 이기도 하다.

기본적으로 JSON 포맷을 지원하며, 다수의 필드로 구성되어 있다.

중첩 구조를 지원하기 때문에 문서 안에 문서를 지정하는 것도 가능하다.

 

 

필드

 

필드 (Field) 는 문서를 구성하기 위한 속성이다.

관계형 데이터베이스의 컬럼 (Column) 과 대비되는데, 필드는 좀 더 동적인 데이터 타입이다.

하나의 필드는 다수의 데이터 타입을 가질 수 있다.

 

예를 들어 제목을 검색할 때 매칭 검색과 초성 검색이 모두 지원되도록 2개의 데이터 타입을 지정할 수 있다.

 

 

매핑

 

매핑 (Mapping) 은 문서의 필드 및 필드의 속성을 정의하고, 색인 방법을 정의하는 프로세스이다.

매핑 정보에 필드명을 중복해서 사용할 수 없다.

 

 

지금 까지의 내용을 정리하면, 여러 개의 도큐먼트는 하나의 타입을 이루고, 여러개의 타입은 하나의 인덱스로 구성된다.

 

 

엘라스틱서치 데이터 구조

 

엘라스틱서치 데이터 구조 다이어그램

엘라스틱서치는 문서 (Document) 를 인덱스로 만든뒤, 샤드로 분하여 관리한다.

각각의 샤드는 루씬 인덱스 이기도 하다.

루씬은 새로운 데이터를 저장할때 세그먼트 (Segment) 를 생성하는데, 이 세그먼트들을 조합해 데이터 검색을 할 수 있다.

 

색인 작업이 일어날때 마다 세그먼트 개수가 점점 늘어나, 읽기 성능이 저하될 수 있기 때문에 루씬은 백그라운드에서 주기적으로 세그먼트 파일을 병합하는 작업을 수행한다.

 

일정 시간이 지나고 추가적인 색인 작업이 없는 상태라면, 최종적으로 하나의 세그먼트만 남게 된다.

 

색인 (indexing) 처리량이 중요할 때는 세그먼트를 더 생성하기도 하지만, 루씬은 순차적으로 세그먼트를 검색하기 때문에 세그먼트 수가 많아질수록 검색속도도 느려진다.

 

 

세그먼트 (Segment)

 

엘라스틱서치에 새로운 데이터를 저장하면, 새로 검색가능한 세그먼트를 만들기 위해, 새로운 세그먼트를 디스크에 기록하여 Refresh 한다.

이를 searchable segment 라고 한다.

 

엘라스틱서치는 세그먼트를 fsync 하는 flush를 주기적으로 진행하고 불필요한 트랜잭션 로그를 제거한다.

이를 commited segment 라고 한다.

 

세그먼트는 불변성을 유지하며, 수정이 일어났을때 삭제된 데이터 표시를 하고 새로운 데이터를 가리킨다.

오래된 삭제 데이터를 지우는 것을 merge process 라고 한다.

 

 

노드

 

노드는 클러스터에 포함된 단일 서버로서 데이터를 저장하고 클러스터의 색인화 및 검색 기능에 참여한다.

클러스터와 동일하게 이름으로 식별되는데 기본 값은 UUID 이다.

또한 클러스터 명을 통해 특정 클러스터로 구성될 수 있다. 기본 값은 elasticsearch 라는 이름을 가진 클러스터에 포함된다.

 

별도의 설정 없이 네트워크에서 다수의 노드를 실행할 경우, 이 노드들은 elasticsearch 라는 단일 클러스터를 형성하고 이를 구성하게 된다.

 

 

노드의 종류

 

관계형 데이터베이스의 경우 모든 요청을 하나의 서버에서 처리하지만, 엘라스틱 서치는 분산 처리가 가능하기 때문에 대용량 처리도 가능하다.

분산 처리를 위해 다양한 노드들을 조합해서 클러스터를 구성해야 한다.

노드들도 각 유형이 존재하며 엘라스틱서치가 제공하는 노드의 유형은 다음과 같다.

 

 

마스터 노드

 

마스터 노드는 인덱스의 생성, 삭제 등 클러스터와 연관된 작업을 처리한다.

네트워크 속도가 빠르고 지연이 없는 노드를 마스터 노드로 선정해야 하며, 하나의 노드만이 마스터 노드로 선출된다.

 

elasticsearch.yml 설정

node.master: true
node.data: false
node.ingest: false
search.remote.connect: false

 

데이터 노드

 

데이터 노드는 문서가 저장되는 노드이며, 샤드가 배치되는 노드이기도 하다.

색인 작업은 리소스를 많이 소모하기 때문에 마스터 노드와 분리하여 구성하는게 좋다.

 

elasticsearch.yml 설정

node.master: false
node.data: true
node.ingest: false
search.remote.connect: false

 

코드네이팅 노드

 

요청을 단순히 라운드로빈 방식으로 분산시켜 주는 노드이다.

 

 

라운드 로빈 스케쥴링

  • 시분할 시스템을 위해 설계된 선점형 스케쥴링 이다.
  • 프로세스들 사이에 우선순위를 두지 않고, 순서대로 시간 단위로 CPU를 할당하는 스케쥴링 알고리즘이다.

elasticsearch.yml 설정

node.master: false
node.data: false
node.ingest: false
searc.remote.connect: false

 

인제스트 노드

 

색인에 앞서 데이터 전처리를 위한 노드이다.

데이터 포맷을 변경하기 위해 스크립트로 전처리 파이프라인을 구성하고 실행할 수 있다.

 

elasticsearch.yml 설정

node.master: false
node.data: false
node.ingest: true
search.remote.connect: false

 

 

엘라스틱서치 실행

  • bin/elasticsearch
  • -d, -p 옵션을 제공한다.
  • -d: 백그라운드로 실행
  • -p <파일명>:  엘라스틱서치의 프로세스 id를 <파일명>으로 지정한 파일에 젖앟나다.
    • pid 파일은 실행중인 프로세스가 종료되면 자동으로 삭제된다.
  • 별도 설정을 하지않으면 기본적으로 9200 포트를 사용한다.
0.90.* 이전 버전에서는 기본적으로 백그라운드 실행 이었다.
-f 옵션을 지정해야주어야 포그라운드로 실행이 가능했다.

 

 

현재 프로세스 정보 가져오기

 

curl -XGET http://localhost:9200 명령어를 사용해서 현재 실행중인 엘라스틱서치 프로세스 정보를 알 수 있다.

실행중인 프로세스 정보

 

 

환경설정

  • elasticsearch.yml
  • 실행시 -D 옵션 혹은 -- 옵션을 사용
  • 실행후 REST API 를 이용한 설정

 

elasticsearch.yml

# cluster.name: elasticsearch
클러스터 명은 엘라스틱서치를 설치했을때 반드시 변경해주는 것이 좋다.

 

클러스터명을 ncucu 로 변경하고, 엘라스틱 서치 실행뒤 curl -XGET localhost:9200/_cluster/stats?pretty=true 로 확인

 

 

 

노드 설정

 

# node.name: node-1

 

노드명을 ncucu-1 로 변경하고, 엘라스틱서치 실행 로그를 확인하면 노드명이 ncucu-1 로 변경되었다.

 

노드 정보 변경뒤 실행 로그

 

그 외

 

위 두가지 외에도 다양한 설정들이 존재한다. 파일 경로설정, 메모리, 네트워크 등등..

 

 

Log4j.properties

 

엘라스틱서치는 Log4j2를 이용해서 로깅을 한다.

Log4j2.properties를 이용해 로깅관련 설정이 가능하다.

 

 

엘라스틱서치 제공 API

 

엘라스틱서치 에서는 다음 4가지 API들을 제공하고 있다.

  • 인덱스 관리 API
  • 문서 관리 API
  • 검색 API
  • 집계 API

각 API들에 대한 자세한 내용들은 다음에 알아보도록 하고, 주로 많이 사용하게 될 문서 (Document) 관련 API 들을 살펴보자.

 

문서를 색인하기 위해서는 인덱스라는 그릇을 생성해야한다.

인덱스를 통해 입력되는 문서의 필드를 정의하고, 데이터 타입을 지정할 수 있어, 이를 통해 효율적인 색인이 가능해진다.

여기서는 스키마리스 기능을 활용해서 살펴볼텐데, 이 기능은 되로록 사용하지 않는것이 좋다.

성능과 밀접한 연관이 있어 가급적 사용하지 않는것을 권장한다.

 

 

데이터 입력

 

엘라스틱서치 도큐먼트는 POST, PUT 메소드를 사용해서 입력이 가능하다.

Teams 인덱스에 Team 타입에 1번 도큐먼트를 생성해 보겠다.

 

요청

curl -XPUT -H "Content-Type: application/json" http://localhost:9200/teams/team/1 -d '{ 
	"title": "TalkStore", 
	"creator": "ncucu"
 }' 

응답

{"_index":"teams","_type":"team","_id":"1","_version":1,"result":"created","_shards":{"total":2,"successful":1,"failed":0},"_seq_no":0,"_primary_term":1}

 

같은 요청을 한번 더 보내어 갱신할 경우 결과는 다음과 같다.

{"_index":"teams","_type":"team","_id":"1","_version":2,"result":"updated","_shards":{"total":2,"successful":1,"failed":0},"_seq_no":1,"_primary_term":1}

 

이미 존재하는 도큐먼트에 대해 PUT 요청을 보내면, 도큐먼트의 내용을 수정 하는 명령으로 인식한다.

 

 

데이터 삭제

 

데이터 삭제는 도큐먼트, 타입, 인덱스 단위로 삭제할 수 있으며, DELETE 메소드를 활용한다.

 

요청

curl -XDELETE http://localhost:9200/teams/team/1

응답

{"_index":"teams","_type":"team","_id":"1","_version":3,"result":"deleted","_shards":{"total":2,"successful":1,"failed":0},"_seq_no":2,"_primary_term":1}

 

응답 본문을 잘 살펴보면, 삭제 요청을 했음에도 version 과 seq_no가 증가한 것을 볼 수 있다.
수정 요청은 그렇다고 쳐도 우리는 분명히 삭제 요청을 했는데 왜 version 이 수정되었을까 ?
혹시 데이터가 삭제되지 않은것은 아닐까 확인해보자

 

삭제한 도큐먼트를 다시 조회할 경우 결과는 다음과 같다.

{"_index":"teams","_type":"team","_id":"1","found":false}

 

삭제한 도큐먼트에 대한 응답을 보았을때, 메타 정보는 여전히 남아 있으며, 검색을 할 수 없다.

 

이번에는 삭제한 도큐먼트 ID에 데이터를 입력한 결과이다.

{"_index":"teams","_type":"team","_id":"1","_version":4,"result":"created","_shards":{"total":2,"successful":1,"failed":0},"_seq_no":2,"_primary_term":1}

 

우리가 예상한 값은 도큐먼트가 삭제되었기 때문에 version 이 1인 상태로 생성되는것인데, version이 4로 올라갔다.

 

정리하면, 도큐먼트의 삭제는 도큐먼트가 실제로 삭제되는 것이 아니라, 도큐먼트의 데이터 값이 빈 값으로 업데이트 되고

검색되지 않게 상태가 변경되는 것이다.

 

 

데이터 업데이트 (_update) API

 

엘라스틱서치는 입력된 도큐먼트를 수정할 수 있는 _update API를 제공한다.

_update API 는 doc, script 두 개의 매개변수를 이용해 데이터 제어가 가능하다.

 

doc 는 도큐먼트에 새로운 필드를 추가하거나, 기존 필드 값을 변경할 때 사용한다.

script는 좀 더 복잡한 프로그래밍 기법을 사용해 입력된 내용에 따라 필드의 값을 변경하는 등 처리에 사용된다.

 

우선 doc 매개변수를 먼저 살펴보자

 

doc

요청

curl -XPOST -H "Content-Type: application/json" http://localhost:9200/teams/team/1/_update -d '{
	"doc": {
		"date": "2020-06-17"
	}
}'

결과

curl -XGET http://localhost:9200/teams/team/1?pretty=true
{
  "_index" : "teams",
  "_type" : "team",
  "_id" : "1",
  "_version" : 9,
  "_seq_no" : 11,
  "_primary_term" : 1,
  "found" : true,
  "_source" : {
    "title" : "TalkStore",
    "creator" : "ncucu",
    "date" : "2020-06-17"
  }
}

 

이런 간단한 수정의 경우 데이터 입력에서 살펴본 PUT 요청에서도 동일한 작업 수행이 가능하다.

 

 

script

script 매개변수는 도큐먼트의 내용에 다양한 연산 적용이 가능하다, MVEL 언어의 문법을 사용해서 처리된다

MVEL은 자바 런타임 플랫폼 위에서 동작하기 위해 만들어진 언어이기 때문에, 자바 문법과 유사하게 동작한다.

 

http://mvel.documentnode.com/

MVEL has largely been inspired by Java syntax, but has some fundamental differences aimed at making it more efficient as an expression language, such as operators that directly support collection, array and string matching, as well as regular expressions.

mvel.documentnode.com

 

우선 script 기능을 테스트하기 위해 기존 도큐먼트의 구조를 변경하겠다. memberCount 필드를 추가하고 해당 필드에 0의 value를 세팅한다.

curl -XPOST -H "Content-Type: application/json" http://localhost:9200/teams/team/1/_update -d '{
	"doc": {
		"memberCount": 0
	}
}'

curl -XGET http://localhost:9200/teams/team/1?pretty=true
{
  "_index" : "teams",
  "_type" : "team",
  "_id" : "1",
  "_version" : 10,
  "_seq_no" : 12,
  "_primary_term" : 1,
  "found" : true,
  "_source" : {
    "title" : "TalkStore",
    "creator" : "ncucu",
    "date" : "2020-06-17",
    "memberCount" : "0"
  }
}

 

ctx._source 명령

 

ctx._source 명령을 사용하면, 문서의 본문에 접근 할 수 있다.

해당 명령을 사용해서, memberCount 의 값을 10만큼 증가시켜 보자.

 

요청

curl -XPOST -H "Content-Type: application/json" http://localhost:9200/teams/team/1/_update -d '{
	"script": "ctx._source.memberCount += 10"
}'

결과

curl -XGET http://localhost:9200/teams/team/1?pretty=true
{
  "_index" : "teams",
  "_type" : "team",
  "_id" : "1",
  "_version" : 13,
  "_seq_no" : 15,
  "_primary_term" : 1,
  "found" : true,
  "_source" : {
    "title" : "TalkStore",
    "creator" : "ncucu",
    "date" : "2020-06-17",
    "memberCount" : 10
  }
}

 

ElasticSearch 5.0 버전 부터는 엘라스틱서치에서 직접 개발한 Painless 스크립트를 제공한다.
 

Painless Scripting Language | Elasticsearch Reference [5.0] | Elastic

Regexes are disabled by default because they circumvent Painless’s protection against long running and memory hungry scripts. To make matters worse even innocuous looking regexes can have staggering performance and stack depth behavior. They remain an am

www.elastic.co

 

creator 필드가 cucu 를 포함하면 멤버 카운트를 100만큼 증가

 

script를 활용하면 if 문을 활용한 조건문 처리도 가능하다.

다음 예제는 Painless 스크립트를 사용했으며, creator가 cucu를 포험할 경우, memberCount를 100만큼 증가, 아닐 경우 200 만큼 증가시킨다.

 

 

요청

curl -XPOST -H "Content-Type: application/json" http://localhost:9200/teams/team/1/_update -d '{
	"script": {
		"inline": "if(ctx._source.creator.contains(params.name)) { ctx._source.memberCount += 100 } else { ctx._source.memberCount += 200}",
		"lang": "painless",
		"params": { "name": "cucu" }
	}
}'

응답

curl -XGET http://localhost:9200/teams/team/1?pretty=true
{
  "_index" : "teams",
  "_type" : "team",
  "_id" : "1",
  "_version" : 14,
  "_seq_no" : 25,
  "_primary_term" : 1,
  "found" : true,
  "_source" : {
    "title" : "TalkStore",
    "creator" : "ncucu",
    "date" : "2020-06-17",
    "memberCount" : 110
  }
}

 

contains() 외에도 자바에서 사용하는 ==, =< 과 같은 비교 연산도 수행할 수 있다.

이 외에도 ctx.op 명령을 이용하면 필드 조건에 따라 도큐먼트를 삭제하는 등의 다양한 처리가 가능하다.

 

 

파일을 이용한 데이터 처리

 

이번에는 데이터 처리시, 파일을 활용한 방법을 살펴본다.

엘라스틱서치는 데이터 입력시 -d 옵션을 활용해 본문을 직접 입력하는 방법 외에도 입력할 데이터의 내용을 파일에 미리 기록한뒤

요청 본문으로 보낼 수 있다.

 

curl 을 활용한 호출방식은 다음과 같다.

curl -X{메서드} http://{host}:{port}/{인덱스}/{타입}/{도큐먼트 id} -d @{파일명}

 

요청

echo '{ "title": "채널개발파트", "creator": "ryan", "date": "2020-06-15", "memberCount": 10  }' > channel

cat channel
{ "title": "채널개발파트", "creator": "ryan", "date": "2020-06-15", "memberCount": 10  }

curl -XPUT -H "Content-Type: application/json" http://localhost:9200/teams/team/2 -d @channel

결과

curl -XGET http://localhost:9200/teams/team/2?pretty=true
{
  "_index" : "teams",
  "_type" : "team",
  "_id" : "2",
  "_version" : 1,
  "_seq_no" : 26,
  "_primary_term" : 1,
  "found" : true,
  "_source" : {
    "title" : "채널개발파트",
    "creator" : "ryan",
    "date" : "2020-06-15",
    "memberCount" : 10
  }
}

 

 

벌크 API (_bulk) 를 이용한 배치 작업

 

엘라스틱서치는 여러 명령을 한꺼번에 실행할 수 있도록 벌크 API를 제공한다.

특히 많은 도큐먼트를 한꺼번에 색인할 때 벌크 API를 사용하면 색인에 소요되는 시간을 크게 줄일 수 있다.

 

벌크 API를 호출하는 방식은 다음과 같다.

curl -XPOST http://{host}:{port}/{인덱스}/{타입}/_bulk -d '{데이터}' or @{파일명}
curl -XPOST http://{host}:{port}/{인덱스}/_bulk -d '{데이터}' or @{파일명}
curl -XPOST http://{host}:{port}/_bulk -d '{데이터}' or @{파일명}

벌크 API는 index, create, delete, update 4가지 동작을 수행할 수 있다.

delete 를 제외한 나머지 동작은 실행 메타정보와, 요청 데이터가 존재해야 한다.

벌크 API 요청시 실행메타 정보와, 요청 데이터를 번갈아가면서 입력해야 한다. (한 라인에 한 정보씩 제공)
{ "index": {"_index": "books", "_type": "book", "_id": 1}} // index 실행 메타정보
{ "field": "value"} // index 요청 데이터
{ "delete": { "_index": "books", "_type": "book", "_id": "2"}} // delete 실행 메타정보

 

요청

curl -XPOST -H "Content-Type: application/json" http://localhost:9200/_bulk -d '
{ "index": {"_index": "books", "_type": "book", "_id": 1}} 
{ "field": "value"}
'

결과

curl -XGET http://localhost:9200/books/book/1?pretty=true
{
  "_index" : "books",
  "_type" : "book",
  "_id" : "1",
  "_version" : 1,
  "_seq_no" : 0,
  "_primary_term" : 1,
  "found" : true,
  "_source" : {
    "field" : "value"
  }
}

 

벌크 API 도 다른 API 들과 마찬가지로 파일을 이용할 수 있는데, 이 때 옵션은 --data-binary를 사용해야 한다.

 

주의점

 

벌크 API를 활용한 배치 작업은 보통 1,000 ~ 5,000개 정도가 배치 1회당 작업량으로 바람직하며, 10,000 개 이상의 작업을 배치로 진행할 경우 오류가 발생할 확률이 높다.

 

 

벌크 UDP API

 

엘라스틱서치는 UDP 프로토콜을 통한 벌크처리를 지원한다.

이 기능을 사용하려면 별도의 추가 설정이 필요하다.

 

elasticsearch.yml

bulk.udp.enabled: true

위 설정을 한 뒤 엘라스틱치를 재 실행하면 9700번 포트를 통해 bulk 기능이 실행된다.

벌크기능을 통해 사용가능한 API 들은 기존과 동일하다.

'ElasticSearch' 카테고리의 다른 글

클러스터 성능 모니터링과 최적화하기  (0) 2021.03.08
데이터 검색  (1) 2020.07.18
데이터 모델링  (0) 2020.06.27
검색시스템 이해하기  (2) 2020.06.14
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
more
«   2024/04   »
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30
글 보관함