Elasticsearch 데이터를 한 서버에서 다른 서버로 이동하는 방법


97

Elasticsearch 데이터를 한 서버에서 다른 서버로 어떻게 이동합니까?

여러 인덱스가있는 하나의 로컬 노드 에서 Elasticsearch 1.1.1실행하는 서버 A 가 있습니다 . Elasticsearch 1.3.4를 실행 하는 서버 B에 해당 데이터를 복사하고 싶습니다.

지금까지의 절차

  1. 두 서버에서 ES를 종료하고
  2. 새 서버의 올바른 데이터 디렉토리에 모든 데이터를 scp하십시오. (데이터는 내 데비안 상자의 / var / lib / elasticsearch /에있는 것 같습니다)
  3. elasticsearch : elasticsearch로 권한 및 소유권 변경
  4. 새 ES 서버 시작

ES 헤드 플러그인으로 클러스터를 보면 인덱스가 나타나지 않습니다.

데이터가로드되지 않은 것 같습니다. 내가 뭔가를 놓치고 있습니까?


2
인덱스를 의미하는 경우 데이터별로 elasticsearch / data / <clustername> / nodes / <node id> 폴더 내의 인덱스 폴더를 새 해당 위치로 간단히 이동할 수 있습니다. 이것은 Windows의 elasticsearch 디렉토리 구조입니다. 그래도 데비안에서도 같은지 확실하지 않습니다. 그러나 아이디어는 호환성이 손상되지 않았다고 가정하고 인덱스 디렉토리를 한 클러스터에서 다른 클러스터로 직접 이동할 수 있다는 것입니다.
bittusarkar 2014 년

1
ES 1.1.1과 ES 1.3.4가 동일한 lucene 버전을 사용하고 있습니까? 이로 인해 호환성 문제가 발생할 수 있습니다. 또한 ES 메타 데이터가 동일하다는 보장도 없습니다. 프로그래밍 방식으로 복사하는 것이 좋습니다. 먼저 인덱스 스키마를 복사 한 다음 데이터를 가져옵니다.
Zouzias

답변:


129

선택한 답변은 실제보다 약간 더 복잡하게 들립니다. 다음은 필요한 것입니다 (시스템에 먼저 npm을 설치하십시오).

npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

매핑이 일정하게 유지되는 경우 후속 복사본에 대한 첫 번째 elasticdump 명령을 건너 뛸 수 있습니다.

위와 같이 아무 문제없이 AWS에서 Qbox.io로 방금 마이그레이션했습니다.

자세한 내용은 다음을 참조하십시오.

https://www.npmjs.com/package/elasticdump

완전성을 위해 포함 된 도움말 페이지 (2016 년 2 월 기준) :

elasticdump: Import and export tools for elasticsearch

Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]

--input
                    Source location (required)
--input-index
                    Source index and type
                    (default: all, example: index/type)
--output
                    Destination location (required)
--output-index
                    Destination index and type
                    (default: all, example: index/type)
--limit
                    How many objects to move in bulk per operation
                    limit is approximate for file streams
                    (default: 100)
--debug
                    Display the elasticsearch commands being used
                    (default: false)
--type
                    What are we exporting?
                    (default: data, options: [data, mapping])
--delete
                    Delete documents one-by-one from the input as they are
                    moved.  Will not delete the source index
                    (default: false)
--searchBody
                    Preform a partial extract based on search results
                    (when ES is the input,
                    (default: '{"query": { "match_all": {} } }'))
--sourceOnly
                    Output only the json contained within the document _source
                    Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
                    sourceOnly: {SOURCE}
                    (default: false)
--all
                    Load/store documents from ALL indexes
                    (default: false)
--bulk
                    Leverage elasticsearch Bulk API when writing documents
                    (default: false)
--ignore-errors
                    Will continue the read/write loop on write error
                    (default: false)
--scrollTime
                    Time the nodes will hold the requested search in order.
                    (default: 10m)
--maxSockets
                    How many simultaneous HTTP requests can we process make?
                    (default:
                      5 [node <= v0.10.x] /
                      Infinity [node >= v0.11.x] )
--bulk-mode
                    The mode can be index, delete or update.
                    'index': Add or replace documents on the destination index.
                    'delete': Delete documents on destination index.
                    'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
                    (default: index)
--bulk-use-output-index-name
                    Force use of destination index name (the actual output URL)
                    as destination while bulk writing to ES. Allows
                    leveraging Bulk API copying data inside the same
                    elasticsearch instance.
                    (default: false)
--timeout
                    Integer containing the number of milliseconds to wait for
                    a request to respond before aborting the request. Passed
                    directly to the request library. If used in bulk writing,
                    it will result in the entire batch not being written.
                    Mostly used when you don't care too much if you lose some
                    data when importing but rather have speed.
--skip
                    Integer containing the number of rows you wish to skip
                    ahead from the input transport.  When importing a large
                    index, things can go wrong, be it connectivity, crashes,
                    someone forgetting to `screen`, etc.  This allows you
                    to start the dump again from the last known line written
                    (as logged by the `offset` in the output).  Please be
                    advised that since no sorting is specified when the
                    dump is initially created, there's no real way to
                    guarantee that the skipped rows have already been
                    written/parsed.  This is more of an option for when
                    you want to get most data as possible in the index
                    without concern for losing some rows in the process,
                    similar to the `timeout` option.
--inputTransport
                    Provide a custom js file to us as the input transport
--outputTransport
                    Provide a custom js file to us as the output transport
--toLog
                    When using a custom outputTransport, should log lines
                    be appended to the output stream?
                    (default: true, except for `$`)
--help
                    This page

Examples:

# Copy an index from production to staging with mappings:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
  --all=true \
  --input=http://production-a.es.com:9200/ \
  --output=/data/production.json
elasticdump \
  --bulk=true \
  --input=/data/production.json \
  --output=http://production-b.es.com:9200/

# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody '{"query":{"term":{"username": "admin"}}}'

------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`

나는 이것을 시도했지만 매번 "Error Emitted => connect ECONNREFUSED"를 얻습니다.
Vagabond

4
기본 인증을 적용하는 방법?
Mohd Shahid

: 아직 Elasticsearch 5를 지원하지 않습니다주의 github.com/taskrabbit/elasticsearch-dump/issues/259
Ortomala Lokni

@OrtomalaLokni는 5.x에 대한 지원이 현재 다음 위치에있는 것 같습니다. github.com/taskrabbit/elasticsearch-dump/pull/268
Beau

Elasticsearch에 대한 인증을 설정했습니다. 입력 및 출력 위치와 함께 명령에서 사용자 이름과 비밀번호를 전달하는 방법을 알려주시겠습니까?
Gr8 Adakron

42

ElasticDump 사용

1) yum 설치 epel-release

2) yum install nodejs

3) yum 설치 npm

4) npm install elasticdump

5) cd node_modules / elasticdump / bin

6)

./elasticdump \

  --input=http://192.168.1.1:9200/original \

  --output=http://192.168.1.2:9200/newCopy \

  --type=data

이것은 데이터가 동일한 서버에있는 한 위치에서 다른 위치로 전송되어야하는 경우입니다. 데이터를 두 개의 다른 IP 주소를 가진 두 개의 다른 서버 위치로 전송해야하는 경우 어떻게해야합니까?
Vagabond

2
@tramp 2 개의 다른 IP 주소입니다
de Raad

1
아직 Elasticsearch 5를 지원하지 않습니다 : github.com/taskrabbit/elasticsearch-dump/issues/259
Ortomala Lokni

2
이제 Elasticsearch 5가 지원되는 것 같습니다. 같습니다. github.com/taskrabbit/elasticsearch-dump/pull/268
hayduke


6

ELK 2.4.3에서 ELK 5.1.1로 데이터를 이동하기 위해 우분투를 시도했습니다.

다음은 단계입니다

$ sudo apt-get update

$ sudo apt-get install -y python-software-properties python g++ make

$ sudo add-apt-repository ppa:chris-lea/node.js

$ sudo apt-get update

$ sudo apt-get install npm

$ sudo apt-get install nodejs

$ npm install colors

$ npm install nomnom

$ npm install elasticdump

홈 디렉토리에서

$ cd node_modules/elasticdump/

명령을 실행

기본 http 인증이 필요한 경우 다음과 같이 사용할 수 있습니다.

--input=http://name:password@localhost:9200/my_index

프로덕션에서 색인 복사 :

$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index"  --type=data

이것은 좋습니다. sudo apt-get install -y software-properties-commonadd-apt-repository 전에 실행하십시오
Sahas

희망 그것은 가치가 +1
하기 Akshay 파틸

5

_reindex옵션 도 있습니다

문서에서 :

버전 5.x 이상에서 사용 가능한 Elasticsearch reindex API를 통해 새 Elasticsearch Service 배포를 이전 Elasticsearch 클러스터에 원격으로 연결할 수 있습니다. 이렇게하면 이전 클러스터에서 데이터를 가져와 새 클러스터에 인덱싱합니다. 재 인덱싱은 기본적으로 인덱스를 처음부터 다시 작성하므로 실행하는 데 더 많은 리소스가 필요할 수 있습니다.

POST _reindex
{
  "source": {
    "remote": {
      "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT",
      "username": "USER",
      "password": "PASSWORD"
    },
    "index": "INDEX_NAME",
    "query": {
      "match_all": {}
    }
  },
  "dest": {
    "index": "INDEX_NAME"
  }
}

4

두 번째 서버를 클러스터에 추가 할 수있는 경우 다음을 수행 할 수 있습니다.

  1. 서버 A가있는 클러스터에 서버 B 추가
  2. 인덱스의 복제본 수 증가
  3. ES는 인덱스를 서버 B에 자동으로 복사합니다.
  4. 서버 A 닫기
  5. 인덱스의 복제본 수 감소

이것은 교체 수가 노드 수와 같은 경우에만 작동합니다.


3
버전이 다르면 작동하지 않을 것이라고 생각합니다 (OP의 질문에 해당)
WoJ

확실한. 이제 ESv1.7에서 ESv5로 데이터를 마이그레이션하는 중입니다. 내 옵션은 매핑에서 많은 것이 변경되었으므로 작동하지 않습니다.
AndreyP

3

누구든지 동일한 문제가 발생하면 elasticsearch <2.0에서> 2.0으로 덤프하려고 할 때 다음을 수행해야합니다.

elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source['_id']"

1

나는 항상 단순히 인덱스 디렉토리 / 폴더를 새 서버로 복사하고 다시 시작하는 데 성공했습니다. 수행하면 인덱스 ID를 찾을 수 있으며이 ID GET /_cat/indices와 일치하는 data\nodes\0\indices폴더가 있습니다 (이동하지 않는 한 일반적으로 elasticsearch 폴더 안에 있음).


1

백업을 사용 elasticdump하거나 multielasticdump가져 와서 복원 할 수 있습니다. 한 서버 / 클러스터에서 다른 서버 / 클러스터로 데이터를 이동할 수 있습니다.

여기에서 제공 한 자세한 답변을 찾으 십시오 .


0

하나의 elasticsearch 서버에서 다른 서버로 단순히 데이터를 전송해야하는 경우 elasticsearch-document-transfer를 사용할 수도 있습니다. .

단계 :

  1. 터미널에서 디렉토리를 열고 실행하십시오.
    $ npm install elasticsearch-document-transfer.
  2. 파일 생성 config.js
  3. 두 elasticsearch 서버의 연결 세부 정보를 config.js
  4. 적절한 값 설정 options.js
  5. 터미널에서 실행
    $ node index.js

0

클러스터의 전체 상태 (모든 데이터 인덱스 포함)의 스냅 샷을 만들고 새 클러스터 또는 서버에서 복원 (복원 API 사용) 할 수 있습니다.


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.