이제 flentd 의 워크플로우와 설정 파일을 수정하는 방법을 보았으니, 내가 하고자 하는 인프라를 구축하고 td-agent.conf 파일을 수정하면 된다.
input -> (filter) -> match 모델로 거의 모든 다양한 데이터 수집이 가능한데, 흔히 쓰이는 것들을 요약하자면...
웹서버 로그 / 시스템 로그 / Rest API 등을 입력받아, Mongo / Elasticsearch / S3 / Treasure Data 등으로 전달하는 일을 주로 한다.
인터넷을 뒤져보면 더 많은 예제도 찾을 수 있다.
내가 해야 하는 작업은 아래와 같다.
1. 웹 어플리케이션에서 fluent-logger 를 통해
2. fluentd 서버로 메시지 전달
3. 수집된 로그를 가공하여 S3 로 전달
4. AWS Athena 에서 S3 데이터 쿼리
이번 포스트에서는 fluentd 에 관련된 2번, 3번을 설정 파일을 수정하여 해결해 보겠다.
S3 플러그인 설치
td-agent-gem 툴을 이용해 S3 플러그인을 설치한다.
# td-agent-gem install fluent-plugin-s3 Fetching: fluent-plugin-s3-0.8.2.gem (100%) Successfully installed fluent-plugin-s3-0.8.2 Parsing documentation for fluent-plugin-s3-0.8.2 Installing ri documentation for fluent-plugin-s3-0.8.2 Done installing documentation for fluent-plugin-s3 after 0 seconds | cs |
혹시나 아래와 같은 오류가 발생한다면...
Fetching: strptime-0.1.9.gem (100%) Building native extensions. This could take a while... ERROR: Error installing fluent-plugin-s3: ERROR: Failed to build gem native extension. /opt/td-agent/embedded/bin/ruby -r ./siteconf20170405-3324-1dj4g72.rb extconf.rb checking for rb_timespec_now()... *** extconf.rb failed *** Could not create Makefile due to some reason, probably lack of necessary libraries and/or headers. Check the mkmf.log file for more details. You may need configuration options. | cs |
Development Tools 을 설치한다.
# yum groupinstall "Development Tools" "Legacy Software Development" or # apt-get install build-essential | cs |
td-agent.conf 수정
설정 파일에는 fluent-logger 라이브러리를 통해 forward 타입으로 입력받을 것이고, fluentd 서버가 내부망에 있으므로 외부 접근은 걱정 없다.
forward 로부터 입력받은 이벤트 tag 별로, 별도의 디렉토리에 json 으로 메시지를 쌓고, 1시간에 1번씩 AWS S3 에 로그를 업로드 할 것이다.
# vi /etc/td-agent/td-agent.conf <source> @type forward </source> <match fanbook.*> @type s3 aws_key_id YOUR_AWS_KEY_ID aws_sec_key YOUR_AWS_SECRET_KEY s3_bucket YOUR_S3_BUCKET_NAME s3_region YOUR_S3_REGION path logs/${tag[1]}/%Y/%m/%d/ s3_object_key_format %{path}%{time_slice}_%{index}.%{file_extension} store_as json <buffer tag,time> @type file path /var/log/td-agent/s3 timekey 1h timekey_wait 10m timekey_use_utc true # use utc </buffer> <format> @type json </format> </match> | cs |
위 설정 파일을 간단하게 분석해 보자.
<match> 지시자에 out_s3 플러그인을 설정하였고, 그 아래에는 S3 키/버킷/리전 정보를 입력하였다.
path 파라미터에는 해당 버킷에 레코드가 저장될 경로를 입력한다.
태그/년/월/일을 뜻하는 ${tag}/%Y/%m/%d/ 문법은 v0.14 에서만 표시할 수 있다. v0.12 는 path / s3_object_key_format 에 이 문법을 지원하지 않는다.
오로지 이것 때문에 아직 안정화 되지 않은 v0.14 를 선택했다 ㅡ.ㅡ;
s3_object_key_format 은 업로드할 객체 키로 전체 경로를 입력한다.
store_as 는 어떤 파일로 S3 에 업로드 할 것인지를 결정한다. default 는 압축된 gzip 이지만, json 으로 설정했다. 이 값으로 %{file_extension} 가 결정된다.
output 을 담당하는 <match> 지시자 안에는, 이벤트를 버퍼링하도록 <buffer> 섹션을 넣을 수 있다.
버퍼링은 파일로 저장되도록 @type file 을 설정했다. @type 을 지정하지 않으면 defulat 인 memory 가 설정된다.
태그별로 파일을 만들고 시간 당 업로드를 실행할 계획이므로 <buffer tag,time> 라고 지정하였다.
path 는 버퍼링 파일이 저장될 경로이다.
timekey 는 파일을 생성하여 지정한 시간 동안 버퍼링을 받고 시간이 만료되면 새로운 파일로 버퍼링 처리를 반복한다.
timekey_wait 는 버퍼링 된 파일을 ouput 플러그인(s3) 에서 처리할 시기를 결정한다. 일반적으로 Fluentd 가 지연된 이벤트를 받을 수 있도록 대기시키는 시간이다.
timekey 가 1h 이고 timekey_wait 가 10m 라면, 1시간 10분에 업로드를 시작한다.
<format> 섹션은은 이벤트 형식이다. 기본적인 파일 타입은 out_file 로 예제에서 계속 보아왔던 time|tag|record(json) 이지만, time|tag 를 빼고 record 만 넣기 위해 json 으로 변경하였다.
테스트
input :
echo '{"json":"message01"}' | /opt/td-agent/embedded/bin/fluent-cat test.hongs echo '{"json":"message02"}' | /opt/td-agent/embedded/bin/fluent-cat test.hongs | cs |
output :
S3/logs/hongs/2017/04/11/201704110320_0.json {"json":"message01"} {"json":"message02"} | cs |
WRITTEN BY
- 손가락귀신
정신 못차리면, 벌 받는다.