- 필수 기능
- 시작하기
- Glossary
- 표준 속성
- Guides
- Agent
- 통합
- 개방형텔레메트리
- 개발자
- API
- Datadog Mobile App
- CoScreen
- Cloudcraft
- 앱 내
- 서비스 관리
- 인프라스트럭처
- 애플리케이션 성능
- APM
- Continuous Profiler
- 스팬 시각화
- 데이터 스트림 모니터링
- 데이터 작업 모니터링
- 디지털 경험
- 소프트웨어 제공
- 보안
- AI Observability
- 로그 관리
- 관리
인덱싱 여부에 관계없이 수집된 모든 로그를 자체 클라우드 스토리지 시스템에 전달하도록 Datadog 계정을 설정하세요. Rehydration을 사용하면 스토리지에 최적화된 아카이브에 로그를 장기간 보관하고 컴플라이언스 요구 사항을 충족하는 동시에 임시 조사에 대한 감사 기능을 유지할 수 있습니다.
Log Forwarding 페이지로 이동하여 수집된 로그를 자체 클라우드 호스팅 스토리지 버킷에 전달하기 위한 아카이브를 설정하세요.
read
및/또는 write
권한을 설정합니다.아직 설정하지 않은 경우 S3 버킷을 보유한 AWS 계정에 대해 AWS 통합을 설정합니다.
아직 설정하지 않은 경우 새 스토리지 계정이 포함된 구독 내에서 Azure 통합을 설정하세요. 여기에는 통합하기 위해 Datadog이 사용할 수 있는 앱 등록 생성이 포함됩니다.
참고: Azure ChinaCloud, GermanyCloud 및 GovCloud에 대한 아카이빙은 지원되지 않습니다.
아직 설정하지 않았다면 GCS 스토리지 버킷을 보유하는 프로젝트에 대해 Google Cloud 통합을 설정하세요. 여기에는 통합을 위해 Datadog이 사용할 수 있는 Google Cloud 서비스 계정 생성이 포함됩니다.
AWS 콘솔에서 S3 버킷을 생성하여 아카이브를 보냅니다.
참고:
us-east-1
에서 스토리지 버킷을 생성하는 것이 좋습니다.참고: 드물게 발생하지만 (일반적으로 시간 초과) 마지막 데이터를 다시 작성해야 할 수 있으므로 변경이 불가한 정책을 설정하지 마세요.
Google Cloud 계정에서 GCS 버킷을 생성하여 아카이브를 보내세요. Choose how to control access to objects에서 Set object-level and bucket-level permissions를 선택합니다.
참고: 드물게 발생하지만 (일반적으로 시간 초과) 마지막 데이터를 다시 작성해야 할 수 있으므로 보존 정책을 추가하지 마세요.
logs_write_archive
권한이 있는 Datadog 사용자만 로그 아카이브 설정을 생성, 수정 또는 삭제할 수 있습니다.
다음 권한 설명을 사용하여 정책 만들기:
{
"Version": "2012-10-17",
"Statement": [
{
"Sid": "DatadogUploadAndRehydrateLogArchives",
"Effect": "Allow",
"Action": ["s3:PutObject", "s3:GetObject"],
"Resource": [
"arn:aws:s3:::<MY_BUCKET_NAME_1_/_MY_OPTIONAL_BUCKET_PATH_1>/*",
"arn:aws:s3:::<MY_BUCKET_NAME_2_/_MY_OPTIONAL_BUCKET_PATH_2>/*"
]
},
{
"Sid": "DatadogRehydrateLogArchivesListBucket",
"Effect": "Allow",
"Action": "s3:ListBucket",
"Resource": [
"arn:aws:s3:::<MY_BUCKET_NAME_1>",
"arn:aws:s3:::<MY_BUCKET_NAME_2>"
]
}
]
}
GetObject
및 ListBucket
권한은 아카이브에서의 리하이드레이션을 허용합니다.PutObject
권한으로 아카이브를 업로드할 수 있습니다.s3:PutObject
및 s3:GetObject
작업 아래의 리소스 값이 /*
로 끝나는지 확인하세요.버킷 이름을 편집합니다.
(선택 사항) 로그 아카이브가 포함된 경로를 지정합니다.
Datadog 통합 역할에 새 정책을 연결합니다.
Datadog Google Cloud 서비스 계정에 아카이브를 버킷에 쓸 수 있는 권한을 부여하세요.
Google Cloud IAM Admin 페이지에서 Datadog Google Cloud 서비스 계정 주체를 선택하고 Edit principal을 선택합니다.
ADD ANOTHER ROLE을 클릭한 후 Storage Object Admin 역할을 선택하고 저장합니다.
Log Forwarding 페이지로 이동하여 Archives탭에서 Add a new archive를 선택합니다.
참고:
logs_write_archive
권한이 있는 Datadog 사용자만 이 단계와 다음 단계를 완료할 수 있습니다.S3 버킷에 적합한 AWS 계정과 역할 조합을 선택합니다.
버킷 이름을 입력합니다. 선택 사항: 로그 아카이브의 모든 콘텐츠에 대한 접두사 디렉터리를 입력합니다.
Azure Storage 아카이브 유형을 선택하고 스토리지 계정에서 Storage Blob Data Contributor 역할이 있는 Datadog 앱에 대한 Azure 테넌트 및 클라이언트를 선택합니다.
스토리지 계정 이름과 아카이브의 컨테이너 이름을 입력합니다. 선택 사항: 로그 아카이브의 모든 콘텐츠에 대한 접두사 디렉터리를 입력합니다.
GCS 아카이브 유형을 선택하고 스토리지 버킷에 쓰기 권한이 있는 GCS 서비스 계정을 선택합니다.
버킷 이름을 입력합니다. 선택 사항: 로그 아카이브의 모든 콘텐츠에 대한 접두사 디렉터리를 입력합니다.
기본적으로:
필요시 이 설정 단계를 사용하여 해당 아카이브에 역할을 할당하고 다음을 수행할 수 있는 사람을 제한합니다.
logs_write_archive
권한을 참조하세요.logs_read_archives
및 logs_write_historical_view
권한을 참조하세요.read_index_data
권한을 사용하는 경우 리하이드레이션된 로그에 액세스하세요.(선택 사항) 추가 설정을 통해 다음을 수행합니다.
logs_read_data
권한을 참조하세요.(선택 사항) 이 설정 단계를 사용하여 로그 아카이브에서 Rehydration을 위해 스캔할 수 있는 로그 데이터의 최대 볼륨(GB)을 정의할 수 있습니다.
최대 스캔 크기가 정의된 아카이브의 경우 모든 사용자는 Rehydration을 시작하기 전에 스캔 크기를 추정해야 합니다. 예상 스캔 크기가 해당 아카이브에 허용된 크기보다 큰 경우 사용자는 Rehydration을 요청하는 시간 범위를 줄여야 합니다. 시간 범위를 줄이면 스캔 크기가 줄어들고 사용자가 Rehydration을 시작할 수 있습니다.
방화벽 규칙은 지원되지 않습니다.
S3 버킷에 수명 주기를 설정하여 로그 아카이브를 최적의 스토리지 클래스로 자동 전환할 수 있습니다.
Rehydration은 다음 스토리지 클래스만 지원합니다.
다른 스토리지 클래스의 아카이브에서 리하이드레이션하려면 먼저 해당 아카이브를 위의 지원되는 스토리지 클래스 중 하나로 이동해야 합니다.
Archiving 및 Rehydration은 다음 액세스 계층만 지원합니다.
다른 액세스 계층의 아카이브에서 리하이드레이션하려면 먼저 해당 아카이브를 위의 지원되는 계층 중 하나로 이동해야 합니다.
Amazon S3 버킷의 기본 암호화는 Amazon S3 관리 키(SSE-S3)를 사용한 서버 측 암호화입니다.
S3 버킷이 SSE-S3으로 암호화되었는지 확인하려면 다음을 수행하세요.
또는 Datadog은 AWS KMS의 CMK를 사용한 서버 측 암호화를 지원합니다. 활성화하려면 다음 단계를 수행하세요.
{
"Id": "key-consolepolicy-3",
"Version": "2012-10-17",
"Statement": [
{
"Sid": "Enable IAM User Permissions",
"Effect": "Allow",
"Principal": {
"AWS": "arn:aws:iam::<MY_AWS_ACCOUNT_NUMBER>:root"
},
"Action": "kms:*",
"Resource": "*"
},
{
"Sid": "Allow use of the key",
"Effect": "Allow",
"Principal": {
"AWS": "arn:aws:iam::<MY_AWS_ACCOUNT_NUMBER>:role/<MY_DATADOG_IAM_ROLE_NAME>"
},
"Action": [
"kms:Encrypt",
"kms:Decrypt",
"kms:ReEncrypt*",
"kms:GenerateDataKey*",
"kms:DescribeKey"
],
"Resource": "*"
},
{
"Sid": "Allow attachment of persistent resources",
"Effect": "Allow",
"Principal": {
"AWS": "arn:aws:iam::<MY_AWS_ACCOUNT_NUMBER>:role/<MY_DATADOG_IAM_ROLE_NAME>"
},
"Action": [
"kms:CreateGrant",
"kms:ListGrants",
"kms:RevokeGrant"
],
"Resource": "*",
"Condition": {
"Bool": {
"kms:GrantIsForAWSResource": "true"
}
}
}
]
}
기존 KSM 키를 변경하려면 Datadog 지원팀에 문의하여 추가 지원을 받으세요.
Datadog 계정에 아카이브 설정이 성공적으로 완료되면 처리 파이프라인이 Datadog에 수집된 모든 로그를 강화하기 시작합니다. 이러한 로그는 이후에 아카이브로 전달됩니다.
그러나 아카이브 설정을 생성하거나 업데이트한 후 다음 아카이브 업로드가 시도되기까지 몇 분 정도 소요될 수 있습니다. 또한, 아카이브가 업로드되는 빈도는 다양할 수 있습니다. 15분 후에 스토리지 버킷을 다시 확인하여 아카이브가 Datadog 계정에서 성공적으로 업로드되었는지 확인하세요.
그 후에도 아카이브가 여전히 보류 상태인 경우 포함 필터를 확인하여 쿼리가 유효하고 Live Tail의 로그 이벤트와 일치하는지 확인하세요. Datadog이 의도하지 않은 설정 또는 권한 변경으로 인해 로그를 외부 아카이브에 업로드하지 못하는 경우 해당 로그 아카이브가 설정 페이지에서 강조 표시됩니다.
오류 세부정보와 필요한 조치를 확인하려면 아카이브 위로 마우스를 가져가세요. Events Explorer에서도 이벤트가 생성됩니다. 이러한 이벤트에 대한 모니터를 생성하여 오류를 신속하게 감지하고 해결할 수 있습니다.
여러 아카이브가 정의된 경우 로그는 필터를 기반으로 첫 번째 아카이브를 입력합니다.
아카이브를 신중하게 주문하는 것이 중요합니다. 예를 들어 env:prod
태그로 필터링된 첫 번째 아카이브와 필터 없이 두 번째 아카이브(*
와 동일)를 생성하는 경우 모든 프로덕션 로그는 하나의 스토리지 버킷 또는 경로로 이동하고 나머지는 다른 스토리지 버킷 또는 경로로 이동합니다.
Datadog이 스토리지 버킷에 전달하는 로그 아카이브는 압축된 JSON 형식(.json.gz
)입니다. 지정한 접두사를 사용하여 (없는 경우 /
) 아카이브는 다음과 같이 아카이브 파일이 생성된 날짜와 시간을 나타내는 디렉터리 구조에 저장됩니다.
/my/bucket/prefix/dt=20180515/hour=14/archive_143201.1234.7dq1a9mnSya3bFotoErfxl.json.gz
/my/bucket/prefix/dt=<YYYYMMDD>/hour=<HH>/archive_<HHmmss.SSSS>.<DATADOG_ID>.json.gz
이 디렉터리 구조는 날짜를 기준으로 기록 로그 아카이브를 쿼리하는 프로세스를 단순화합니다.
압축된 JSON 파일 내에서 각 이벤트의 콘텐츠 형식은 다음과 같습니다.
{
"_id": "123456789abcdefg",
"date": "2018-05-15T14:31:16.003Z",
"host": "i-12345abced6789efg",
"source": "source_name",
"service": "service_name",
"status": "status_level",
"message": "2018-05-15T14:31:16.003Z INFO rid='acb-123' status=403 method=PUT",
"attributes": { "rid": "abc-123", "http": { "status_code": 403, "method": "PUT" } },
"tags": [ "env:prod", "team:acme" ]
}
추가 유용한 문서, 링크 및 기사: