我在 cloudWatch 中的日志大小是多少?
what's the size of my logs in cloudWatch?
我想知道我的日志的实际大小以及它们的增长速度。
查看 Cloudwatch>Metrics>Account>IncomingBytes 并选择我想要获取 SUM 的选项:
- 过去 3 个月和 30 天的时间里我确实获得了 43GB,但在 7 天的时间里我获得了 17 GB,在 1 天的时间里我获得了 45 MB
- 过去 4 周和 30 天的时间里我确实获得了 63GB,但是在 7 天的时间里我有 784KB,在 1 天的时间里我有 785 KB。
我不明白,我现在怎么知道我的日志的大小?以及如何找到它如何随时间增加(例如 1 天?)
CloudWatch 日志 publish a metric“现在的字节数”。 IncomingBytes
的总和将只显示在您查看的任何时间段内接收到的字节;它不考虑现有字节或由于保留策略或删除流而删除的字节。
但是,您可以从日志组描述中获取当前 reported 字节。这是一个 Python 程序,它迭代所有日志组并打印答案:
import boto3
client = boto3.client('logs')
paginator = client.get_paginator('describe_log_groups')
for page in paginator.paginate():
for group in page['logGroups']:
print(f"{group['logGroupName']}: {group['storedBytes']}")
如果随着时间的推移跟踪这一点很重要,我会将其包装在每晚运行的 Lambda 中(或者您希望的任何频率)并将该数字报告为 custom metric.
问题与 cloudwatch 配置(图形选项)有关,选择了最新值,应该是“时间范围值”。
更改后,Cloudwatch 显示我有一些 TB,并且修改期间始终显示相同的值
我想知道我的日志的实际大小以及它们的增长速度。 查看 Cloudwatch>Metrics>Account>IncomingBytes 并选择我想要获取 SUM 的选项:
- 过去 3 个月和 30 天的时间里我确实获得了 43GB,但在 7 天的时间里我获得了 17 GB,在 1 天的时间里我获得了 45 MB
- 过去 4 周和 30 天的时间里我确实获得了 63GB,但是在 7 天的时间里我有 784KB,在 1 天的时间里我有 785 KB。
我不明白,我现在怎么知道我的日志的大小?以及如何找到它如何随时间增加(例如 1 天?)
CloudWatch 日志 publish a metric“现在的字节数”。 IncomingBytes
的总和将只显示在您查看的任何时间段内接收到的字节;它不考虑现有字节或由于保留策略或删除流而删除的字节。
但是,您可以从日志组描述中获取当前 reported 字节。这是一个 Python 程序,它迭代所有日志组并打印答案:
import boto3
client = boto3.client('logs')
paginator = client.get_paginator('describe_log_groups')
for page in paginator.paginate():
for group in page['logGroups']:
print(f"{group['logGroupName']}: {group['storedBytes']}")
如果随着时间的推移跟踪这一点很重要,我会将其包装在每晚运行的 Lambda 中(或者您希望的任何频率)并将该数字报告为 custom metric.
问题与 cloudwatch 配置(图形选项)有关,选择了最新值,应该是“时间范围值”。
更改后,Cloudwatch 显示我有一些 TB,并且修改期间始终显示相同的值