[英]AWS Cloudwatch Log - Is it possible to export existing log data from it?
我已设法使用 AWS CloudWatch 日志代理将我的应用程序日志推送到 AWS Cloudwatch。 但是 CloudWatch web 控制台似乎没有提供一个按钮来允许您从中下载/导出日志数据。
知道如何实现这个目标吗?
最新的 AWS CLI 有一个 CloudWatch Logs cli,它允许您将日志下载为 JSON、文本文件或 AWS CLI 支持的任何其他输出。
例如,要从A
组中的流a
中获取前 1MB 最多 10,000 个日志条目到文本文件,请运行:
aws logs get-log-events \
--log-group-name A --log-stream-name a \
--output text > a.log
该命令当前的响应大小限制为最大 1MB(每个请求最多 10,000 条记录),如果您有更多记录,则需要使用--next-token
参数实现自己的页面步进机制。 我希望将来 CLI 也将允许在单个命令中进行完整转储。
这是一个小的 Bash 脚本,用于列出特定组中所有流的事件,从指定时间开始:
#!/bin/bash
function dumpstreams() {
aws $AWSARGS logs describe-log-streams \
--order-by LastEventTime --log-group-name $LOGGROUP \
--output text | while read -a st; do
[ "${st[4]}" -lt "$starttime" ] && continue
stname="${st[1]}"
echo ${stname##*:}
done | while read stream; do
aws $AWSARGS logs get-log-events \
--start-from-head --start-time $starttime \
--log-group-name $LOGGROUP --log-stream-name $stream --output text
done
}
AWSARGS="--profile myprofile --region us-east-1"
LOGGROUP="some-log-group"
TAIL=
starttime=$(date --date "-1 week" +%s)000
nexttime=$(date +%s)000
dumpstreams
if [ -n "$TAIL" ]; then
while true; do
starttime=$nexttime
nexttime=$(date +%s)000
sleep 1
dumpstreams
done
fi
最后一部分,如果您设置TAIL
将继续获取日志事件,并会在更新的事件进来时报告(有一些预期的延迟)。
还有一个名为awslogs
的 python 项目,允许获取日志: https : //github.com/jorgebastida/awslogs
有这样的事情:
列出日志组:
$ awslogs groups
列出给定日志组的流:
$ awslogs streams /var/log/syslog
从所有流中获取日志记录:
$ awslogs get /var/log/syslog
从特定流中获取日志记录:
$ awslogs get /var/log/syslog stream_A
还有更多(过滤时间段,查看日志流......
我认为,这个工具可能会帮助你做你想做的事。
AWS 似乎增加了将整个日志组导出到 S3 的功能。
您需要在 S3 存储桶上设置权限以允许 cloudwatch 通过将以下内容添加到存储桶策略中写入存储桶,将区域替换为您的区域,将存储桶名称替换为您的存储桶名称。
{
"Effect": "Allow",
"Principal": {
"Service": "logs.us-east-1.amazonaws.com"
},
"Action": "s3:GetBucketAcl",
"Resource": "arn:aws:s3:::tsf-log-data"
},
{
"Effect": "Allow",
"Principal": {
"Service": "logs.us-east-1.amazonaws.com"
},
"Action": "s3:PutObject",
"Resource": "arn:aws:s3:::tsf-log-data/*",
"Condition": {
"StringEquals": {
"s3:x-amz-acl": "bucket-owner-full-control"
}
}
}
详细信息可以在此 AWS 文档的第 2 步中找到
我会添加一个班轮来获取流的所有日志:
aws logs get-log-events --log-group-name my-log-group --log-stream-name my-log-stream | grep '"message":' | awk -F '"' '{ print $(NF-1) }' > my-log-group_my-log-stream.txt
或者以更易读的格式:
aws logs get-log-events \
--log-group-name my-log-group\
--log-stream-name my-log-stream \
| grep '"message":' \
| awk -F '"' '{ print $(NF-1) }' \
> my-log-group_my-log-stream.txt
你可以用它制作一个方便的脚本,虽然它不如@Guss 的强大,但足够简单。 我将它保存为getLogs.sh
并使用./getLogs.sh log-group log-stream
调用它
#!/bin/bash
if [[ "${#}" != 2 ]]
then
echo "This script requires two arguments!"
echo
echo "Usage :"
echo "${0} <log-group-name> <log-stream-name>"
echo
echo "Example :"
echo "${0} my-log-group my-log-stream"
exit 1
fi
OUTPUT_FILE="${1}_${2}.log"
aws logs get-log-events \
--log-group-name "${1}"\
--log-stream-name "${2}" \
| grep '"message":' \
| awk -F '"' '{ print $(NF-1) }' \
> "${OUTPUT_FILE}"
echo "Logs stored in ${OUTPUT_FILE}"
显然,AWS 控制台没有开箱即用的方式,您可以在其中下载 CloudWatchLogs。 也许您可以编写一个脚本来使用 SDK/API 执行 CloudWatchLogs 提取。
CloudWatchLogs 的好处是您可以无限期保留日志(永不过期); 与仅将日志保留 14 天的 CloudWatch 不同。 这意味着您可以按月/季度频率运行脚本,而不是按需运行。
有关 CloudWatchLogs API 的更多信息,请访问http://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/Welcome.html http://awsdocs.s3.amazonaws.com/cloudwatchlogs/latest/cwl-api.pdf
您现在可以使用新的 Cloudwatch Logs Insights 页面通过 Cloudwatch 管理控制台执行导出。 此处提供完整文档https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/CWL_ExportQueryResults.html 。 我已经开始使用 JSON 将我的 Apache 日志摄取到 Cloudwatch 中,所以如果您还没有提前设置它,那么 YMMV。
向仪表板添加查询或导出查询结果
运行查询后,您可以将查询添加到 CloudWatch 控制面板,或将结果复制到剪贴板。
每次加载仪表板和刷新仪表板时,添加到仪表板的查询都会自动重新运行。 这些查询计入四个并发 CloudWatch Logs Insights 查询的限制。
将查询结果添加到仪表板
通过https://console.aws.amazon.com/cloudwatch/打开 CloudWatch 控制台。
在导航窗格中,选择见解。
选择一个或多个日志组并运行查询。
选择添加到仪表板。
选择仪表板,或选择新建来为查询结果创建新仪表板。
选择添加到仪表板。
将查询结果复制到剪贴板
通过https://console.aws.amazon.com/cloudwatch/打开 CloudWatch 控制台。
在导航窗格中,选择见解。
选择一个或多个日志组并运行查询。
选择操作、复制查询结果。
我发现 AWS 文档完整且准确。 https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/S3ExportTasks.html这规定了将日志从 Cloudwatch 导出到 S3 的步骤
将@Guyss 的答案改编为 macOS。 因为我不是一个真正的 bash 人,不得不使用 python 将日期转换为人类可读的形式。
runaswslog -1w
获取上周等
runawslog() { sh awslogs.sh $1 | grep "EVENTS" | python parselogline.py; }
awslogs.sh:
#!/bin/bash
#set -x
function dumpstreams() {
aws $AWSARGS logs describe-log-streams \
--order-by LastEventTime --log-group-name $LOGGROUP \
--output text | while read -a st; do
[ "${st[4]}" -lt "$starttime" ] && continue
stname="${st[1]}"
echo ${stname##*:}
done | while read stream; do
aws $AWSARGS logs get-log-events \
--start-from-head --start-time $starttime \
--log-group-name $LOGGROUP --log-stream-name $stream --output text
done
}
AWSARGS=""
#AWSARGS="--profile myprofile --region us-east-1"
LOGGROUP="/aws/lambda/StockTrackFunc"
TAIL=
FROMDAT=$1
starttime=$(date -v ${FROMDAT} +%s)000
nexttime=$(date +%s)000
dumpstreams
if [ -n "$TAIL" ]; then
while true; do
starttime=$nexttime
nexttime=$(date +%s)000
sleep 1
dumpstreams
done
fi
parselogline.py:
import sys
import datetime
dat=sys.stdin.read()
for k in dat.split('\n'):
d=k.split('\t')
if len(d)<3:
continue
d[2]='\t'.join(d[2:])
print( str(datetime.datetime.fromtimestamp(int(d[1])/1000)) + '\t' + d[2] )
export LOGGROUPNAME=[SOME_LOG_GROUP_NAME]; for LOGSTREAM in `aws --output text logs describe-log-streams --log-group-name ${LOGGROUPNAME} |awk '{print $7}'`; do aws --output text logs get-log-events --log-group-name ${LOGGROUPNAME} --log-stream-name ${LOGSTREAM} >> ${LOGGROUPNAME}_output.txt; done
我有一个类似的用例,我必须下载给定日志组的所有流。 看看这个脚本是否有帮助。
#!/bin/bash
if [[ "${#}" != 1 ]]
then
echo "This script requires two arguments!"
echo
echo "Usage :"
echo "${0} <log-group-name>"
exit 1
fi
streams=`aws logs describe-log-streams --log-group-name "${1}"`
for stream in $(jq '.logStreams | keys | .[]' <<< "$streams"); do
record=$(jq -r ".logStreams[$stream]" <<< "$streams")
streamName=$(jq -r ".logStreamName" <<< "$record")
echo "Downloading ${streamName}";
echo `aws logs get-log-events --log-group-name "${1}" --log-stream-name "$streamName" --output json > "${stream}.log" `
echo "Completed dowload:: ${streamName}";
done;
您已将日志组名称作为参数传递。
例如:bash <name_of_the_bash_file>.sh <group_name>
其他答案对 AWS Lambda 日志没有用,因为它们创建了许多日志流,我只想在上周转储所有内容。 我终于发现以下命令是我需要的:
aws logs tail --since 1w LOG_GROUP_NAME > output.log
请注意,LOG_GROUP_NAME 是 lambda function 路径(例如 /aws/lambda/FUNCTION_NAME),您可以将 since 参数替换为各种时间(1w = 1 周、5m = 5 分钟等)
受 saputkin 的启发,我创建了一个 pyton 脚本,用于在给定时间段内下载日志组的所有日志。
脚本本身: https : //github.com/slavogri/aws-logs-downloader.git
如果该时期有多个日志流,将创建多个文件。 下载的文件将存储在当前目录中,并将由在给定时间段内具有日志事件的日志流命名。 (如果组名包含正斜杠,它们将被下划线替换。如果每个文件已经存在,它将被覆盖。)
先决条件:您需要登录到您的 aws 个人资料。 脚本本身将代表您使用 AWS 命令行 API:“aws logs describe-log-streams”和“aws logs get-log-events”
Usage example: python aws-logs-downloader -g /ecs/my-cluster-test-my-app -t "2021-09-04 05:59:50 +00:00" -i 60
optional arguments:
-h, --help show this help message and exit
-v, --version show program's version number and exit
-g , --log-group (required) Log group name for which the log stream events needs to be downloaded
-t , --end-time (default: now) End date and time of the downloaded logs in format: %Y-%m-%d %H:%M:%S %z (example: 2021-09-04 05:59:50 +00:00)
-i , --interval (default: 30) Time period in minutes before the end-time. This will be used to calculate the time since which the logs will be downloaded.
-p , --profile (default: dev) The aws profile that is logged in, and on behalf of which the logs will be downloaded.
-r , --region (default: eu-central-1) The aws region from which the logs will be downloaded.
如果对您有用,请现在告诉我。 :)
完成之后,我了解到还有另一个使用 Boto3 的选项: https ://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/logs.html#CloudWatchLogs.Client.get_log_events
在我看来,命令行 API 仍然是一个不错的选择。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.