JAVA和Nginx 教程大全

网站首页 > 精选教程 正文

「nginx」八、nginx日志文件配置与分割

wys521 2024-09-09 12:08:44 精选教程 50 ℃ 0 评论

每个应用系统的日志记录是非常重要的文件,可以分析线上的运行状况,nginx也不类外。而且nginx给我们提供了强大的日志功能,把常用的日志值都定义为变量,让我们自由组合。

日志格式

nginx服务器在运行的时候,会有各种操作,操作的信息会记录到日志文件中,日志文件的记录是有格式的。那我们如何设置日志文件的格式呢?使用log_format指令进行配置文件格式,nginx的log_format有很多可选的参数用于指示服务器的活动状态,默认的是:

log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"';

log_format 后面的main可以理解为这个日志格式的名称,我们当然可以定义多个日志格式;那后面就是日志格式,看到一组以$符号开头的变量就是nginx内置的变量,各个变量都代表一定的含义

参数 说明 示例

$remote_addr 客户端地址 211.28.65.253

$remote_user 客户端用户名称 --

$time_local 访问时间和时区 18/Jul/2012:17:00:01 +0800

$request 请求的URI和HTTP协议 "GET /article-10000.html HTTP/1.1"

$http_host 请求地址,即浏览器中你输入的地址(IP或域名) www.wang.com 192.168.100.100

$status HTTP请求状态 200

$upstream_status upstream状态 200

$body_bytes_sent 发送给客户端文件内容大小 1547

$http_referer url跳转来源 https://www.baidu.com/

$http_user_agent 用户终端浏览器等信息 "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; SV1; GTB7.0; .NET4.0C;

$ssl_protocol SSL协议版本 TLSv1

$ssl_cipher 交换数据中的算法 RC4-SHA

$upstream_addr 后台upstream的地址,即真正提供服务的主机地址 10.10.10.100:80

$request_time 整个请求的总时间 0.205

$upstream_response_time 请求过程中,upstream响应时间 0.002

假设将Nginx服务器作为Web服务器,位于负载均衡设备、Squid、Nginx反向代理之后,不能获取到客户端的真实IP地址了。原因是经过反向代理后,由于在客户端和Web服务器之间增加了中间层,因此Web服务器无法直接拿到客户端的IP。通过$remote_addr变量拿到的将是反向代理服务器的IP地址。但是,反向代理服务器在转发请求的HTTP头信息中,可以增加X-Forwarded-For信息,用以记录原有的客户端IP地址和原来客户端请求的服务器地址。这时候,要用log_format指令设置日志格式,让日志记录X-Forearded-For信息中的IP地址,即客户的真实IP。

日志文件路径配置

access_log指令

语法: access_log path [format [buffer=size [flush=time]]];

access_log path format gzip[=level] [buffer=size] [flush=time];

access_log off;

默认值: access_log logs/access.log combined;

配置段:

gzip压缩等级。

buffer设置内存缓存区大小。

flush保存在缓存区中的最长时间。

不记录日志:access_log off;

使用默认combined格式记录日志:access_log logs/access.log 或 access_log logs/access.log combined;

值得注意的是,Nginx进程设置的用户和组必须对日志路径有创建文件的权限,否则,会报错。

此外,对于每一条日志记录,都将是先打开文件,再写入日志,然后关闭。可以使用open_log_file_cache来设置日志文件缓存(默认是off)。

日志文件切割

nginx日志默认情况下统统写入到一个文件中,文件会变的越来越大,非常不方便查看分析。以日期来作为日志的切割是比较好的,通常我们是以每日来做统计的。下面来说说nginx日志切割。

手动切割

到logs目录中,先备份日志文件,在重新生成日志文件

mv access.log access_20180124.log

kill -USR1 pid进程号 #向 Nginx 主进程发送 USR1 信号。USR1 信号是重新打开日志文件

手动切割明显不现实,不可能人工做切割,但他们给我们提供了思路,就是每天备份日志,日志名加上日期维度,然后重新打开日志文件就行

系统自动切割

利用sh脚本的方式执行刚才的手动操作,在每天凌晨执行一个计划任务 调用sh脚本,就完成的系统自动切割日志文件

编写脚本

在nginx目录下logs目录

# touch cutlog.sh脚本

# vi cutlog.sh

#!/bin/bash

LOGS_PATH=/usr/local/nginx/logs

YESTERDAY=$(date -d "yesterday" +%Y-%m-%d)

mv ${LOGS_PATH}/access.log ${LOGS_PATH}/access_${YESTERDAY}.log

kill -USR1 $(cat /usr/local/nginx/nginx.pid) # 向 Nginx 主进程发送 USR1 信号。USR1 信号是重新打开日志文件

以上脚本就是做了手动切割的时候,现在只剩下我们配置一个计划任务,每天凌晨调用这个sh脚本就ok了

设置定时任务

# vi /etc/crontab

0 0 * * * root /usr/local/nginx/logs/cutlog.sh

表示配置一个定时任务,定时每天00:00以root身份执行脚本/usr/local/nginx/logs/cutlog.sh,实现定时自动分割Nginx日志

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表