文章目录

一、分析容器系统调用:Sysdig1.1. 安装1.2 常用参数1.3 采集分析1.4 示例1.4.1 查看某进程系统调用事件1.4.2 查看建立TCP连接事件1.4.3 查看某目录下打开的文件描述符1.4.4 查看容器的系统调用

1.5 Chisels工具1.5.1 网络类1.5.2 硬盘类1.5.3 cpu类1.5.4 容器类1.5.5 示例

二、监控容器运行时:Falco2.1 安装2.2 规则参数2.3 默认规则2.3.1 规则一2.3.2 规则二2.3.3 规则三

2.4 自定义规则2.5 告警输出2.5.1 输出为日志文件2.5.2 web展示

三、K8s审计日志3.1 事件阶段3.2 日志输出方式3.3 审核策略3.3.1 日志级别3.3.2 日志格式3.3.3 启用审计日志3.3.4 编写策略

3.4 案例13.5 案例2

一、分析容器系统调用:Sysdig

基本了解:

我们常常监控分析linux系统上的资源情况时会使用到一些工具,比如strace(诊断调试)、tcpdump(网络数据采集分析)、htop(系统性能监测)、iftop(网络流量、TCP/IP连接)、lsof (列出当前系统中进程打开的所有文件)。而Sysdig就是把这些功能汇聚在一起,成为一个非常强大的系统监控、分析和故障排查工具。项目地址说明文档

Sysdig功能作用:

获取系统资源利用率、进程、网络连接、系统调用等信息。具备分析能力,对采集的数据进行分析排序,例如:

按照CPU使用率对进程排序。按照数据包对进程排序。打开最多的文件描述符进程。查看进程打开了哪些文件。查看进程的HTTP请求报文。查看机器上容器列表及资源使用情况。

工作流程:

如下图,Sysdig在下方的linux内核态注册一个驱动模块,当上方的用户态对内核态进行系统调用时,Sysdig会把系统调用的信息拷贝到特定的buffer缓存区,随后用户态组件再对数据信息处理(解压、解析、过滤等),并最终通过 sysdig 命令行和用户进行交互。

1.1. 安装

1.导入官方yum源的key,下载官方draios源。

[root@k8s-node1 ~]# rpm --import https://s3.amazonaws.com/download.draios.com/DRAIOS-GPG-KEY.public

[root@k8s-node1 ~]# curl -s -o /etc/yum.repos.d/draios.repo https://s3.amazonaws.com/download.draios.com/stable/rpm/draios.repo

2.配置epel源的目的是需要安装dkms依赖包,后安装sysdig。

[root@k8s-node1 ~]# yum install epel-release -y

[root@k8s-node1 ~]# yum install sysdig -y

3.加载到内核中,加载成功可以查看到scap驱动模块。

[root@k8s-node1 ~]# scap-driver-loader

1.2 常用参数

参数释义-L, --list列出可用于过滤和输出的字段。-M < num_seconds >多少秒后停止收集。-p < output_format>, --print=< output_format>,使用-pc或-pcontainer 容器友好的格式,使用-pk或-pkubernetes k8s友好的格式指定打印事件时使用的格式。-c < chiselname > < chiselargs >指定内置工具,可直接完成具体的数据聚合、分析工作。-w < filename >保存到文件中,特定格式,要用sysdig打开。-r < filename >从文件中读取。

1.3 采集分析

采集数据示例:

59509 23:59:19.023099531 0 kubelet (1738) < epoll_ctl

采集数据格式:

%evt.num %evt.outputtime %evt.cpu %proc.name (%thread.tid) %evt.dir %evt.type %evt.info

字段说明:

evt.num: 递增的事件号。evt.time: 事件发生的时间。evt.cpu: 事件被捕获时所在的 CPU,也就是系统调用是在哪个 CPU 执行的。proc.name: 生成事件的进程名字。thread.tid: 线程的 id,如果是单线程的程序,这也是进程的 pid。evt.dir: 事件的方向(direction),> 代表进入事件,< 代表退出事件。evt.type: 事件的名称,比如 open、stat等,一般是系统调用。evt.args: 事件的参数。如果是系统调用,这些对应着系统调用的参数

1.采集系统调用事件。

65611 05:29:20.772919597 1 sshd (22944.22944) > write fd=3(<4t>192.168.130.1:58986->192.168.130.147:22) size=4148

第一列(65611):事件编号,从1开始记录。

第二列(05:29:20.772919597):时间。

第三列(1):进程当前工作所在的cpu编号,从0开始。

第四列(sshd):进程名称。

第五列(22944.22944) :括号里是线程id,两个数值相同说明就一个线程。

第六列( > ): 进入事件,<代表退出事件。

第七列(write):事件名称。

第八列:事件信息,fd=3 是指打开的文件描述符是3,这里就是建立了一条TCP链接。

2.自定义过滤条件采集数据,对系统调用的事件编号和cpu进行采集1秒。

[root@k8s-node1 ~]# sysdig -M 1 -p "%evt.num,%evt.cpu"

1.4 示例

sysdig常用过滤目标:

fd:根据文件描述符过滤,比如 fd 标号(fd.num)、fd 名字(fd.name)process:根据进程信息过滤,比如进程 id(proc.id)、进程名(proc.name)evt:根据事件信息过滤,比如事件编号、事件名user:根据用户信息过滤,比如用户 id、用户名、用户 home 目录syslog:根据系统日志过滤,比如日志的严重程度、日志的内容container:根据容器信息过滤,比如容器ID、容器名称、容器镜像

支持运算操作符:

=、!=、>=、>、<、<=、contains、in 、exists、and、or、not

1.4.1 查看某进程系统调用事件

1.查看kubelet进程的系统调用。

[root@k8s-node1 ~]# sysdig proc.name=kubelet

2.查看calico进程的系统调用。

[root@k8s-node1 ~]# sysdig proc.name=calico

1.4.2 查看建立TCP连接事件

tcp三次握手时,有个标识是accept。

[root@k8s-node1 ~]# sysdig evt.type=accept

1.4.3 查看某目录下打开的文件描述符

1.查看/etc/当前目录下打开的文件描述符。 2.查看/etc/目录下所有目录打开的文件描述符。

[root@k8s-node1 ~]# sysdig fd.name contains /etc

1.4.4 查看容器的系统调用

测试一:查看web1容器的系统调用,进入容器时就会有bash进程。

[root@k8s-node1 ~]# sysdig container.name=web1

测试二:请求nginx,查看请求时的系统调用。

1.客户端请求nginx连接。

[root@k8s-node1 etc]# curl 172.17.0.2

2.查看该nginx容器的处理系统调用。

[root@k8s-node1 ~]# sysdig container.name=web1

调用流程:

epoll多路复用。与该nginx容器建立tcp三次握手,文件描述符为13。epoll处理请求文件,recvfrom请求会打开文件描述符13。stat获取html文件状态,openat打开html文件,并提取其中内容返回给客户端,客户端直接在网页上渲染出来。writev往tcp连接通道发送数据,并相应数据返回200。sendfile优化响应文件时的工作的性能,是nginx的特性。write fd=6写入日志。sersockopt 关闭fd=13,防止频繁打开提高工作效率。close 关闭fd=13 ,一套流程走完。

1.5 Chisels工具

Chisels是个实用的工具箱,一组预定义的功能集合,用来分析特定的场景。sysdig –cl 列出所有Chisels,常用的如下:

topprocs_cpu:输出按照 CPU 使用率排序的进程列表topprocs_net:输出进程使用网络TOPtopprocs_file:进程读写磁盘文件TOPtopfiles_bytes:读写磁盘文件TOPnetstat:列出网络的连接情况

1.5.1 网络类

命令释义sysdig -c topprocs_net查看使用网络的进程TOPsysdig -c fdcount_by fd.sport “evt.type=accept” -M 10查看建立连接的端口sysdig -c fdbytes_by fd.sport查看建立连接的端口sysdig -c fdcount_by fd.cip “evt.type=accept” -M 10查看建立连接的IPsysdig -c fdbytes_by fd.cip查看建立连接的IP

1.5.2 硬盘类

明林释义sysdig -c topprocs_file查看进程磁盘I/O读写sysdig -c fdcount_by proc.name “fd.type=file” -M 10查看进程打开的文件描述符数量sysdig -c topfiles_bytessysdig -c topfiles_bytes proc.name=etcd查看读写磁盘文件sysdig -c fdbytes_by fd.filename “fd.directory=/tmp/”查看/tmp目录读写磁盘活动文件

1.5.3 cpu类

命令释义sysdig -c topprocs_cpu查看CPU使用率TOPsysdig -pc -c topprocs_cpu container.name=websysdig -pc -c topprocs_cpu container.id=web查看容器CPU使用率TOP

1.5.4 容器类

命令释义csysdig –vcontainers查看机器上容器列表及资源使用情况sysdig -c topcontainers_cpu/topcontainers_net/topcontainers_file查看容器资源使用TOP

1.5.5 示例

1.查看当前系统cpu使用占比最高的进程。

[root@k8s-node1 ~]# sysdig -c topprocs_cpu

2.查看网络。

[root@k8s-node1 ~]# sysdig -c topprocs_net

3.查看哪些进程在磁盘读写。

[root@k8s-node1 ~]# sysdig -c topprocs_file

4.查看哪些文件在磁盘读写。

[root@k8s-node1 ~]# sysdig -c topfiles_bytes

5.查看端口被链接的数量。 6.查兰容器里的进程的cpu使用情况。

[root@k8s-node1 ~]# sysdig -pc -c topprocs_cpu container.name=web1

7.查看本机所有容器的资源使用情况。

[root@k8s-node1 ~]# csysdig

二、监控容器运行时:Falco

基本了解:

Falco 是一个 Linux 安全工具,它使用系统调用来保护和监控系统。Falco最初由Sysdig开发,后来加入CNCF孵化器,成为首个加入CNCF的运行时安全项目。Falco提供了一组默认规则,可以监控内核态的异常行为,例如:

对于系统目录/etc, /usr/bin, /usr/sbin的读写行为。文件所有权、访问权限的变更。从容器打开shell会话。容器生成新进程。特权容器启动。

工作流程:

将falco注册成系统模块采集系统调用。规则引擎根据判断收集的系统调用是否违反了规则,通知给用户处理。支持k8s发送的审计日志。

2.1 安装

安装文档

1.安装官方源和epel源,有个依赖模块。

[root@k8s-node1 ~]# rpm --import https://falco.org/repo/falcosecurity-3672BA8F.asc

[root@k8s-node1 ~]# curl -s -o /etc/yum.repos.d/falcosecurity.repo https://falco.org/repo/falcosecurity-rpm.repo

[root@k8s-node1 ~]# yum install epel-release -y

[root@k8s-node1 ~]# yum update

[root@k8s-node1 ~]# yum install falco -y

[root@k8s-node1 ~]# falco-driver-loader ##加载到系统内核。

2.查看falco默认安装目录。

falco.yaml:falco配置与输出告警通知方式。falco_rules.yaml:规则文件,默认已经定义很多威胁场景。falco_rules.local.yaml:自定义扩展规则文件。k8s_audit_rules.yaml:K8s审计日志规则

3.启动服务。

[root@k8s-node1 falco]# systemctl start falco-custom.service

2.2 规则参数

示例:

- rule: The program "sudo" is run in a container

desc: An event will trigger every time you run sudo in a container

condition: evt.type = execve and evt.dir=< and container.id != host and proc.name = sudo

output: "Sudo run in container (user=%user.name %container.info parent=%proc.pnamecmdline=%proc.cmdline)"

priority: ERROR

tags: [users, container]

参数说明:

rule:规则名称,唯一。desc:规则的描述。condition: 条件表达式。output:符合条件事件的输出格式。priority:告警的优先级。tags:本条规则的 tags 分类

2.3 默认规则

威胁场景:

监控系统二进制文件目录读写(默认规则)。监控根目录或者/root目录写入文件(默认规则)。监控运行交互式Shell的容器(默认规则)。监控容器创建的不可信任进程(自定义规则)

验证:

tail -f /var/log/messages(告警通知默认输出到标准输出和系统日志)

2.3.1 规则一

1.查看默认的规则。

[root@k8s-node1 falco]# vim falco_rules.yaml

2.验证默认规则。在系统二进制文件目录下创建一个文件,查看输入的日志。

2.3.2 规则二

1.查看默认规则。 2.验证默认规则。在root目录或根目录下创建文件,则会触发威胁,查看系统日志。

2.3.3 规则三

1.查看默认规则。 2.验证默认规则。进入容器触发规则,查看系统日志。

2.4 自定义规则

监控容器创建的不可信任进程规则:

- rule: Unauthorized process on nginx containers

condition: spawned_process and container and container.image startswith nginx and not proc.name in (nginx)

desc: test

output: "Unauthorized process on nginx containers (user=%user.name container_name=%container.name container_id=%container.id image=%container.image.repository shell=%proc.name parent=%proc.pname cmdline=%proc.cmdline terminal=%proc.tty)"

priority: WARNING

condition表达式解读:

spawned_process:运行新进程。container:指容器。container.image startswith nginx:以nginx开头的容器镜像。not proc.name in (nginx):不属于nginx的进程名称(允许进程名称列表)

1.定义规则,重启服务。

[root@k8s-node1 falco]# cat falco_rules.local.yaml

# Your custom rules!

- rule: test

condition: spawned_process and container and container.image startswith nginx and not proc.name in (nginx)

desc: test

output: "有异常容器启动运行 (container_name=%container.name shell=%proc.name parent=%proc.pname)"

priority: WARNING

[root@k8s-node1 falco]# systemctl restart falco-custom

2.测试效果,进入容器随便操作几步。

3.打开系统文件,测试查看实时日志,可以收集到我刚刚的操作产生的系统调用。

2.5 告警输出

五种输出告警通知的方式:

输出到标准输出(默认启用),stdout_output。输出到文件,file_output。输出到系统日志(默认启用),sysout_output。输出到HTTP服务。输出到其他程序(命令行管道方式)

2.5.1 输出为日志文件

1.修改falso配置文件,关闭默认启用的两种输出方式,自定义以文件输出。

[root@k8s-node1 falco]# vim /etc/falco/falco.yaml … file_output: enabled: true keep_alive: false ##开启代表先把收集的日志放在缓存区,达到一定量再写入文件里。 filename: /var/log/falco_events.log

2.重启服务。

[root@k8s-node1 falco]# systemctl restart falco-custom

3.测试效果,进入容器触发规则,查看日志输出在我们自定义的文件里。

2.5.2 web展示

基本了解:

FalcoSideKick:一个集中收集并指定输出,支持大量方式输出,例如Influxdb、Elasticsearch等。项目地址FalcoSideKick-UI:告警通知集中图形展示系统。项目地址

流程示意图:

每个服务器部署falco收集系统调用。部署falcosidekick程序,收集每台服务器上的falco的系统调用信息。通过falcosidekick-ui程序来集中展示在web页面。告警通道:Slack/Altermanager/SMTP等

1.部署展示程序,UI访问地址:http://192.168.130.145:2802/ui/。

docker run -d \

-p 2802:2802 \

--name falcosidekick-ui \

falcosecurity/falcosidekick-ui

2.部署收集程序,指定展示程序地址。

docker run -d \

-p 2801:2801 \

--name falcosidekick \

-e WEBUI_URL=http://192.168.130.145:2802 \ ##UI程序地址。

falcosecurity/falcosidekick

3.修改falco配置文件指定http方式输出,更改为json输出格式,重启服务。

[root@k8s-node1 falco]# vim falco.yaml

......

json_output: true

......

http_output:

enabled: true

url: "http://192.168.130.145:2801/" ##收集程序地址。

user_agent: "falcosecurity/falco"

[root@k8s-node1 falco]# systemctl restart falco-custom

4.此时再次查看web页面,显示所有服务器上收集出发规则的系统调用。

三、K8s审计日志

K8s审计日志作用:

在K8s集群中,API Server的审计日志记录了哪些用户、哪些服务请求操作集群资源,并且可以编写不同规则控制忽略、存储的操作日志。审计日志采用JSON格式输出,每条日志都包含丰富的元数据,例如请求的URL、HTTP方法、客户端来源等,可以使用监控服务来分析API流量,以检测趋势或可能存在的安全隐患。

可能会访问API Server的服务:

管理节点(controller-manager、scheduler)工作节点(kubelet、kube-proxy)集群服务(CoreDNS、Calico、HPA等)kubectl、API、Dashboard、calico等外部组件。

收集审计日志方案:

审计日志文件+filebeat。审计webhook+logstash。审计webhook+falco将审计日志以本地日志文件方式保存,Fluentd工具采集日志并存储到es中,用Kibana对其进行展示和查询。用Logstash采集Webhook后端的审计事件,通过Logstash将来自不同用户的事件保存为文件,或将数据发送到后端存储es。

注意事项:

每个节点上收集的审计日志内容不同,比如master1上开启了审计日志,master2没开启,当pod被分配到master2时就不会记录审计日志。日志规则是从上往下挨个走,比如上面规则是对pod限制的,下面的一个规则也是对pod的,那最终就会按照上面的规则走,下面规则不会生效。开启审计功能会增加API Server的内存消耗量,因为此时需要额外的内存来存储每个请求的审计上下文数据,而增加的内存量与审计功能的配置有关,比如更详细的审计日志所需的内存更多。

3.1 事件阶段

基本了解:

当客户端向 API Server发出请求时,该请求将经历一个或多个阶段。每个请求在不同执行阶段都会生成审计事件;这些审计事件会根据特定策略 被预处理并写入后端。策略确定要记录的内容和用来存储记录的后端。比如客户端只想拿个请求头的内容,那么就直接在request received阶段编写规则就行,不需要再往后执行,可以提高性能。

请求阶段流程图:

阶段说明RequestReceived审核处理程序已收到请求。ResponseStarted已发送响应标头,但尚未发送响应正文。ResponseComplete响应正文已完成,不再发送任何字节。Panic内部服务器出错,请求未完成。

3.2 日志输出方式

输出为本地文件存储。需要在apiserver配置文件添加以下参数。

–audit-policy-file:日志审核策略文件路径。–audit-log-path:审计日志文件输出路径。不指定此标志会禁用日志后端,意味着标准化。–audit-log-maxage:定义保留旧审计日志文件的最大天数。–audit-log-maxbackup:定义要保留的审计日志文件的最大数量。–audit-log-maxsize:定义审计日志文件轮转之前的最大大小(兆字节)。 发送给Webhook Server。需要在kube-apiserver配置文件添加以下参数,并且需要在Webhook 配置文件使用 kubeconfig 格式指定服务的远程地址和用于连接它的凭据。

–audit-webhook-config-file:设置 Webhook 配置文件的路径。Webhook 配置文件实际上是一个 kubeconfig 文件。–audit-webhook-initial-backoff:指定在第一次失败后重发请求等待的时间。随后的请求将以指数退避重试。–audit-webhook-mode:确定采用哪种模式回调通知。

batch:批量模式,缓存事件并以异步批量方式通知,是默认的工作模式。blocking:阻塞模式,事件按顺序逐个处理,这种模式会阻塞API Server的响应,可能导致性能问题。blocking-strict:与阻塞模式类似,不同的是当一个Request在RequestReceived阶段发生审计失败时,整个Request请求会被认为失败。

3.3 审核策略

基本了解:

K8s审核策略文件包含一系列规则,描述了记录日志的级别,采集哪些日志,不采集哪些日志。审核策略合适和rbac授权格式相同,也是写什么组里的什么资源要做什么动作。

注意事项:

审计日志有级别之分,可以根据个人需求采集不同的信息,避免消耗资源。审计日志是支持写入本地文件和Webhook(发送到外部HTTP API)两种方式,可以和logstach配合玩。启用审计日志时,需要指定几个参数,比如策略文件地址、日志输出地址、输出日志大小等等,同时还需要把策略文件和日志挂载到宿主机,因为是以容器方式运行,所以需要做持久化输出。

3.3.1 日志级别

请求正文指post请求,比如apply、create动作请求。相应正文,比如get动作请求。

级别说明None不为事件创建日志条目。Metadata创建日志条目。包括元数据,但不包括请求正文或响应正文。Request创建日志条目。包括元数据和请求正文,但不包括响应正文。RequestResponse创建日志条目。包括元数据、请求正文和响应正文。

3.3.2 日志格式

审计日志属性:表明请求哪个API、事件id、请求方法。用户信息:用哪个身份进来的。客户端IP:从哪台机器过来请求的。用户标识对象:想访问哪个资源、资源名称、所在命名空间、所在组。响应状态:返回状态。时间注释:响应时间。

3.3.3 启用审计日志

指定参数释义audit-policy-file审计日志策略文件audit-log-path审计日志输出文件audit-log-maxage审计日志保留的最大天数audit-log-maxbackup审计日志最大分片存储多少个日志文件audit-log-maxsize单个审计日志最大大小,单位MB

1.在apiserver配置文件里添加启用审计日志参数,并且挂载策略文件和输出的日志文件。

vi /etc/kubernetes/manifests/kube-apiserver.yaml

......

- --audit-policy-file=/etc/kubernetes/audit/audit-policy.yaml

- --audit-log-path=/var/log/k8s_audit.log

- --audit-log-maxage=30

- --audit-log-maxbackup=10

- --audit-log-maxsize=100

...

volumeMounts:

...

- mountPath: /etc/kubernetes/audit/audit-policy.yaml

name: audit

- mountPath: /var/log/k8s_audit.log

name: audit-log

volumes:

- name: audit

hostPath:

path: /etc/kubernetes/audit/audit-policy.yaml

type: File

- name: audit-log

hostPath:

path: /var/log/k8s_audit.log

type: FileOrCreate

3.3.4 编写策略

官方文档

3.4 案例1

1.创建日志策略存放目录/etc/kubernetes/audit,编写审计日志策略。

[root@k8s-master1 ~]# mkdir /etc/kubernetes/audit

[root@k8s-master1 ~]# cd /etc/kubernetes/audit/

[root@k8s-master1 audit]# cat audit-qingjun.yaml

apiVersion: audit.k8s.io/v1 ##必填项。

kind: Policy

# 不要在 RequestReceived 阶段为任何请求生成审计事件。

omitStages:

- "RequestReceived"

rules:

# 在日志中用 RequestResponse 级别记录 Pod 变化。

- level: RequestResponse

resources:

- group: ""

# 资源 "pods" 不匹配对任何 Pod 子资源的请求,

# 这与 RBAC 策略一致。

resources: ["pods"]

# 在日志中按 Metadata 级别记录 "pods/log"、"pods/status" 请求

- level: Metadata

resources:

- group: ""

resources: ["pods/log", "pods/status"]

# 不要在日志中记录对名为 "controller-leader" 的 configmap 的请求。

- level: None

resources:

- group: ""

resources: ["configmaps"]

resourceNames: ["controller-leader"]

# 不要在日志中记录由 "system:kube-proxy" 发出的对端点或服务的监测请求。

- level: None

users: ["system:kube-proxy"]

verbs: ["watch"]

resources:

- group: "" # core API 组

resources: ["endpoints", "services"]

# 不要在日志中记录对某些非资源 URL 路径的已认证请求。

- level: None

userGroups: ["system:authenticated"]

nonResourceURLs:

- "/api*" # 通配符匹配。

- "/version"

# 在日志中记录 kube-system 中 configmap 变更的请求消息体。

- level: Request

resources:

- group: "" # core API 组

resources: ["configmaps"]

# 这个规则仅适用于 "kube-system" 名字空间中的资源。

# 空字符串 "" 可用于选择非名字空间作用域的资源。

namespaces: ["kube-system"]

# 在日志中用 Metadata 级别记录所有其他名字空间中的 configmap 和 secret 变更。

- level: Metadata

resources:

- group: "" # core API 组

resources: ["secrets", "configmaps"]

# 在日志中以 Request 级别记录所有其他 core 和 extensions 组中的资源操作。

- level: Request

resources:

- group: "" # core API 组

- group: "extensions" # 不应包括在内的组版本。

# 一个抓取所有的规则,将在日志中以 Metadata 级别记录所有其他请求。

- level: Metadata

# 符合此规则的 watch 等长时间运行的请求将不会

# 在 RequestReceived 阶段生成审计事件。

omitStages:

- "RequestReceived"

2.编辑apiserver配置文件,指定日志策略文件、日志输出路径和日志轮转策略,并挂载策略文件和日志文件。

##添加以下几行。

[root@k8s-master1 ~]# vim /etc/kubernetes/manifests/kube-apiserver.yaml

- --audit-policy-file=/etc/kubernetes/audit/audit-qingjun.yaml

- --audit-log-path=/var/log/audit-qingjun.log

- --audit-log-maxage=30

- --audit-log-maxbackup=10

- --audit-log-maxsize=100

3.此时查看/var/log/qudit-qingjun.log日志文件,epel源安装jq,解析成json格式。

[root@k8s-master1 ~]# yum -y install jq

3.5 案例2

1.当审计日志规则文件内容变更后,需要重启apiserver服务才能使修改后的规则生效,可以重启apiserver容器或杀掉它的进程。

[root@k8s-master1 audit]# cat audit-qingjun.yaml

apiVersion: audit.k8s.io/v1

kind: Policy

omitStages:

- "RequestReceived"

rules:

- level: None ##不记录以下组件日志,每个组件都会用自己的用户去访问,根据用户来限制。

users:

- system:apiserver

- system:kube-controller-manager

- system:kube-scheduler

- system:kube-proxy

- kubelet

- level: Metadata ##记录pod资源的元数据级别日志。

resources:

- group: ""

resources: ["pods"]

- level: None ##不记录上面那些组件日志,只记录pod资源元数据级别日志之外的所有资源产生的日志都不记录。

2.重启apiserver容器。 3.生成一个pod再次测试,查看审计日志。 4.再解析成json格式查看。

echo ' ' |jq

5.添加多个策略,这里多添加了记录deployment资源的元数据、请求正文、响应正文的日志,重启apiserver容器再测试。 6.创建deploy资源再次测试,查看结果,可以看到资源类型、名称、对资源操作动作、还有容器相关信息。

查看原文