Linux Kubernetes 集群部署与调优

9次阅读

kubernetes 集群部署需三步:一、用 kubeadm 初始化集群,禁用 swap、安装 containerd、init 主节点并配置 kubeconfig;二、部署 flannel cni 插件实现 pod 跨节点通信;三、调优 kubelet 参数提升稳定性。

Linux Kubernetes 集群部署与调优

如果您计划在 Linux 环境中构建一个高可用、可扩展的容器编排平台,则 Kubernetes 集群的部署与调优是核心环节。以下是完成该任务的关键步骤:

一、使用 kubeadm 快速初始化集群

kubeadm 是官方推荐的轻量级集群引导工具,适用于生产前验证和中小规模部署,它将控制平面组件容器化并自动配置必要证书与网络策略。

1、在所有节点上禁用 swap 并配置内核参数:swapoff -a && sed -i ‘/swap/d’ /etc/fstab

2、安装 containerd 运行时并启用服务:apt-get install -y containerd && systemctl enable –now containerd

3、初始化主节点:kubeadm init –pod-network-cidr=10.244.0.0/16 –cri-socket=/run/containerd/containerd.sock

4、配置 kubeconfig 供 kubectl 使用:mkdir -p $HOME/.kube && cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

二、部署 CNI 网络插件(以 Flannel 为例)

Kubernetes 默认不提供 Pod 网络,必须部署兼容的 CNI 插件以实现跨节点通信;Flannel 采用 host-gw 模式时性能接近原生网络,适合扁平二层环境。

1、应用官方 Flannel 清单:kubectl apply -f https://github.com/flannel-io/flannel/releases/download/v0.24.2/kube-flannel.yml

2、确认 DaemonSet 正常运行:kubectl get ds -n kube-flannel

3、检查节点 Ready 状态:kubectl get nodes -o wide

三、配置 kubelet 启动参数以提升稳定性

kubelet 是节点上最关键的代理组件,其资源限制与健康检查行为直接影响 Pod 生命周期管理;通过 systemd 覆盖配置可避免默认值引发的驱逐或重启抖动。

1、创建覆盖目录:mkdir -p /etc/systemd/system/kubelet.service.d

2、写入自定义参数文件:echo ‘[Service]nEnvironment=”KUBELET_EXTRA_ARGS=–node-status-update-frequency=10s –eviction-hard=memory.available /etc/systemd/system/kubelet.service.d/10-kubelet-env.conf

3、重载并重启服务:systemctl daemon-reload && systemctl restart kubelet

四、启用静态 CPU 管理策略

对于延迟敏感型工作负载(如实时数据处理),需绕过默认的 CFS 调度器限制,为 Guaranteed 类 Pod 分配独占 CPU 核心,避免上下文切换干扰。

1、修改 kubelet 配置文件添加参数:–cpu-manager-policy=static –topology-manager-policy=single-numa-node

2、确保节点至少有 2 个 CPU 核心且未被其他进程绑定:lscpu | grep “CPU(s):”

3、部署 Pod 时设置 requests 和 limits 相等,并指定 cpu-shares 为 2048 或更高:resources: {requests: {cpu: “2”}, limits: {cpu: “2”}}

五、调整 etcd 存储性能参数

etcd 是 Kubernetes 的元数据存储中枢,I/O 延迟和磁盘吞吐能力直接决定集群响应速度;默认配置在高写入场景下易出现 proposal 阻塞。

1、为 etcd 数据目录挂载独立 SSD 并禁用 barrier:mount -o remount,barrier=0 /var/lib/etcd

2、启动 etcd 时增加性能相关参数:–quota-backend-bytes=8589934592 –max-snapshots=5 –max-wals=5

3、定期执行碎片整理:ETCDCTL_API=3 etcdctl –endpoints=localhost:2379 defrag

text=ZqhQzanResources