《预防手残 Velero 集群备份部署 初见!》

pre-post()

虽然很早之前就有过用 Velero 对K8S集群备份的了解,但一直没有实施部署,导致由于手欠/BUG对我的K8S造成了一定程度的打击,虽然最后也恢复业务运行了,但着实花了不少时间,而且如果稍微不留神可能会有对整个业务宕机的风险,所以今天就把 Velero 部署起来,并记录一下遇到的一些问题

本文编写使用的环境:

OS: macOS BigSur
Kubernetes: v1.21.2
Velero: v1.6.1

我们照着官网的教程来进行安装,由于踩过网上搜的教程的坑,所以这里以我正确安装的步骤为记录,跳过部分坑

快速扩容 Node 的 podCIDR IP范围

pre-post()

为了更好的压榨节点(因为穷买不起第二台), 所以在单台机器上跑了更多的服务,从而导致了更多的pod需要IP分配,而超量则产生了一个异常 failed to allocate for range 0: no IP addresses available in range set, 节点默认安装下来是 /16 的段,而每个节点会分到 /24 段,这意味着每个节点最多可分配 256 个 POD IP,这对于我这种精扒皮来说远远不够,所以就需要对节点的IP段进行扩容,让每个节点能分到更多的IP

关于《Kubernetes 混合云用Kilo解决NAT节点通讯的问题》的那件事

pre-post()

最近有在学习K8S相关,同时也将自己的所有服务全部都迁移到了K8S集群上,感受到K8S强大的同时也能明显感受到对于我这种一般用户环境的部署不是很友好,例如建议的高可用集群至少要有 三台 Master, 三台 Worker, 对我这种 穷逼 普通玩家来说是很高昂的,但经过几次实践把生产环境搞炸几次后觉得这是有必要的(哭),但我的想法是用K8S作为我主要部署方式,所以还是非常高昂的,像我这种为了能够管理所有节点但是又不会重度使用K8S的,这里推荐 K3S 来代替K8S作为要求不高的生产环境,不过这篇文章还是用完整的K8S来做,但理论上 K3S 是完全通用的。