来自: https://www.hi-linux.com/posts/21466.html
官网; https://helm.sh/docs/developing_charts/
Helm 是 Kubernetes 生态系统中的一个软件包管理工具。本文将介绍 Helm 中的相关概念和基本工作原理,并通过一个具体的示例学习如何使用 Helm 打包、分发、安装、升级及回退 Kubernetes 应用。
Kubernetes 是一个提供了基于容器的应用集群管理解决方案,Kubernetes 为容器化应用提供了部署运行、资源调度、服务发现和动态伸缩等一系列完整功能。
Kubernetes 的核心设计理念是: 用户定义要部署的应用程序的规则,而 Kubernetes 则负责按照定义的规则部署并运行应用程序。如果应用程序出现问题导致偏离了定义的规格,Kubernetes 负责对其进行自动修正。例如:定义的应用规则要求部署两个实例(Pod),其中一个实例异常终止了,Kubernetes 会检查到并重新启动一个新的实例。
用户通过使用 Kubernetes API 对象来描述应用程序规则,包括 Pod、Service、Volume、Namespace、ReplicaSet、Deployment、Job等等。一般这些资源对象的定义需要写入一系列的 YAML 文件中,然后通过 Kubernetes 命令行工具 Kubectl 调 Kubernetes API 进行部署。
以一个典型的三层应用 Wordpress 为例,该应用程序就涉及到多个 Kubernetes API 对象,而要描述这些 Kubernetes API 对象就可能要同时维护多个 YAML 文件。
从上图可以看到,在进行 Kubernetes 软件部署时,我们面临下述几个问题:
Helm 的出现就是为了很好地解决上面这些问题。
Helm 是 Deis 开发的一个用于 Kubernetes 应用的包管理工具,主要用来管理 Charts。有点类似于 Ubuntu 中的 APT 或 CentOS 中的 YUM。
Helm Chart 是用来封装 Kubernetes 原生应用程序的一系列 YAML 文件。可以在你部署应用的时候自定义应用程序的一些 Metadata,以便于应用程序的分发。
对于应用发布者而言,可以通过 Helm 打包应用、管理应用依赖关系、管理应用版本并发布应用到软件仓库。
对于使用者而言,使用 Helm 后不用需要编写复杂的应用部署文件,可以以简单的方式在 Kubernetes 上查找、安装、升级、回滚、卸载应用程序。
Helm 是一个命令行下的客户端工具。主要用于 Kubernetes 应用程序 Chart 的创建、打包、发布以及创建和管理本地和远程的 Chart 仓库。
Tiller 是 Helm 的服务端,部署在 Kubernetes 集群中。Tiller 用于接收 Helm 的请求,并根据 Chart 生成 Kubernetes 的部署文件( Helm 称为 Release ),然后提交给 Kubernetes 创建应用。Tiller 还提供了 Release 的升级、删除、回滚等一系列功能。
Helm 的软件包,采用 TAR 格式。类似于 APT 的 DEB 包或者 YUM 的 RPM 包,其包含了一组定义 Kubernetes 资源相关的 YAML 文件。
Helm 的软件仓库,Repository 本质上是一个 Web 服务器,该服务器保存了一系列的 Chart 软件包以供用户下载,并且提供了一个该 Repository 的 Chart 包的清单文件以供查询。Helm 可以同时管理多个不同的 Repository。
使用 helm install
命令在 Kubernetes 集群中部署的 Chart 称为 Release。
注:需要注意的是:Helm 中提到的 Release 和我们通常概念中的版本有所不同,这里的 Release 可以理解为 Helm 使用 Chart 包部署的一个应用实例。
这张图描述了 Helm 的几个关键组件 Helm(客户端)、Tiller(服务器)、Repository(Chart 软件仓库)、Chart(软件包)之间的关系。
Chart Install 过程
Chart Update 过程
Chart Rollback 过程
Chart 处理依赖说明
Tiller 在处理 Chart 时,直接将 Chart 以及其依赖的所有 Charts 合并为一个 Release,同时传递给 Kubernetes。因此 Tiller 并不负责管理依赖之间的启动顺序。Chart 中的应用需要能够自行处理依赖关系。
Helm 的安装方式很多,这里采用二进制的方式安装。更多安装方法可以参考 Helm 的官方帮助文档。
v2 版本有 helm init v3 版本已经去除了 helm init 使用别的方法代替需要注意
下载地址: https://github.com/helm/helm/releases
1.需要先创建 rbac 账户 yaml 文件在 https://github.com/helm/helm/blob/master/docs/rbac.md 查看
Download your desired version //可执行文件 helm 放在 bin 目录下 Unpack it (tar -zxvf helm-v2.0.0-linux-amd64.tgz) Find the helm binary in the unpacked directory, and move it to its desired destination (mv linux-amd64/helm /usr/local/bin/helm)
2. 安装
//安装服务端的 tiller ,由于镜像无法获取 google 从阿里云找下
[root@kube linux-amd64]# helm init --upgrade --tiller-image registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:v2.9.1 --stable-repo-url https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts $HELM_HOME has been configured at /root/.helm. Tiller (the Helm server-side component) has been upgraded to the current version. [root@kube linux-amd64]#
3.查看安装情况
[root@kube linux-amd64]# kubectl get deploy -n kube-system NAME READY UP-TO-DATE AVAILABLE AGE coredns 1/2 2 1 66d kubernetes-dashboard 1/1 1 1 10d tiller-deploy 1/1 1 1 160m [root@kube linux-amd64]# kubectl get pods -n kube-system NAME READY STATUS RESTARTS AGE coredns-5c98db65d4-2k2pz 0/1 Running 17195 66d coredns-5c98db65d4-4wpvc 1/1 Running 0 66d etcd-kube.master 1/1 Running 0 66d kube-apiserver-kube.master 1/1 Running 0 66d kube-controller-manager-kube.master 1/1 Running 0 66d kube-flannel-ds-amd64-4njmq 1/1 Running 0 66d kube-flannel-ds-amd64-5kp2q 1/1 Running 0 66d kube-flannel-ds-amd64-f6jmf 1/1 Running 0 65d kube-proxy-nmgsk 1/1 Running 0 65d kube-proxy-snfh9 1/1 Running 0 66d kube-proxy-vgmmd 1/1 Running 0 66d kube-scheduler-kube.master 1/1 Running 0 66d kubernetes-dashboard-7d75c474bb-b5wv9 1/1 Running 0 10d tiller-deploy-7d75d56c7d-f9h7b 1/1 Running 0 29m [root@kube linux-amd64]# helm version Client: &version.Version{SemVer:"v2.14.3", GitCommit:"0e7f3b6637f7af8fcfddb3d2941fcc7cbebb0085", GitTreeState:"clean"} Server: &version.Version{SemVer:"v2.9.1", GitCommit:"20adb27c7c5868466912eebdf6664e7390ebe710", GitTreeState:"clean"} [root@kube linux-amd64]#
4.卸载
helm reset //可以卸载 tiller
下面我们通过一个完整的示例来学习如何使用 Helm 创建、打包、分发、安装、升级及回退Kubernetes应用。
该命令创建了一个 mychart 目录,该目录结构如下所示。这里我们主要关注目录中的 Chart.yaml、values.yaml、NOTES.txt 和 Templates 目录。
[root@kube helm]# pwd /root/k8s/helm [root@kube helm]# helm create mychart Creating mychart [root@kube helm]# ls mychart rbac-config.yaml [root@kube helm]# tree mychart/ mychart/ ├── charts ├── Chart.yaml ├── templates │ ├── deployment.yaml │ ├── _helpers.tpl │ ├── ingress.yaml │ ├── NOTES.txt │ ├── service.yaml │ └── tests │ └── test-connection.yaml └── values.yaml 3 directories, 8 files [root@kube helm]#
Templates 目录下 YAML 文件模板的值默认都是在 values.yaml 里定义的,比如在 deployment.yaml 中定义的容器镜像。
1.安装
[root@kube helm]# helm install --name helm-test1 stable/nginx-ingress
2.删除
[root@kube helm]# helm delete helm-test1 release "helm-test1" deleted
虽然我们已经打包了 Chart 并发布到了 Helm 的本地目录中,但通过 helm search
命令查找,并不能找不到刚才生成的 mychart包。
1
|
$ helm search mychart
|
这是因为 Repository 目录中的 Chart 包还没有被 Helm 管理。通过 helm repo list
命令可以看到目前 Helm 中已配置的 Repository 的信息。
1
|
$ helm repo list
|
注:新版本中执行 helm init 命令后默认会配置一个名为 local 的本地仓库。
我们可以在本地启动一个 Repository Server,并将其加入到 Helm Repo 列表中。Helm Repository 必须以 Web 服务的方式提供,这里我们就使用 helm serve
命令启动一个 Repository Server,该 Server 缺省使用 $HOME/.helm/repository/local
目录作为 Chart 存储,并在 8879 端口上提供服务。
1
|
$ helm serve &
|
默认情况下该服务只监听 127.0.0.1,如果你要绑定到其它网络接口,可使用以下命令:
1
|
$ helm serve --address 192.168.100.211:8879 &
|
如果你想使用指定目录来做为 Helm Repository 的存储目录,可以加上 --repo-path
参数:
1
|
$ helm serve --address 192.168.100.211:8879 --repo-path /data/helm/repository/ --url http://192.168.100.211:8879/charts/
|
通过 helm repo index
命令将 Chart 的 Metadata 记录更新在 index.yaml 文件中:
1
|
# 更新 Helm Repository 的索引文件
|
完成启动本地 Helm Repository Server 后,就可以将本地 Repository 加入 Helm 的 Repo 列表。
1
|
$ helm repo add local http://127.0.0.1:8879
|
现在再次查找 mychart 包,就可以搜索到了。
1
|
$ helm repo update
|
# 部署时需指定 Chart 名及 Release(部署的实例)名。 [root@kube archive]# helm install local/mychart --name helm1-1 NAME: helm1-1 LAST DEPLOYED: Mon Sep 16 17:00:21 2019 NAMESPACE: default STATUS: DEPLOYED RESOURCES: ==> v1/Deployment NAME READY UP-TO-DATE AVAILABLE AGE helm1-1-mychart 0/1 1 0 0s ==> v1/Pod(related) NAME READY STATUS RESTARTS AGE helm1-1-mychart-d85f548d9-rsb7f 0/1 Pending 0 0s ==> v1/Service NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE helm1-1-mychart ClusterIP 10.98.227.192 <none> 80/TCP 0s NOTES: 1. Get the application URL by running these commands: export POD_NAME=$(kubectl get pods --namespace default -l "app.kubernetes.io/name=mychart,app.kubernetes.io/instance=helm1-1" -o jsonpath="{.items[0].metadata.name}") echo "Visit http://127.0.0.1:8080 to use your application" kubectl port-forward $POD_NAME 8080:80 [root@kube archive]#
原文:https://www.cnblogs.com/zy09/p/11528651.html