首页 > 其他 > 详细

HPA

时间:2020-12-07 14:36:17      阅读:24      评论:0      收藏:0      [点我收藏+]

HPA全名Horizontal Pod Autoscaling,既Pod水平自动伸缩。其基本原理的监控分析RC或者Deployment控制的所有的Pod的负载情况来确定是否需要调整Pod的副本数。

HPA在kubernetes集群中被设计成了一个controller,我们可以直接通过kubectl autoscale命令来创建一个HPA对象,HPA controller默认15s轮询一次,查询指定的资源中的Pod的使用率,并于创建时设定的指标做对比,从而实现自动伸缩的功能。

目前HPA可以从两个地方获取数据:

  1. Heapster:仅支持CPU使用率,需要安装https://github.com/kubernetes/heapster
  2. 自定义监控
  3. metrics-server

工作原理

  • K8s通过HPA,基于获取到的metrics(CPU utilization, custom metrics) value,对rc, deployment管理的pods进行自动伸缩。
  • HPA Controller周期性(默认每30s一次,可通过kube-controller-manager的flag--horizontal-pod-autoscaler-sync-period进行设置)的调整对应的rc, deployment中的replicas数量,使得指定的metrics value能匹配用户指定的target utilization value。
  • 在每个HPA Controller的处理周期中,kube-controller-manager都去查询HPA中定义的metrics的utilization。查询方式根据metric类型不同而不同:
    • 如果metric type是resource metrics,则通过resource metrics API查询。
    • 如果metric type属于custom metrics,则通过custom metrics API查询。
  • 计算伸缩比例算法:
    • 对于resource metrics,比如CPU,HPA Controller获取HPA中指定的metrics,如果HPA中设定了target utilization,则HPA Controller会将获取到的metrics除于对应的容器的resource request值作为监测到的当前pod的resource utilization。如此计算完所有HPA对应的pods后,对该resource utilization values取平均值。最后将平均值除于定义的target utilization,得到伸缩的比例。
    • 对于custome metrics,HPA Controller的伸缩算法几乎与resource metrics一样,不同的是:此时是根据custome metrics API查询到的metrics value对比target metics value计算得到的,而不是通过utilization计算得到的。
  • HPA与rc, deployment, pod的关系如下图所示。
    • HPA通过Scale sub-resource接口,对RC和Deployment的replicas进行控制。
    • HPA最终对Pod副本数的控制终归还是通过RC和Deployment控制器。

技术分享图片

HPA Controller有两种方式获取metrics:

  • direct Heapster access: 用于对resource metrics的监控,需要提前在kube-system namespace中部署Heapster。
  • REST client access: 用于对custom metrics的监控,需要设置kube-controller-manager的--horizontal-pod-autoscaler-use-rest-clients flag为true。

算法细节

从最基本的角度来看,pod 水平自动缩放控制器跟据当前指标和期望指标来计算缩放比例。

期望副本数 = ceil[当前副本数 * ( 当前指标 / 期望指标 )]

例如,当前指标为200m,目标设定值为100m,那么由于200.0 / 100.0 == 2.0, 副本数量将会翻倍。 如果当前指标为50m,副本数量将会减半,因为50.0 / 100.0 == 0.5。 如果计算出的缩放比例接近1.0(跟据--horizontal-pod-autoscaler-tolerance 参数全局配置的容忍值,默认为0.1), 将会放弃本次缩放。

例子:创建一个Deployment的Pod,然后利用HPA来实现自动扩缩容。

1、创建一个Deployment的YAML文件

apiVersion: apps/v1beta2
kind: Deployment
metadata:
  name: nginx-deploy-hpa
  labels:
    app: nginx-demo
spec:
  revisionHistoryLimit: 15
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: my-nginx
        image: nginx:1.7.9
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80

2、创建Deployment

kubectl apply -f nginx-deplo.yaml

3、创建HPA,用kubectl autoscale命令创建

kubectl autoscale deployment nginx-deploy-hpa --cpu-percent=10 --max=10
horizontalpodautoscaler.autoscaling/nginx-deploy-hpa autoscaled
kubectl get hpa
NAME               REFERENCE                     TARGETS         MINPODS   MAXPODS   REPLICAS   AGE
nginx-deploy-hpa   Deployment/nginx-deploy-hpa   <unknown>/10%   1         10        1          27s

YAML文件格式如下:

apiVersion: autoscaling/v1
kind: HorizontalPodAutoscaler
metadata:
  name: hpa-demo
spec:
  maxReplicas: 10
  minReplicas: 1
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: nginx-deploy
  targetCPUUtilizationPercentage: 55

HPA

原文:https://www.cnblogs.com/liang-io/p/14096455.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!