NodePort:在每个node上分配一个端口作为外部访问入口,端口建议固定,不要随机分配(可以通过每个节点外网IP访问,使用SLB绑定节点IP实现负载均衡)。
LoadBalancer:工作在特定的Cloud provider上。例如google cloud,AWS, OpenStack (不用我们自己配置SLB 里面的Node服务器,自己接入负载均衡)
service底层实现主要有Iptables和IPVS两种网络模式
Service代理
在kubernetes集群中,每个node运行一个kube-proxy进程。kube-proxy负责为Service实现一种VIP(虚拟IP)的形式。
cat /opt/kubernetes/cfg/kube-proxy.conf #node上设置代理模式
userspace代理模式
IpTables代理模式
相对于userspace模式,iptables模式在检测到分配的第一个pod链接失败后,会自动分配其他pod进行重试。
iptable会创建很多规则(更新,非增量)
iptable会从上到下逐条匹配(延迟大)
iptables -L #查看规则
IPVS代理模式
相对于iptables模式,iptables 是面向用户端口层面 IPVS模式 直接面向内核 效率更高,kube-proxy重定向通信延迟更短,同步代理规则性能更好,
ipvsadm -ln #查看ipvs规则
service.yaml
kubectl expose deployment nginx --type=NodePort --port=80 --target-port=80 --name=nginx-service -o yaml --dry-run #生成yaml
apiVersion: v1 #service api版本
kind: Service #设置为service
metadata: #元数据
creationTimestamp: null
labels:
run: nginx #标签
name: nginx-service #service名称
spec:
ports:
- port: 80 #service端口,用于集群内部访问的端口
protocol: TCP #协议tcp、udp
targetPort: 80 #容器内部应用的端口,例如ngin默认端口是8080
nodePort=30001 #设置nodeport端口,限定在30000-50000之间
selector:
run: nginx #关联的标签
type: NodePort #ClusterIP、NodePort、LoadBalancer三种类型
status:
loadBalancer: {}
多端口Service
使用多端口时候,必须提供所有端口的名称,使他们无歧义。
apiVersion: v1
kind: Service
metadata:
name: my-service
spec:
selector:
app: MyApp
ports:
- name: http #端口name1
protocol: TCP
port: 80
targetPort: 9376
- name: https #端口name2
protocol: TCP
port: 443
targetPort: 9377
集群内部DNS服务
Core DNS 是目前kubernetes系统内部默认的DNS服务。
在使用busybox 测试DNS 是 假设不是同一个namespace 可以使用 后面 svc.cluster.local 可以不填写。
原文:https://blog.51cto.com/1014810/2484784