service
?防止Pod失联
?定义一组Pod的访问策略
?支持ClusterIP,NodePort以及LoadBalancer三种类型
?Service的底层实现主要有iptables和ipvs二种网络模式
pod与service的关系:
?通过label-selector相关联
?通过Service实现Pod的负载均衡(TCP/UDP 4层)
每个 Node 运行一个 kube-proxy
进程。kube-proxy
负责为 Service
实现了一种 VIP(虚拟 IP)的形式
kube-proxy 这个组件始终监视着apiserver中有关service的变动信息,获取任何一个与service资源相关的变动状态,通过watch监视,一旦有service资源相关的变动和创建,kube-proxy都要转换为当前节点上的能够实现资源调度规则(例如:iptables、ipvs)
service代理模式
iptables代理模式:
客户端IP请求时,直接请求本地内核service ip,根据iptables的规则直接将请求转发到到各pod上,因为使用iptable NAT来完成转发,也存在不可忽视的性能损耗。另外,如果集群中存在上万的Service/Endpoint,那么Node上的iptables rules将会非常庞大,性能还会再打折扣。
ipvs代理模式:
客户端IP请求时到达内核空间时,根据ipvs的规则直接分发到各pod上。kube-proxy会监视Kubernetes Service
对象和Endpoints
,调用netlink
接口以相应地创建ipvs规则并定期与Kubernetes Service
对象和Endpoints
对象同步ipvs规则,以确保ipvs状态与期望一致。访问服务时,流量将被重定向到其中一个后端Pod。
service类型
ClusterIP
:通过集群的内部 IP 暴露服务,选择该值,服务只能够在集群内部可以访问,这也是默认的ServiceType
。NodePort
:通过每个 Node 上的 IP 和静态端口(NodePort
)暴露服务。NodePort
服务会路由到ClusterIP
服务,这个ClusterIP
服务会自动创建。通过请求<NodeIP>:<NodePort>
,可以从集群的外部访问一个NodePort
服务。LoadBalancer
:使用云提供商的负载均衡器,可以向外部暴露服务。外部的负载均衡器可以路由到NodePort
服务和ClusterIP
服务。
ClusterIP
[root@k8s-master1 nginx]# vim nginx-service.yaml apiVersion: v1kind: Servicemetadata: ?name: nginx-service ?labels: ???app: nginxspec: ?type: ClusterIP ?ports: ?- port: 80 ???targetPort: 80 ?selector: ???app: nginx[root@k8s-master1 nginx]# kubectl apply -f nginx-service.yamlservice/nginx-service created[root@k8s-master1 nginx]# kubectl get svcNAME ???????????TYPE ???????CLUSTER-IP ??EXTERNAL-IP ??PORT(S) ??AGEkubernetes ?????ClusterIP ??10.0.0.1 ????<none> ???????443/TCP ??6d15hnginx-service ??ClusterIP ??10.0.0.6 ????<none> ???????80/TCP ???14s
service不会直接到pod,service是直接到endpoint资源,就是地址加端口,再由endpoint再关联到pod。[root@k8s-master1 nginx]# kubectl get pod -l app=nginxNAME ???????????????????????????????READY ??STATUS ???RESTARTS ??AGEnginx-deployment-5fc86c987f-jdpkv ??1/1 ????Running ??0 ?????????21mnginx-deployment-5fc86c987f-scns6 ??1/1 ????Running ??0 ?????????21mnginx-deployment-5fc86c987f-wwvlx ??1/1 ????Running ??0 ?????????21m[root@k8s-master1 nginx]# kubectl get epNAME ???????????ENDPOINTS ?????????????????????????????????????AGEkubernetes ?????192.168.0.123:6443,192.168.0.124:6443 ?????????6d15hnginx-service ??172.17.32.3:80,172.17.73.3:80,172.17.73.4:80 ??76s
service只要创建完,就会在dns中添加一个资源记录进行解析,添加完成即可进行解析。
[root@k8s-master1 nginx]# kubectl run -it --image=busybox:1.28.4 --rm --restart=Never shIf you don‘t see a command prompt, try pressing enter./ # nslookup nginx-serviceServer: ???10.0.0.2Address 1: 10.0.0.2 kube-dns.kube-system.svc.cluster.localName: ?????nginx-serviceAddress 1: 10.0.0.6 nginx-service.default.svc.cluster.local
NodePort
[root@k8s-master1 ~]# kubectl get pod --show-labelsNAME ??????????????????READY ??STATUS ???RESTARTS ??AGE ??LABELSmyapp-9b4987d5-hk5n9 ??1/1 ????Running ??0 ?????????82s ??pod-template-hash=9b4987d5,run=myappmyapp-9b4987d5-ngvbk ??1/1 ????Running ??0 ?????????82s ??pod-template-hash=9b4987d5,run=myappmyapp-9b4987d5-r7q49 ??1/1 ????Running ??0 ?????????82s ??pod-template-hash=9b4987d5,run=myapp[root@k8s-master1 ~]# vim myapp-service.yamlapiVersion: v1kind: Servicemetadata: ?name: myapp ?namespace: defaultspec: ?selector: ???app: myapp ???release: canary ?type: NodePort ?ports: ??- port: 80 ???targetPort: 80 ???nodePort: 37695[root@k8s-master1 ~]# kubectl create -f myapp-service.yaml service/myapp created[root@k8s-master1 ~]# kubectl get svcNAME ????????TYPE ???????CLUSTER-IP ??EXTERNAL-IP ??PORT(S) ???????AGEkubernetes ??ClusterIP ??10.0.0.1 ????<none> ???????443/TCP ???????6d16hmyapp ???????NodePort ???10.0.0.214 ??<none> ???????80:37695/TCP ??8m14s
通过NodePort方式已经实现了从集群外部端口进行访问[root@k8s-master1 ~]# while true;do curl http://192.168.0.125:37695/hostname.html;sleep 1;donemyapp-9b4987d5-ngvbkmyapp-9b4987d5-hk5n9myapp-9b4987d5-r7q49myapp-9b4987d5-ngvbkmyapp-9b4987d5-hk5n9myapp-9b4987d5-r7q49myapp-9b4987d5-ngvbk
会话保持
[root@k8s-master1 ~]# vim myapp-service.yamlapiVersion: v1kind: Servicemetadata: ?name: myapp ?namespace: defaultspec: ?selector: ???app: myapp ???release: canary ?sessionAffinity: ClientIP ?type: NodePort ?ports: ??- port: 80 ???targetPort: 80 ???nodePort: 37695[root@k8s-master1 ~]# kubectl create -f myapp-service.yaml service/myapp created[root@k8s-master1 ~]# while true;do curl http://192.168.0.125:37695/hostname.html;sleep 1;donemyapp-9b4987d5-hk5n9myapp-9b4987d5-hk5n9myapp-9b4987d5-hk5n9
Headless Service
有时不需要或不想要负载均衡,以及单独的 Service IP。 遇到这种情况,可以通过指定 Cluster IP(spec.clusterIP
)的值为 "None"
来创建 Headless
Service。
这个选项允许开发人员自由寻找他们自己的方式,从而降低与 Kubernetes 系统的耦合性。 应用仍然可以使用一种自注册的模式和适配器,对其它需要发现机制的系统能够很容易地基于这个 API 来构建。
对这类 Service
并不会分配 Cluster IP,kube-proxy 不会处理它们,而且平台也不会为它们进行负载均衡和路由。 DNS 如何实现自动配置,依赖于 Service
是否定义了 selector。
headless service做dns解析是直接解析到pod的,而servcie是解析到ClusterIP的
[root@k8s-master1 ~]# vim myapp.svc.yamlapiVersion: v1kind: Servicemetadata: ?name: myapp ?namespace: defaultspec: ?selector: ???app: myapp ???release: canary ?clusterIP: "None" ?ports: ??- port: 80 ???targetPort: 80[root@k8s-master1 ~]# kubectl apply -f myapp-svc.yaml service/myapp created[root@k8s-master1 ~]# kubectl get svcNAME ????????TYPE ???????CLUSTER-IP ??EXTERNAL-IP ??PORT(S) ??AGEkubernetes ??ClusterIP ??10.0.0.1 ????<none> ???????443/TCP ??6d17hmyapp ???????ClusterIP ??None ????????<none> ???????80/TCP ???6m27s
kubernetes-服务发现service(九)
原文地址:https://www.cnblogs.com/yuezhimi/p/10169560.html