本文主要是介绍kind 安装及使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
- Tips:以下的命令安装好自己多试几次就熟悉了
- kind 安装
curl -Lo ./kind https://kind.sigs.k8s.io/dl/v0.9.0/kind-linux-amd64
chmod +x ./kind
mv ./kind /${some-dir-in-your-PATH}/kind
- kubectl 安装
curl -LO "https://dl.k8s.io/release/$(curl -L -s https://dl.k8s.io/release/stable.txt)/bin/linux/amd64/kubectl"
chmod +x kubectl
mkdir -p ~/.local/bin/kubectl
mv ./kubectl ~/.local/bin/kubectl
- 创建默认的集群:
kind create cluster
- 根据镜像创建:
kind create cluster --image kindest/node:latest
- 查看集群
kind get cluster
- 获取节点
kind get nodes
- 删除默认的集群
kind delete cluster
- 根据名字删除集群
kind delete cluster --name clusterName
- 删除所有的集群
kind delete clusters --all
-
为kubectl设置上下文,意思查看可用的集群,相当于集群列表
kubectl config get-contextsCURRENT NAME CLUSTER AUTHINFO NAMESPACE
* kind-my-cluster kind-my-cluster kind-my-cluster
- 切换集群
# 查看完集群列表后,根据需要切换上下文
kubectl config set-context clusterName
或者kubectl cluster-info --context clusterName
- 加载镜像到kind的node中,这主要在无网络的地方使用
kind load docker-image nginx --name kind
- 配置多节点的集群:kind_cluster.yaml
kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4
name: my-cluster# 1 control plane node and 3 workers
nodes:
# the control plane node config
- role: control-plane
# the three workers
- role: worker
- role: worker
- role: worker
创建:kind create cluster --config=kind-config.yaml ,可以在创建的命令中添加 --name my-cluster,但是尽量写到yaml中,这样方便后期的使用
查看节点
kubectl get nodes #NAME STATUS ROLES AGE VERSION
#my-cluster-control-plane Ready master 48m v1.19.1
#my-cluster-worker Ready <none> 47m v1.19.1
#my-cluster-worker2 Ready <none> 47m v1.19.1
#my-cluster-worker3 Ready <none> 47m v1.19.1
多控制面
一般一个生产使用的kubernetes都会使用多个控制面来保证高可用,使用kind config可以方便地创建多控制面的kubernetes集群。使用如下命令创建一个3控制面,3 work节点的集群:
# this config file contains all config fields with comments
# NOTE: this is not a particularly useful config file
kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4nodes:
# the control plane node config
- role: control-plane
- role: control-plane
- role: control-plane
# the three workers
- role: worker
- role: worker
- role: worker
此时可以看到有3个控制面:
# kubectl get node
NAME STATUS ROLES AGE VERSION
kind-control-plane Ready master 15m v1.19.1
kind-control-plane2 Ready master 14m v1.19.1
kind-control-plane3 Ready master 13m v1.19.1
kind-worker Ready <none> 12m v1.19.1
kind-worker2 Ready <none> 12m v1.19.1
kind-worker3 Ready <none> 12m v1.19.1
指定Kubernetes的版本
可以通过指定node的镜像版本来修改kubernetes的版本。可以在官方release页面中中查找需要镜像tag,推荐tag带上sha,如
kindest/node:v1.19.1@sha256:98cf5288864662e37115e362b23e4369c8c4a408f99cbc06e58ac30ddc721600
kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4
nodes:
- role: control-planeimage: kindest/node:v1.16.4@sha256:b91a2c2317a000f3a783489dfb755064177dbc3a0b2f4147d50f04825d016f55
- role: workerimage: kindest/node:v1.16.4@sha256:b91a2c2317a000f3a783489dfb755064177dbc3a0b2f4147d50f04825d016f55
将node的端口映射到主机
可以通过如下方式将node的端口映射到主机,将容器的80端口映射到host的80端口:
kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4
nodes:
- role: control-planeextraPortMappings:- containerPort: 80hostPort: 80listenAddress: "0.0.0.0" # Optional, defaults to "0.0.0.0"protocol: udp # Optional, defaults to tcp
kind对cluster
的更新(如启用IPv6,配置nodeport等)有一个弊端,就是只能通过重新创建集群来"更新"配置。目前官方不支持对控制面的更新操作,可以参见该issue。更多配置参见官方文档。
ingress部署
可以通过KIND的extraPortMapping配置选项来将流量从主机转发到node的ingress控制器上。
可以通过kubeadm的InitConfiguration
来设置自定义的node-labels
,用于ingress控制器的nodeSelector
。
创建集群
使用extraPortMappings
和node-labels
创建一个集群。
cat <<EOF | kind create cluster --config=-
kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4
nodes:
- role: control-planekubeadmConfigPatches:- |kind: InitConfigurationnodeRegistration:kubeletExtraArgs:node-labels: "ingress-ready=true"extraPortMappings:- containerPort: 80hostPort: 80protocol: TCP- containerPort: 443hostPort: 443protocol: TCP
EOF
部署ingress控制器
kind支持的ingress控制器如下:
- Ambassador
- Contour
- Ingress NGINX
下面部署NGINX ingress。
kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/static/provider/kind/deploy.yaml
在部署ingree的过程中可能会遇到无法找到secret ingress-nginx-admission
的问题,出现该问题的原因可能是因为如下两个job无法正常启动造成的,参见该issue。如果是因为无法拉取外网镜像,可以先将deploy.yaml文件下载到本地,将镜像手动加载到本地主机上,然后使用上面提到的kind load docker-image
命令将镜像加载到node上即可。
测试ingress
创建如下资源:kubectl apply -f usage.yaml
kind: Pod
apiVersion: v1
metadata:name: foo-applabels:app: foo
spec:containers:- name: foo-appimage: hashicorp/http-echo:0.2.3args:- "-text=foo"
---
kind: Service
apiVersion: v1
metadata:name: foo-service
spec:selector:app: fooports:# Default port used by the image- port: 5678
---
kind: Pod
apiVersion: v1
metadata:name: bar-applabels:app: bar
spec:containers:- name: bar-appimage: hashicorp/http-echo:0.2.3args:- "-text=bar"
---
kind: Service
apiVersion: v1
metadata:name: bar-service
spec:selector:app: barports:# Default port used by the image- port: 5678
---
apiVersion: networking.k8s.io/v1beta1
kind: Ingress
metadata:name: example-ingress
spec:rules:- http:paths:- path: /foobackend:serviceName: foo-serviceservicePort: 5678- path: /barbackend:serviceName: bar-serviceservicePort: 5678
---
在远端curl该主机所在上的foo和bar服务,可以看到网络是通的,此时走的是ingress通过kind配置extraPortMappings
暴露的nodeport 80端口。
C:\Users\liuch>curl 192.168.100.11/foo
fooC:\Users\liuch>curl 192.168.100.11/bar
bar
总结:
kind是一个非常方便的kubernetes部署工具,可以快速地部署多个kubernetes集群。但也有一些实现上的瑕疵,比如,kind不支持对集群的升级,手动加载镜像的过程也比较麻烦,但总体使用上来看,瑕不掩瑜。
FAQ:
-
在切换集群时出现
The connection to the server localhost:8080 was refused - did you specify the right host or port?
,且使用如kubectl config use-context kind-kind
这样的命令也无法成功切换集群。可以在/root/.kube/config文件中查看支持的context名称(如下面使用的context为
kind-kind
),然后使用kubectl config use-context kind-kind
即可:apiVersion: v1 clusters: - cluster:certificate-authority-data: ...server: https://127.0.0.1:39923name: kind-kind contexts: - context:cluster: kind-kinduser: kind-kindname: kind-kind current-context: kind-kind kind: Config preferences: {} users: - name: kind-kinduser:client-certificate-data: ...
-
kind创建的apiservice默认地址是
127.0.0.1
,无法远程连接。可以使用如下方式,修改apiservice的地址和端口kind: Cluster apiVersion: kind.x-k8s.io/v1alpha4 networking:apiServerPort: 6000
-
如果kind无法连通,可以查看是否有其他docker network影响
这篇关于kind 安装及使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!