『高级篇』docker之kubernetes基础集群部署(下)(34)
2019-02-21 09:57:33
李明
  • 访问次数: 377
  • 注册日期: 2018-07-09
  • 最后登录: 2019-10-30

原创文章,欢迎转载。转载请注明:转载自 IT人故事会 ,谢谢!原文链接地址: 『高级篇』docker之kubernetes基础集群部署(下)(34)

这次继续集群的部署simple版本(下)。源码: https://github.com/limingios/msA-docker k8s分支和 https://github.com/limingios/kubernetes-starter


v2-46373d78f34ba1c3cde522b8aa13a6ca_hd.p

部署Scheduler(主节点)

简介

kube-scheduler负责分配调度Pod到集群内的节点上,它监听kube-apiserver,查询还未分配Node的Pod,然后根据调度策略为这些Pod分配节点。我们前面讲到的kubernetes的各种调度策略就是它实现的。

部署

通过系统服务方式部署

cp ~/kubernetes-starter/target/master-node/kube-scheduler.service /lib/systemd/system/
systemctl enable kube-scheduler.service
service kube-scheduler start
journalctl -f -u kube-scheduler


v2-7ab0aa6907029a78f1b124ace9b523bf_hd.p

重点配置说明

vi /lib/systemd/system/kube-scheduler.service

[Unit]Description=Kubernetes Scheduler...[Service]ExecStart=/home/michael/bin/kube-scheduler \#对外服务的监听地址,这里表示只有本机的程序可以访问它--address=127.0.0.1 \#apiserver的url--master=http://127.0.0.1:8080 \...


v2-f4d7ed28943f0eb5ed266c6ddeecf26c_hd.p

PS:最重要的三个核心组件就部署完了 ,

部署CalicoNode(所有节点)

它是通过系统服务加docker的方式来完成的。

简介

Calico实现了CNI接口,是kubernetes网络方案的一种选择,它一个纯三层的数据中心网络方案(不需要Overlay),并且与OpenStack、Kubernetes、AWS、GCE等IaaS和容器平台都有良好的集成。Calico在每一个计算节点利用Linux Kernel实现了一个高效的vRouter来负责数据转发,而每个vRouter通过BGP协议负责把自己上运行的workload的路由信息像整个Calico网络内传播——小规模部署可以直接互联,大规模下可通过指定的BGP route reflector来完成。 这样保证最终所有的workload之间的数据流量都是通过IP路由的方式完成互联的。

部署

calico是通过系统服务+docker方式完成的

cp ~/kubernetes-starter/target/all-node/kube-calico.service /lib/systemd/system/
systemctl enable kube-calico.service
service kube-calico start
journalctl -f -u kube-calico


v2-685231681b02fcc740be386cc1399990_hd.p


v2-1039aab4087ab148faae5e5a5e9ecb6b_hd.p


v2-68a9a32641da88a3e6a0e61d7c7fe2ad_hd.p


v2-2c82cdc58afe65364173bdd920b332ad_hd.p

查看配置

vi /lib/systemd/system/kube-calico.service


v2-92dce6bf5b7123d8a9d7aa524c34da72_hd.p


v2-8be6e51835a3b22574de45d52182096b_hd.p


v2-ef4955602e251efe3dbcb8bb97e7fa45_hd.p



v2-92dce6bf5b7123d8a9d7aa524c34da72_hd.p

calico可用性验证

查看容器运行情况

docker ps


v2-26e6b06a367b62dee0771cd3eefc33fb_hd.p


v2-8be6e51835a3b22574de45d52182096b_hd.p


v2-ef4955602e251efe3dbcb8bb97e7fa45_hd.p

查看节点运行情况

calicoctl node status


v2-11f229824aec3f9b7df3d63da05032ca_hd.p


v2-8557fc0bf2700e88b7867a4e1ee8fa09_hd.p


v2-09f4be31e990c8fabc3c110d6a83b4b6_hd.p

查看端口BGP 协议是通过TCP 连接来建立邻居的,因此可以用netstat 命令验证 BGP Peer

netstat -natp|grep ESTABLISHED|grep 179

查看集群ippool情况[主节点]

calicoctl get ipPool -o yaml


v2-c027d5dd33f1e8cc1fe305349fae1fce_hd.p

5.4 重点配置说明

[Unit]Description=calico node...[Service]#以docker方式运行ExecStart=/usr/bin/docker run --net=host --privileged --name=calico-node \#指定etcd endpoints(这里主要负责网络元数据一致性,确保Calico网络状态的准确性)-e ETCD_ENDPOINTS=http://192.168.66.101:2379 \#网络地址范围(同上面ControllerManager)-e CALICO_IPV4POOL_CIDR=172.20.0.0/16 \#镜像名,为了加快大家的下载速度,镜像都放到了阿里云上registry.cn-hangzhou.aliyuncs.com/imooc/calico-node:v2.6.2

配置kubectl命令(主节点)

简介

kubectl是Kubernetes的命令行工具,是Kubernetes用户和管理员必备的管理工具。kubectl提供了大量的子命令,方便管理Kubernetes集群中的各种功能。

初始化

使用kubectl的第一步是配置Kubernetes集群以及认证方式,包括:

  • cluster信息:api-server地址

  • 用户信息:用户名、密码或密钥

  • Context:cluster、用户信息以及Namespace的组合

我们这没有安全相关的东西,只需要设置好api-server和上下文就好啦:

#指定apiserver地址(ip替换为你自己的api-server地址)kubectl config set-cluster kubernetes  --server=http://192.168.66.101:8080#指定设置上下文,指定clusterkubectl config set-context kubernetes --cluster=kubernetes#选择默认的上下文kubectl config use-context kubernetes


v2-91650afa44f0a6a9280a4f7ce57fe955_hd.p

通过上面的设置最终目的是生成了一个配置文件:~/.kube/config,当然你也可以手写或复制一个文件放在那,就不需要上面的命令了。


v2-f0d90859598f5df92b3adaf1b2266a39_hd.p

配置kubelet(工作节点102,103这2两台机器)

简介

每个工作节点上都运行一个kubelet服务进程,默认监听10250端口,接收并执行master发来的指令,管理Pod及Pod中的容器。每个kubelet进程会在API Server上注册节点自身信息,定期向master节点汇报节点的资源使用情况,并通过cAdvisor监控节点和容器的资源。

部署

通过系统服务方式部署,但步骤会多一些,具体如下:

#确保相关目录存在mkdir -p /var/lib/kubelet
mkdir -p /etc/kubernetes
mkdir -p /etc/cni/net.d#复制kubelet服务配置文件cp ~/kubernetes-starter/target/worker-node/kubelet.service /lib/systemd/system/#复制kubelet依赖的配置文件cp ~/kubernetes-starter/target/worker-node/kubelet.kubeconfig /etc/kubernetes/#复制kubelet用到的cni插件配置文件cp ~/kubernetes-starter/target/worker-node/10-calico.conf /etc/cni/net.d/
systemctl enable kubelet.service
service kubelet start
journalctl -f -u kubelet


v2-bc0a8fc66b7192fdf143f341335e6648_hd.p


v2-19b66731928c14a1afe834605a07c429_hd.p

主节点查看node的信息

kubectl get nodes


v2-907b825867ee983964e2dfbbc6614bca_hd.p

重点配置说明

kubelet.service

[Unit]Description=Kubernetes Kubelet[Service]#kubelet工作目录,存储当前节点容器,pod等信息WorkingDirectory=/var/lib/kubeletExecStart=/home/michael/bin/kubelet \#对外服务的监听地址--address=192.168.66.103 \#指定基础容器的镜像,负责创建Pod 内部共享的网络、文件系统等,这个基础容器非常重要:K8S每一个运行的 POD里面必然包含这个基础容器,如果它没有运行起来那么你的POD 肯定创建不了--pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/imooc/pause-amd64:3.0 \#访问集群方式的配置,如api-server地址等--kubeconfig=/etc/kubernetes/kubelet.kubeconfig \#声明cni网络插件--network-plugin=cni \#cni网络配置目录,kubelet会读取该目录下得网络配置--cni-conf-dir=/etc/cni/net.d \#指定 kubedns 的 Service IP(可以先分配,后续创建 kubedns 服务时指定该 IP),--cluster-domain 指定域名后缀,这两个参数同时指定后才会生效--cluster-dns=10.68.0.2 \...

kubelet.kubeconfig kubelet依赖的一个配置,格式看也是我们后面经常遇到的yaml格式,描述了kubelet访问apiserver的方式

apiVersion: v1clusters:- cluster:#跳过tls,即是kubernetes的认证insecure-skip-tls-verify: true#api-server地址server: http://192.168.1.102:8080...

calico.conf calico作为kubernets的CNI插件的配置

{  
  "name": "calico-k8s-network",  
  "cniVersion": "0.1.0",  
  "type": "calico",  
    <!--etcd的url-->
    "ed_endpoints": "http://192.168.1.102:2379",  
    "logevel": "info",  
    "ipam": {  
        "type": "calico-ipam"  
   },  
    "kubernetes": {  
        <!--api-server的url-->
        "k8s_api_root": "http://192.168.1.102:8080"  
    }  
}

PS:每次安装都需要看日志的,老铁不要认为看日志麻烦,看日志其实是为了避免后续的问题存在,走一步稳一步!后续在出现问题了,就更麻烦。下次老铁我们一起在这个集群上面做下测试和练习。


v2-5e0719d9fc7dd03ce32e624534c0b631_hd.p