Calico the hard wayの作業ログ

2019-11-12に作成

KubernetesのCNIプラグインにCalicoというものがあって、いま自分が運用に関わっているシステムはそれを使っているんだけど、今までちゃんとCalicoについて勉強したことがなかったので、ちょっとチュートリアルをやってみようと思う。今回はCalico the hard wayというやつ。
これはCalicoのチュートリアルではあるんだけど、いわゆるハローワールドみたいなものとは違って、Calicoの機能やCalicoを支えるコンポーネントも網羅してハンズオンするみたいな感じ。というわけで、Calicoについて勉強するには適切な題材となっている。
ただ、hard wayとあるように、ややボリュームが多いので、数日にわたって行うことになる。というわけで、せっかくだし、Crieitのボード機能を使って作業ログを残してみようと思う。

所有者限定モードのためこのボードには投稿できません ボードとは?

Day4: Follow up

だいぶ間が空いてしまったけど、前回言っていたように、Day4の内容の解説を行う。

まず前提としてCalicoはKubernetesのNetwork Pluginなので、Kubernetesと通信する必要がある。そして、KubernetesのAPIとの通信には認証が必要である。ということで、最初にやることは、認証用の鍵を作成して署名すること。

以下のコマンドで認証用の鍵を作成している。

$ openssl req -newkey rsa:4096 \  # 鍵を4096bitのRSA暗号で作成する
           -keyout cni.key \      # 鍵の出力先ファイル名
           -nodes \               # 鍵の中身を暗号化しない
           -out cni.csr \         #  CSRの出力先ファイル名
           -subj "/CN=calico-cni" # 証明書のサブジェクトのdistinguish nameを設定する

これをKubernetesのCA(認証局)に署名してもらう。

$ sudo openssl x509 -req -in cni.csr \  # CSRが入力であり(--req)、CSRの場所は cni.csrである(--in)
                  -CA /etc/kubernetes/pki/ca.crt \  # KubernetesのCA証明書の場所
                  -CAkey /etc/kubernetes/pki/ca.key \  # KubernetesのCA鍵の場所
                  -CAcreateserial \  # シリアル番号がなければ番号を生成する
                  -out cni.crt \     # 署名された証明書の出力先ファイル名
                  -days 365         # 署名された証明書の有効期限
sudo chown ubuntu:ubuntu cni.crt

これでKubernetesにアクセスするための証明書が作成されたことになる。次に、ここで作成した証明書を使うように設定する。つまり、(Kubernetesをサーバーだと見立てた場合に)クライアント側の設定を行う。

# KubernetesのAPIサーバーのIPアドレスを取得する
$ APISERVER=$(kubectl config view -o jsonpath='{.clusters[0].cluster.server}')

$ kubectl config set-cluster kubernetes \  # kubeconfigに"kubernetes"という名前でクラスターエントリを設定する
    --certificate-authority=/etc/kubernetes/pki/ca.crt \  # CA証明書の位置。クライアント証明書を検証するために必要
    --embed-certs=true \  # kubeconfigの中に証明書を埋め込むかどうか
    --server=$APISERVER \  # KubernetesのAPIサーバーのIPアドレスの指定
    --kubeconfig=cni.kubeconfig  # 設定を保存するkubeconfigのファイルの場所

$ kubectl config set-credentials calico-cni \  # kubeconfigに"calico-cni"という名前でユーザーエントリを設定する
    --client-certificate=cni.crt \  # CAに署名してもらった証明書の場所
    --client-key=cni.key \  # 証明書に対応する鍵
    --embed-certs=true \  # kubeconfigの中に証明書を埋め込むかどうか
    --kubeconfig=cni.kubeconfig  # 設定を保存するkubeconfigのファイルの場所

$ kubectl config set-context default \  # kubeconfigに"default"というコンテキストエントリを設定する
    --cluster=kubernetes \  # "default"というコンテキストに対応するクラスターの名前
    --user=calico-cni \  # "default"というコンテキストに対応するユーザーの名前
    --kubeconfig=cni.kubeconfig  # 設定を保存するkubeconfigのファイルの場所

# 設定した"default"コンテキストを指定する。読み込む設定ファイルはcni.kubeconfigとする
$ kubectl config use-context default --kubeconfig=cni.kubeconfig

これはCalicoが使う設定ファイルなので、Calicoノードに配布しておく必要がある。

ここまで見たように、1つ1つのステップがCalicoがKubernetesのAPIサーバーと通信するために必要な準備作業であることがわかる。

では、ここまで完了したら後はCalicoがKubernetesと協調的に動くようになるかと言うとそうでもなくて、Calicoに限らず、Kubernetesのリソース(DeploymentとかPodとか)を扱うときにはRoleを割り当てなければならない。

というわけで、作成するRoleが以下のようになる

$ kubectl apply -f - <<EOF
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: calico-cni
rules:
  # The CNI plugin needs to get pods, nodes, and namespaces.
  - apiGroups: [""]
    resources:
      - pods
      - nodes
      - namespaces
    verbs:
      - get
  # The CNI plugin patches pods/status.
  - apiGroups: [""]
    resources:
      - pods/status
    verbs:
      - patch
 # These permissions are required for Calico CNI to perform IPAM allocations.
  - apiGroups: ["crd.projectcalico.org"]
    resources:
      - blockaffinities
      - ipamblocks
      - ipamhandles
    verbs:
      - get
      - list
      - create
      - update
      - delete
  - apiGroups: ["crd.projectcalico.org"]
    resources:
      - ipamconfigs
      - clusterinformations
      - ippools
    verbs:
      - get
      - list
EOF

上について細かい説明は省略するというか、追々わかってくると思うのでここでは一旦"オマジナイ"的なものとしてコピペしておくにとどめておいて良いと思う。強いて言うなら、verbsはHTTPのメソッド的なやつだというぐらいの認識で良いと思う。

あとはCalicoのバイナリをダウンロードして所定の位置に配置するだけなので割愛。Day4のフォローアップはここまでにして、次はDay5をやる。

Day4: Install CNI plugin

Day3ではIP poolsを設定して、 Calicoのノード(というかPod)に割り当てるIPの設定を行った。今回はようやくCalicoをCNIとしてインストールする。

まず最初に、master node上でCNIが利用するSSL通信のための証明書と鍵を作成する。

$ openssl req -newkey rsa:4096 \
           -keyout cni.key \
           -nodes \
           -out cni.csr \
           -subj "/CN=calico-cni"

次に、Kubernetesが持っているCA(Certification Authority/認証局)を利用して、作成した証明書に署名する。

$ sudo openssl x509 -req -in cni.csr \
                  -CA /etc/kubernetes/pki/ca.crt \
                  -CAkey /etc/kubernetes/pki/ca.key \
                  -CAcreateserial \
                  -out cni.crt \
                  -days 365
$ sudo chown user:user cni.crt

次に、CNI Plugin(つまりCalico)がKubernetesにアクセスするために使うkubeconfigファイルを作成する。

$ APISERVER=$(kubectl config view -o jsonpath='{.clusters[0].cluster.server}')
kubectl config set-cluster kubernetes \
    --certificate-authority=/etc/kubernetes/pki/ca.crt \
    --embed-certs=true \
    --server=$APISERVER \
    --kubeconfig=cni.kubeconfig

kubectl config set-credentials calico-cni \
    --client-certificate=cni.crt \
    --client-key=cni.key \
    --embed-certs=true \
    --kubeconfig=cni.kubeconfig

kubectl config set-context default \
    --cluster=kubernetes \
    --user=calico-cni \
    --kubeconfig=cni.kubeconfig

kubectl config use-context default --kubeconfig=cni.kubeconfig

ドキュメントによると、ここで作ったcni.kubeconfigは各ノードにコピーしておいたほうが良いらしい。とはいえ、どこにコピーすれば良いのかわからなかったので、とりあえず各ノードの同じユーザーのホームディレクトリに置いといた。

次にCalicoのノードがKubernetesのリソースにアクセスするための権限を持ったRoleを作る。

kubectl apply -f - <<EOF
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: calico-cni
rules:
  # The CNI plugin needs to get pods, nodes, and namespaces.
  - apiGroups: [""]
    resources:
      - pods
      - nodes
      - namespaces
    verbs:
      - get
  # The CNI plugin patches pods/status.
  - apiGroups: [""]
    resources:
      - pods/status
    verbs:
      - patch
 # These permissions are required for Calico CNI to perform IPAM allocations.
  - apiGroups: ["crd.projectcalico.org"]
    resources:
      - blockaffinities
      - ipamblocks
      - ipamhandles
    verbs:
      - get
      - list
      - create
      - update
      - delete
  - apiGroups: ["crd.projectcalico.org"]
    resources:
      - ipamconfigs
      - clusterinformations
      - ippools
    verbs:
      - get
      - list
EOF

で、作ったRoleをCalicoのアカウントcalico-cniにバインドする。

$ kubectl create clusterrolebinding calico-cni --clusterrole=calico-cni --user=calico-cni

ここまで来てようやくCalicoがインストールできる準備が整った。以下のコマンドを各ノードで、かつrootユーザーで行う必要がある。

...なんか特にこれといった説明もなくザザッと設定ファイルを作ってコマンドを叩いただけなので、次回はここでやっていることを1つずつ解説してみたいと思う。Calicoとは直接関係ないけど、KubernetesとCalicoを理解する上では役に立つと思うので。

今日はここまで。

Day3: Configure IP pools

3日目はConfigure IP poolsから。前回はcalicoctlをインストールして簡単な動作確認をしただけ。

Calicoにはworkloadというリソースがあって、VMだったりコンテナだったり、Kubernetesの世界でいうとPodの形で配置される。それが何をするのかというと、仮想ネットワークのための仕事をする。Workloadにはworkload endpointというものがあって、それがCalicoのネットワークの世界とCalicoの外側のネットワークをつなぐためのインターフェースとなる。

で、ここでタイトルにある"IP pools"の話になるんだけど、"IP pools"というのは、Calicoがworkload endpointsのために利用するIPアドレスの範囲のこと。

じゃあそのIPアドレスの範囲はどうやって決めるのかと言うと、Kubernetesクラスタを立ち上げるときに--pod-netwrok-cidrを指定したと思うんだけど、その指定した範囲のサブセットを用いる。

というわけで、以上を踏まえてIP poolsの設定をしてみる。以下のようにする。

$ cat > pool1.yaml <<EOF
> apiVersion: projectcalico.org/v3
> kind: IPPool
> metadata:
>   name: pool1
> spec:
>   cidr: 192.168.0.0/18
>   ipipMode: Never
>   natOutgoing: true
>   disabled: false
>   nodeSelector: all()
> EOF

ドキュメントでは触れてないけど、設定ファイルの内容がKubernetesっぽいのはDatastoreがKubernetesだからかな?etcdだとまた違う(とはいえ、これをjson形式にするとかそんな感じ?)なんだろうと思う。

では内容の解説。apiVersionkindはKubernetesでさんざん見ていると思うので割愛。spec以下だけに絞って説明する。

cidr: 192.168.0.0/18

これは見ての通り、CalicoのIP poolが利用する範囲をCIDRで指定している。KubernetesのPodには192.168.0.0/16を指定したので、

# https://devops.stackexchange.com/a/8486より
kubectl cluster-info dump | grep -m 1 cluster-cidr

192.168.0.0/16がどういう意味かというと、ネットワーク部(fixed prefix)が192.168.0.0で、ネットマスクが16bitですよっていう意味。めっちゃ雑にいうと、32bitのうち、16bitはマスク部なので、残りの16bitを利用できますよっていうことになる。なので、ここでは、2^16-2(networkアドレスとbrodcastアドレスを除く) = 65536 - 2 = 65534個のIPアドレスを割り当てますよっていう設定をしている。

で、Calicoはこの割り当てられている範囲でIPアドレスを利用するので、サブセットとして/16より狭い範囲でCIDRを指定しなければならない。ということで、ここでは192.168.0.0/18として、これまた雑にいうと32bitのうち18bitがマスク部なので、残りの14bit、つまり2^14-2 = 16384 - 2 = 16382個のIPアドレス を使いますよっていう宣言をしていることになる。

次はこれ↓

ipipMode: Never

ipipModeというのは(IP in IP)[https://en.wikipedia.org/wiki/IP_in_IP]を利用するかどうかを指定する項目。IP in IPに関してはリンク先を参照してほしいのだけど、触りだけをいうと、IPパケットを別のIPパケットでカプセル化する。そうすることでVPN通信なんかを可能にしたりする。今回はそういったことは必要ないのでNeverを指定する。

natOutgoing: true

これを有効(true)にすると、Calicoのコンテナから通信先にパケットが送られるときに、パケットがインターネット側から隠蔽されるようになる。つまりCalicoがNATしているように(ようにっていうか、まさにそうなんだろうけど)振る舞うので、本来の通信元のポート番号などがインターネット側に対して隠されるようになる。

disabled: false

これがtrueだと、CalickのIPAM(IP Address management)が割り当てられたIP poolsからIPアドレスを割り当てなくなる。つまり、指定したCIDRの範囲のIP poolsのIPアドレスをもつpodが作られなくなる。podはつくられなくなるんだけど、引き続き指定範囲のCIDRはCalicoのネットワークの一部として認識されている。

nodeSelector: all()

CalicoのIPAMが指定されたIP poolsからアドレスを割り当てるときにノードを選択するときの振る舞いを指定する。all()だとIP poolで指定した範囲内のノードにすべて割り当てる。
ちなみにここまで説明は全てドキュメントに記載されているので詳細はそちらで。

つぎに2つ目のIP poolsを設定する。

$ cat > pool2.yaml <<EOF
> apiVersion: projectcalico.org/v3
> kind: IPPool
> metadata:
>   name: pool2
> spec:
>   cidr: 192.168.192.0/19
>   ipipMode: Never
>   natOutgoing: true
>   disabled: true
>   nodeSelector: all()
> EOF`

で、最後にこれらを適用する。

$ calicoctl create -f pool1.yaml
Successfully created 1 'IPPool' resource(s)
$ calicoctl create -f pool2.yaml
Successfully created 1 'IPPool' resource(s)

$ calicoctl get ippools -o wide
NAME    CIDR               NAT    IPIPMODE   VXLANMODE   DISABLED   SELECTOR
pool1   192.168.0.0/18     true   Never      Never       false      all()
pool2   192.168.192.0/19   true   Never      Never       true       all()

こんな感じ。今日はここまで。

Days2: The Calico datastore

今日はThe Calico datastoreから。前回はKubernetesのクラスタを作った。

これからCalicoをインストールする作業を進めていくわけだけど、そのためにはCalicoが保持するデータの場所を設定する必要がある。設定場所の選択肢はKubernetesとetcdの2つ。どちらにも長所と短所がある。ざっくり言うとこんな感じ。

  • Kubernetesをデータストアとして使う: すでにあるKubernetesクラスタを利用するので、追加でなにかを用意する必要がない。また、Kubernetesがもっている様々な機構を利用することが出来る。
  • etcdををデータストアとして使う: Kubernetesに依存しない環境(例えばOpenStackなど)でCalicoを利用することができる。また、Kubernetesを意識する必要がないので、独自にスケールさせることが出来る。

Calico the hard wayではKubernetesをデータストアとして利用する。で、じゃあKubernetesをデータストアとして利用するならどうなるかというと、KubernetesのCustom resourceとしてCalicoのリソースが管理される。全部がCustome resourceというわけではない。例えば、workload endpointsなんかはPodとして管理される。兎にも角にも、Custome resourceとして管理するためにはリソース定義が必要。ということで、以下の手順でリソース定義を適用する。

$ wget 'https://docs.projectcalico.org/v3.10/manifests/crds.yaml'
...
2019-11-14 01:01:21 (3.92 MB/s) - ‘crds.yaml’ saved [4077/4077]

$ kubectl apply -f ./crds.yaml
customresourcedefinition.apiextensions.k8s.io/felixconfigurations.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ipamblocks.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/blockaffinities.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ipamhandles.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ipamconfigs.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/bgppeers.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/bgpconfigurations.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/ippools.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/hostendpoints.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/clusterinformations.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/globalnetworkpolicies.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/globalnetworksets.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/networkpolicies.crd.projectcalico.org created
customresourcedefinition.apiextensions.k8s.io/networksets.crd.projectcalico.org created

次にCalicoの操作を用意にするためにcalicoctlをインストールする。

$ wget https://github.com/projectcalico/calicoctl/releases/download/v3.8.0/calicoctl
$ sudo mv calicoctl /usr/local/bin/
$ chmod +x calicoctl
$ echo 'export KUBECONFIG=${HOME}/.kube/config' >> ~/.bashrc
$ echo 'export DATASTORE_TYPE=kubernetes' >> ~/.bashrc

軽く動作確認をする。

$ calicoctl get nodes
NAME
calicothehardway-001
calicothehardway-002
calicothehardway-003
calicothehardway-004
calicothehardway-005

# ↑と同じような出力になっているかを確認 -> OK
$ kubectl get nodes
NAME                   STATUS     ROLES    AGE   VERSION
calicothehardway-001   NotReady   master   24h   v1.16.2
calicothehardway-002   NotReady   <none>   24h   v1.16.2
calicothehardway-003   NotReady   <none>   23h   v1.16.2
calicothehardway-004   NotReady   <none>   23h   v1.16.2
calicothehardway-005   NotReady   <none>   23h   v1.16.2

# これはからの出力になるのが期待通り。
$ calicoctl get ippools
NAME   CIDR   SELECTOR

今日はここまで。

Day1: Standing up Kubernetes

初日はStanding up Kubernetesから。

マシンが5台必要らしいので、パパっと用意する。ドキュメントではUbuntu 18.04 LTSが指定されているが、諸事情により、CentOS7.7を使う。

まず必要なソフトウェアとして、dockerとkubeadmをインストールする必要がある。手順は以下のリンクを参照すれば良い。

各ホストへのインストールが終わったら、適用な1台でKubernetesの初期設定を行う。

$ sudo kubeadm init --pod-network-cidr=192.168.0.0/16
[init] Using Kubernetes version: v1.16.2
[preflight] Running pre-flight checks
error execution phase preflight: [preflight] Some fatal errors occurred:
        [ERROR Swap]: running with swap on is not supported. Please disable swap
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`
To see the stack trace of this error execute with --v=5 or higher

preflight checkでつまずく。

running with swap on is not supported. Please disable swap

とのことなので、素直にswapをoffにする。

$ sudo /sbin/swapoff --all

そしてもう1度初期設定を実行する。

$ sudo kubeadm init --pod-network-cidr=192.168.0.0/16
[init] Using Kubernetes version: v1.16.2
[preflight] Running pre-flight checks
[preflight] Pulling images required for setting up a Kubernetes cluster
[preflight] This might take a minute or two, depending on the speed of your internet connection
[preflight] You can also perform this action in beforehand using 'kubeadm config images pull'
[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet-start] Activating the kubelet service
[certs] Using certificateDir folder "/etc/kubernetes/pki"
[certs] Generating "ca" certificate and key
[certs] Generating "apiserver" certificate and key
[certs] apiserver serving cert is signed for DNS names [calicothehardway-001 kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [1.2.3.4 10.231.194.212]
[certs] Generating "apiserver-kubelet-client" certificate and key
[certs] Generating "front-proxy-ca" certificate and key
[certs] Generating "front-proxy-client" certificate and key
[certs] Generating "etcd/ca" certificate and key
[certs] Generating "etcd/server" certificate and key
[certs] etcd/server serving cert is signed for DNS names [calicothehardway-001 localhost] and IPs [1.2.3.4 127.0.0.1 ::1]
[certs] Generating "etcd/peer" certificate and key
[certs] etcd/peer serving cert is signed for DNS names [calicothehardway localhost] and IPs [1.2.3.4 127.0.0.1 ::1]
[certs] Generating "etcd/healthcheck-client" certificate and key
[certs] Generating "apiserver-etcd-client" certificate and key
[certs] Generating "sa" key and public key
[kubeconfig] Using kubeconfig folder "/etc/kubernetes"
[kubeconfig] Writing "admin.conf" kubeconfig file
[kubeconfig] Writing "kubelet.conf" kubeconfig file
[kubeconfig] Writing "controller-manager.conf" kubeconfig file
[kubeconfig] Writing "scheduler.conf" kubeconfig file
[control-plane] Using manifest folder "/etc/kubernetes/manifests"
[control-plane] Creating static Pod manifest for "kube-apiserver"
[control-plane] Creating static Pod manifest for "kube-controller-manager"
[control-plane] Creating static Pod manifest for "kube-scheduler"
[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"
[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s
[apiclient] All control plane components are healthy after 13.003046 seconds
[upload-config] Storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace
[kubelet] Creating a ConfigMap "kubelet-config-1.16" in namespace kube-system with the configuration for the kubelets in the cluster
[upload-certs] Skipping phase. Please see --upload-certs
[mark-control-plane] Marking the node calicothehardway-001 as control-plane by adding the label "node-role.kubernetes.io/master=''"
[mark-control-plane] Marking the node calicothehardway-001 as control-plane by adding the taints [node-role.kubernetes.io/master:NoSchedule]
[bootstrap-token] Using token: 9q8nf1.********************
[bootstrap-token] Configuring bootstrap tokens, cluster-info ConfigMap, RBAC Roles
[bootstrap-token] configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
[bootstrap-token] configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
[bootstrap-token] configured RBAC rules to allow certificate rotation for all node client certificates in the cluster
[bootstrap-token] Creating the "cluster-info" ConfigMap in the "kube-public" namespace
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 1.2.3.4:6443 --token 9q8nf1.******************** \
    --discovery-token-ca-cert-hash sha256:*******************************************************

注: ログ出力の一部記述を編集している

どうやらうまくいったようだ。引き続き、ログ出力に記述されている指示に従ってKubernetes clusterを起動させる準備をする。

$ mkdir -p $HOME/.kube
$ sudo cp -iv /etc/kubernetes/admin.conf $HOME/.kube/config
‘/etc/kubernetes/admin.conf’ -> ‘/home1/irteamsu/.kube/config’
$ sudo chown -v $(id -u):$(id -g) $HOME/.kube/config
changed ownership of ‘/home1/irteamsu/.kube/config’ from root:root to 11000:11000
$ kubectl get nodes -o wide
NAME                   STATUS     ROLES    AGE    VERSION   INTERNAL-IP      EXTERNAL-IP   OS-IMAGE                KERNEL-VERSION               CONTAINER-RUNTIME
calicothehardway-001   NotReady   master   113s   v1.16.2   1.2.3.4          <none>        CentOS Linux 7 (Core)   3.10.0-1062.1.2.el7.x86_64   docker://18.6.2

StatusがNotReadyとなっているが、これにはちゃんと理由があって、kubectl get nodeをやってみると、以下の出力内容によって説明されている。

...
  Ready            False   Wed, 13 Nov 2019 01:10:00 +0900   Wed, 13 Nov 2019 01:01:56 +0900   KubeletNotReady              runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
...

要はNetwork pluginを入れてないためにNotReadyということで、まぁそうだよねっていう感じ。なので、このまま作業を継続する。残りの作業はSlaveとなるノードでswapをoffにしてクラスターに追加していけば良い。

# 各Slaveノードで以下を実行する。
$ sudo /sbin/swapoff --all
$ sudo kubeadm join ... # 残りの引数はkubeadmの画面に出てきたものをコピペ

最後にもう1度kubectl get nodeをやって追加したSlaveノードが全部表示されているかを確認する。

$ kubectl get nodes
NAME                   STATUS     ROLES    AGE     VERSION
calicothehardway-001   NotReady   master   15m     v1.16.2
calicothehardway-002   NotReady   <none>   10m     v1.16.2
calicothehardway-003   NotReady   <none>   2m41s   v1.16.2
calicothehardway-004   NotReady   <none>   50s     v1.16.2
calicothehardway-005   NotReady   <none>   32s     v1.16.2

問題なさそう。Day1はKubernetes準備ということなので、ここまで。