я прочитал это в документе:
Каждый модуль получает свой собственный IP-адрес... модули на узле могут взаимодействовать со всеми модулями на всех узлах без NAT.
Должен ли я читать это как «каждый стручок получает свой собственный уникальный кластер шириной Айпи адрес"?
Я предположил, что это так, но причина, по которой я спрашиваю, заключается в том, что я заметил модули с одинаковыми IP-адресами только на разных узлах сразу после того, как я инициализировал новый кластер, следуя инструкциям. здесь. Кластер имеет 3 узла тест-VM{4,5,6}
, с тест-VM4
как мастер, работающий в локальной фиктивной сети 10.1.4.0/16. Я использовал фланель для CNI и настроил ее следующим образом:
kubectl patch node test-vm{4..6} -p '{ "spec": { "podCIDR": "10.244.0.0/16" } }' # Пришлось сделать это, потому что это не было установлено при инициализации кластера. См. https://stackoverflow.com/a/60944959/2038383.
kubectl применить -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
Обратите внимание, что 3 IP-адреса встречаются дважды для 2 разных модулей — 10.244.0.{2,3,4}:
$ kubectl получить модули --all-namespaces -o широкий -w
ПРОСТРАНСТВО ИМЕН ИМЯ ГОТОВНОСТЬ СТАТУС ПЕРЕЗАПУСКА ВОЗРАСТ IP УЗЛА НАЗНАЧЕННЫЙ УЗЕЛ ГОТОВНОСТЬ ВОРОТА
по умолчанию curl 1/1 Работает 0 14 м 10.244.0.4 test-vm6 <нет> <нет>
по умолчанию my-nginx-cf54cdbf7-d6s9m 1/1 Работает 0 17 м 10.244.0.3 test-vm6 <нет> <нет>
по умолчанию my-nginx-cf54cdbf7-twrvw 1/1 Работает 0 17 мин 10.244.0.2 test-vm6 <нет> <нет>
по умолчанию my-nginx-cf54cdbf7-xpff6 1/1 Работает 0 17 мин 10.244.0.4 test-vm5 <нет> <нет>
по умолчанию my-nginx-more-5f79688b9d-4c9jk 1/1 Работает 0 3m10s 10.244.0.6 test-vm5 <none> <none>
по умолчанию my-nginx-more-5f79688b9d-7htsn 1/1 Работает 0 3m18s 10.244.0.5 test-vm5 <none> <none>
по умолчанию my-nginx-more-5f79688b9d-gqz9b 1/1 Работает 0 3m4s 10.244.0.7 test-vm5 <none> <none>
по умолчанию nginx1 1/1 Работает 0 9 с 10.244.0.8 test-vm5 <нет> <нет>
kube-system coredns-64897985d-kt82d 1/1 Работает 0 41 м 10.244.0.2 test-vm5 <нет> <нет>
kube-system coredns-64897985d-rd7gz 1/1 Работает 0 41 м 10.244.0.3 test-vm5 <нет> <нет>
kube-system etcd-test-vm4 1/1 Работает 0 41 м 10.1.4.36 test-vm4 <нет> <нет>
kube-system kube-apiserver-test-vm4 1/1 Работает 0 41 м 10.1.4.36 test-vm4 <нет> <нет>
kube-system kube-controller-manager-test-vm4 1/1 Running 0 41m 10.1.4.36 test-vm4 <none> <none>
kube-system kube-flannel-ds-snkhk 1/1 Бег 0 29 м 10.1.4.38 test-vm6 <нет> <нет>
kube-system kube-flannel-ds-wtmqg 1/1 Running 0 29m 10.1.4.37 test-vm5 <none> <none>
kube-system kube-flannel-ds-x46xw 1/1 Running 0 29m 10.1.4.36 test-vm4 <none> <none>
kube-system kube-proxy-mjl69 1/1 Running 0 41m 10.1.4.37 test-vm5 <none> <none>
kube-system kube-proxy-vz2p2 1/1 Работает 0 41 м 10.1.4.36 test-vm4 <нет> <нет>
kube-system kube-proxy-xg4gg 1/1 Running 0 41m 10.1.4.38 test-vm6 <none> <none>
kube-system kube-scheduler-test-vm4 1/1 Running 0 41m 10.1.4.36 test-vm4 <none> <none>
Несмотря на то, что говорится в документах, все модули не могут общаться друг с другом. Они могут взаимодействовать только с модулями на одном узле, и это вызывает ошибки. Хотите знать, является ли это красным флагом, что что-то не так или нет, и искать разъяснения по этому вопросу об уникальности IP-адреса модуля.