один узел не может разрешить доменное имя
У меня есть кластер k8s. Он состоит из одного мастера и трех узлов.
K8smaster, k8snode1, k8snode2, k8snode3
Я запускаю этот yaml для теста.
апиВерсия: v1
вид: стручок
метаданные:
апиВерсия: v1
вид: стручок
метаданные:
имя: Busybox-0
пространство имен: по умолчанию
спецификация:
контейнеры:
- изображение: Busybox: 1.28
команда:
- спать
- "3600"
imagePullPolicy: Ифноптресент
имя: Busybox-0
политика перезапуска: всегда
хост-сеть: правда
dnsPolicy: Кластерфирствисхостнет
имя_узла: k8snode1
---
апиВерсия: v1
вид: стручок
метаданные:
имя: Busybox-1
пространство имен: по умолчанию
спецификация:
контейнеры:
- изображение: Busybox: 1.28
команда:
- спать
- "3600"
imagePullPolicy: Ифноптресент
имя: Busybox-1
политика перезапуска: всегда
хост-сеть: правда
dnsPolicy: Кластерфирствисхостнет
имя_узла: k8snode2
---
апиВерсия: v1
вид: стручок
метаданные:
имя: Busybox-2
пространство имен: по умолчанию
спецификация:
контейнеры:
- изображение: Busybox: 1.28
команда:
- спать
- "3600"
imagePullPolicy: Ифноптресент
имя: Busybox-2
политика перезапуска: всегда
хост-сеть: правда
dnsPolicy: Кластерфирствисхостнет
имя_узла: k8snode3
[root@k8smaster wxms]# kubectl get pod -o wide | группа занята
busybox-0 1/1 Работает 53 2d5h 192.168.0.117 k8snode1 <нет> <нет>
busybox-1 1/1 Работает 53 2d5h 192.168.0.128 k8snode2 <none> <none>
busybox-2 1/1 Работает 53 2d5h 192.168.0.73 k8snode3 <нет> <нет>
узел1
[root@k8smaster wxms]# kubectl exec -it busybox-0 -- sh
/ #
/ # имя хоста
K8snode1
/ #
/ # пинг www.baidu.com
ping: неверный адрес «www.baidu.com»
/ #
узел2
[root@k8smaster ~]# kubectl exec -it busybox-1 -- sh
/ # имя хоста
k8snode2
/ # пинг www.baidu.com
PING www.baidu.com (180.101.49.12): 56 байт данных
64 байта от 180.101.49.12: seq=0 ttl=47 time=14,850 мс
64 байта от 180.101.49.12: seq=1 ttl=47 время=14,731 мс
64 байта от 180.101.49.12: seq=2 ttl=47 время=14,708 мс
^ С
--- www.baidu.com статистика пинга ---
3 пакета передано, 3 пакета получено, 0% потери пакетов
туда-обратно мин./средн./макс. = 14,708/14,763/14,850 мс
/ #
узел3
[root@k8smaster ~]# kubectl exec -it busybox-2 -- sh
/ # имя хоста
k8snode3
/ #
/ # пинг www.baidu.com
PING www.baidu.com (180.101.49.12): 56 байт данных
64 байта из 180.101.49.12: seq=0 ttl=47 time=17,010 мс
64 байта от 180.101.49.12: seq=1 ttl=47 время=14,680 мс
64 байта от 180.101.49.12: seq=2 ttl=47 время=14,414 мс
64 байта от 180.101.49.12: seq=3 ttl=47 время=14,408 мс
64 байта от 180.101.49.12: seq=4 ttl=47 время=14,502 мс
64 байта от 180.101.49.12: seq=5 ttl=47 time=14,427 мс
^ С
--- www.baidu.com статистика пинга ---
6 пакетов передано, 6 пакетов получено, 0% потерь пакетов
туда-обратно мин./средн./макс. = 14,408/14,906/17,010 мс
/ #
сердцевина
[root@k8smaster ~]# kubectl get po -n kube-system -o wide | grep DNS
coredns-5ffc8cf9c9-56lh2 1/1 Работает 0 25d 10.244.0.16 k8smaster <нет> <нет>
coredns-5ffc8cf9c9-8jrtf 1/1 Работает 0 25d 10.244.3.46 k8snode3 <нет> <нет>
Если я изменю "/etc/resolv.conf" сервер имен
на IP-адрес coreDNS, он работает.
# сервер имен 10.96.0.10
сервер имен 10.244.0.16
поиск default.svc.cluster.local svc.cluster.local cluster.local openstacklocal
варианты точек:5
тогда узел1
/ # пинг www.baidu.com
PING www.baidu.com (180.101.49.11): 56 байт данных
64 байта из 180.101.49.11: seq=0 ttl=47 time=13,709 мс
64 байта из 180.101.49.11: seq=1 ttl=47 time=11,078 мс
^ С
--- www.baidu.com статистика пинга ---
2 пакета передано, 2 пакета получено, 0% потери пакетов
туда-обратно мин./средн./макс. = 11,078/12,393/13,709 мс
`Кубе-dns. журналы
[root@k8smaster ~]# журналы kubectl --namespace=kube-system -l k8s-app=kube-dns
[ОШИБКА] плагин/ошибки: 2 143.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:59179->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 143.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:56471->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 144.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:36941->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 144.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:59206->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 145.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:37024->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 145.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:52478->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 148.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:46214->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 148.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:55425->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 158.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:46974->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 158.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.0.16:49570->114.114.114.114:53: тайм-аут ввода/вывода
[INFO] 10.244.2.132:58592 - 2530 "A IN seata-server.default.svc.cluster.local.openstacklocal. udp 71 false 512" NXDOMAIN qr,aa,rd,ra 146 0,000128288s
[INFO] 10.244.1.83:37946 - 34309 "A IN seata-server.default.svc.cluster.local.default.svc.cluster.local. udp 82 false 512" NXDOMAIN qr,aa,rd 175 0.000155371s
[INFO] плагин/перезагрузка: рабочая конфигурация MD5 = 4e235fcc3696966e76816bcd9034ebc7
[INFO] Перезагрузка завершена
[ОШИБКА] плагин/ошибки: 2 138.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.3.46:49514->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 138.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.3.46:45862->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 140.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.3.46:57703->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 140.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.3.46:35707->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 159.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.3.46:34596->114.114.114.114:53: тайм-аут ввода/вывода
[ОШИБКА] плагин/ошибки: 2 159.3.244.10.in-addr.arpa. PTR: чтение udp 10.244.3.46:49975->114.114.114.114:53: тайм-аут ввода/вывода
[root@k8smaster ~]# kubectl get ep kube-dns --namespace=kube-system
НАЗВАНИЕ КОНЕЧНЫЕ ТОЧКИ ВОЗРАСТ
kube-dns 10.244.0.16:53,10.244.3.46:53,10.244.0.16:9153 + еще 3... 392d
[root@k8smaster ~]# kubectl get svc --namespace=kube-system
НАЗВАНИЕ ТИП КЛАСТЕР-IP ВНЕШНИЙ-IP ПОРТ(Ы) ВОЗРАСТ
kube-dns ClusterIP 10.96.0.10 <нет> 53/UDP,53/TCP,9153/TCP 392d
metrics-server ClusterIP 10.108.23.241 <нет> 443/TCP 26d
Kube-прокси
[root@k8smaster ~]# kubectl get pods -n kube-system -o wide | grep куб-прокси
kube-proxy-2j28w 1/1 Работает 0 2d5h 192.168.0.56 k8smaster <нет> <нет>
kube-proxy-bxzkt 1/1 Работает 0 2d5h 192.168.0.117 k8snode1 <нет> <нет>
kube-proxy-lnmjt 1/1 Работает 0 2d5h 192.168.0.128 k8snode2 <нет> <нет>
kube-proxy-th9pp 1/1 Работает 0 2d5h 192.168.0.73 k8snode3 <none> <none>
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl регистрирует kube-proxy-bxzkt --tail=5 -n kube-system
W0520 08:28:44.004213 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4
W0520 08:29:14.004129 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4
W0520 08:29:44.004042 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl регистрирует kube-proxy-lnmjt --tail=5 -n kube-system
I0519 07:53:16.612070 1 shared_informer.go:230] Кэши синхронизируются для конфигурации конечных точек
W0520 08:26:21.522852 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4
W0520 08:26:51.522669 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4
W0520 08:27:21.522677 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl регистрирует kube-proxy-th9pp --tail=5 -n kube-system
W0520 08:24:59.419474 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4
W0520 08:25:29.408271 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4
W0520 08:25:59.409644 1 iptables.go:562] Не удалось проверить iptables canary mangle/KUBE-PROXY-CANARY: статус выхода 4