Рейтинг:0

Два связанных 10-гигабитных сетевых адаптера на гостевой ОС ESXi, не использующих полную пропускную способность

флаг cn

На гостевой машине ESXi с операционной системой Ubuntu 18.04 два сетевых адаптера подключены с двух разных vswitch, каждый из них имеет отдельный 10Gb uplink.

Я сделал связанный ник из этих двух ссылок с баланс-рр и баланс-альб режимы. При тестировании пропускной способности она не превышает предела в 10 Гбит/с (около 9,7 Гбит/с) для связанного интерфейса.

 bwm-ng v0.6.1 (проверка каждые 0,500 с), нажмите «h» для получения помощи
  ввод: /proc/net/dev тип: скорость
  \ iface Rx Tx Итого
  ================================================== =============================
               lo: 0,00 бит/с 0,00 бит/с 0,00 бит/с
           ens160: 3,82 кбит/с 5,30 Гбит/с 5,30 Гбит/с
           ens192: 15,33 кбит/с 4,35 Гбит/с 4,35 Гбит/с
            bond0: 19,16 кбит/с 9,64 Гбит/с 9,64 Гбит/с
  --------------------------------------------- ----------------------------
            всего: 38,31 кбит/с 19,28 Гбит/с 19,29 Гбит/с

# ip ссылка
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    ссылка/петля 00:00:00:00:00:00 брд 00:00:00:00:00:00
2: ens160: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 состояние UP режим DEFAULT группа по умолчанию qlen 1000
    ссылка/эфир 00:0c:29:xx:xx:xx brd ff:ff:ff:ff:ff:ff
3: ens192: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 состояние UP режим DEFAULT группа по умолчанию qlen 1000
    ссылка/эфир 3a:f0:c2:xx:xx:xx brd ff:ff:ff:ff:ff:ff
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state Режим UP DEFAULT group default qlen 1000
    ссылка/эфир 3a:f0:c2:xx:xx:xx brd ff:ff:ff:ff:ff:ff
# кошка /proc/net/bonding/bond0
Драйвер связывания каналов Ethernet: версия 3.7.1 (27 апреля 2011 г.)

Режим соединения: адаптивная балансировка нагрузки
Основной ведомый: Нет
Текущее активное подчиненное устройство: ens192
Статус MII: up
Интервал опроса MII (мс): 100
Задержка вверх (мс): 0
Задержка вниз (мс): 0

Ведомый интерфейс: ens192
Статус MII: up
Скорость: 10000 Мбит/с
Дуплекс: полный
Счетчик неудачных ссылок: 0
Постоянный аппаратный адрес: 00:0c:29:xx:xx:xx
Идентификатор подчиненной очереди: 0

Ведомый интерфейс: ens160
Статус MII: up
Скорость: 10000 Мбит/с
Дуплекс: полный
Счетчик неудачных ссылок: 0
Постоянный аппаратный адрес: 00:0c:29:xx:xx:xx
Идентификатор подчиненной очереди: 0

Я уже протестировал конфигурацию без использования ESXi (машина с Ubuntu на голой машине), и я получил общую пропускную способность около 16 Гбит / с для интерфейса bond0. Кроме того, с одним сетевым адаптером в гостевой системе ESXi я могу его насытить и получить пропускную способность около 10 Гбит/с.

Есть ли ограничения на ESXi vswitch или гостевую машину?

флаг br
Как настроены vswitches? Используете ли вы джамбо-фреймы?
флаг br
Также прочитайте это; https://unix.stackexchange.com/questions/469346/link-aggregation-bonding-for-bandwidth-does-not-work-when-link-aggregation-gro
raitech avatar
флаг cn
Конфигурация vswitch оставлена ​​по умолчанию: MTU 1500, IP-хэш на основе маршрута. Я протестировал конфигурацию с одним сетевым адаптером, и я могу получить полную пропускную способность 10 Гбит/с.

Ответить или комментировать

Большинство людей не понимают, что склонность к познанию нового открывает путь к обучению и улучшает межличностные связи. В исследованиях Элисон, например, хотя люди могли точно вспомнить, сколько вопросов было задано в их разговорах, они не чувствовали интуитивно связи между вопросами и симпатиями. В четырех исследованиях, в которых участники сами участвовали в разговорах или читали стенограммы чужих разговоров, люди, как правило, не осознавали, что задаваемый вопрос повлияет — или повлиял — на уровень дружбы между собеседниками.