Сессия про производительность:
Пара фоток слайдов:
словами:
- неиспользуемые vCPU это плохо, увеличивают накладные расходы - kb 1077, 1730.
- для часто скачущих приложений лучше сделать привязку к cpu внутри ВМ, а потом и affinity.
- если есть hyperthreading, то параметр cpu.htsharing лучше в "none".
- 64-bit ОС - хорошо, часто они более производительны.
- OS timer interrupt rate - что то с ним.
- VMI - гут.
- если у нас NUMA(я так понимаю, это означает сервера на платформе AMD), то лучше когда ресурсы ВМ помещаются в одну ноду с т.зрения кол-ва, а сам ESX довольно эффективно ВМ между нодами балансирует. Можно и руками привязать, но обычно не стоит.
- ESX swapping - плохо.
- если есть Nic teaming, и большой broadcast/multicast траффик от ВМ за этой группировкой, то это даст большую нагрузку на хост, ибо придется много пакетов отфильтровывать.
- kb 1428
- выделять отдельные сетевушки под SC/vmotion/iSCSI/NFS/многотраффиковые_ВМ
- если ВМ общаются друг с другом - лучше бы им это делать через vSwitch - т.е. быть подключенными к одному
- kb 1267, kb 964 56 97
- для разных ВМ юзать разные mount points.
- форматы дисков можно поделить на:
*)Eager zeroed thick - блоки обнуляются при создании, медленнее создается.
*)thick - вообще не обнуляются
*)остальные(сюда входит и дефолтный) - обнуляются при первом обращении - создается быстро, первое обращение проходит медленнее
0 коммент.:
Отправить комментарий
Примечание. Отправлять комментарии могут только участники этого блога.