Коллеги, ситуация:
развернут стенд(сервер, iSCSI СХД). Есть возможность на этом стенде поднять любой актуальный гипервизор и погонять на нем тесты(настройки гипервизоров предполагаются дефолтными). Померять скорость копирования файлов и иопсы Iometer'ом - это легко.
И мне предложили у вас спросить - а что бы еще могло послужить интересным тестом - есть идеи? Идеи(чем предложенный вариант конкретнее, тем больше шансов что он будет реализован) можно указывать в камментах к посту или мылом на mikhail.mikheev@vm4.ru.
Результаты тестов планируются к открытой публикации.
Затея целиком и полностью частная - и не моя.
среда, 25 марта 2009 г.
Сравнение гипервизоров
Подписаться на:
Комментарии к сообщению (Atom)
0) Открытая публикация тестов, не одобренных vmware, вроде бы противоречит лицензионному соглашению Esxi.
ОтветитьУдалить1) Можно потестировать количество "попугаев", выдаваемых процессором и памятью виртуальных машин и сравнить ее с "железной" машиной.
2) Создать диск в оперативке виртуальной машины. Потестировать скорость считывания с этого диска через сеть.
0) не больно с трибуны вещание будет с целью порекламировать единственно правильного вендора. Так, свои для своих.
ОтветитьУдалитьПредложения:
ОтветитьУдалить0) в качестве диска ВМ использовать лун, предоставленный как RAW
1) погонять BurnItTest
2) добавить hyper-v r2 beta и XenServer
добрый день.
ОтветитьУдалитьгипервизоры
vmware esx
xenserver
hyper-v
+ физическая машина )
провести тесты попугаев во всех гипервизорах для vCPU, памяти - чтение-запись.
для дисковой системы - в двух вариантах для каждого гипервизора, RDM и виртуальный диск
линейное чтение-запись блоками 64-512-1024 kb
рандомные операции 50 на 50 write read
гипервизоры настройки по умолчанию, но
для ESX предлагаю отключить share memory pages в тестовой вирутальной машине.
А яй-яй...снова реклама на vm4.ru ))
ОтветитьУдалитьnetperf - тест TCP_RR
ОтветитьУдалитьдисковая - SQLio
Предпалогаемые объекты для тестирования:
ОтветитьУдалитьesx 3.5u3
hyper-v r2 beta в составе windows server 2008 r2
xenserver 5.0fp1
виртуальные машины под управлением windows server 2008 r2 beta.
дисковая подсистема - iscsi lun 40Gb
Будет подключаться напрямую в виртуальную машину с через microsoft iscsi initiator, потом lun подключается средствами хоста и на нем размещается диск, подключаемый к вм.
Пока из тестов:
линейное чтение/запись с блоками 8к 64к 1024к
iometer с профилем Database с очередями до 256
sqlio
2 Андрей Вахитов:
1) Чем считать "попугаи"?
2) А что данный тест покажет?
2 Анонимный 1:
0) диск, предоставленный как RAW = RDM? Учитывая мизерное отличие от производительности vmdk, полезность данного теста невелика
1) BurnItTest - платный...
2) hyper-v r2 beta к сожалению нормально потестировать не получиться изза кучи ограничений на GUI. Будет w2k8r2.
Хотелось бы увидеть тесты дисковых подсистем
ОтветитьУдалитьDAS
NAS(iSCSI,FC,)
2Анонимный
ОтветитьУдалитьDAS\NAS\SAN DAS\NAS\SAN'ну рознь.
В любом случае, стенд построен на iSCSI СХД - без вариантов. Тестировать предполагается гипервизоры на одном и том же железе, а не разные железки.
2 Анонимный: тесты памяти и процессора с http://cpu.rightmark.org/
ОтветитьУдалитьДанные тесты покажут синтетическую производительность железа или гипервизора. Можно посмотреть потери производительности при виртуализации.
Андрей, потери на виртуализацию очень сложно измерить. Особенно сложнео измерить эффективность co-scheduling для набитого vSMP машинами хоста.
ОтветитьУдалитьСогласен. Но я предполагал использовать тесты на:
ОтветитьУдалить1) одном ядре (через CPU affinity в MS Windows);
2) Одном vCPU одной машины гипервизора.
В этом случае потери на co-scheduling должны быть минимальны, как я думаю...
Михаил, все-таки решили заняться тестированием?
ОтветитьУдалитьНедавно был уже вариант, если не видели: http://virtualizationreview.com/features/article.aspx?editorialsid=2641
Таки я против попугаев.
Хотя, учитывая статью можно посмотреть на разницу (действительно ли такой порядок цифр?), но в реальных задачах эти цифры ничго же не показывают...
Конкретно: я предлагаю выполнить тест SQL, подобный тому, что в статье, - т.к. это и есть практический результат (и порядок тех цифр меня настораживает).
Но в SQL я не силен, - что к чему пояснить не смогу...
Alex,
ОтветитьУдалитьдля тестирования дисковой подсистемы более менее практический результат даст sqlio.
С точки зрения производительности системы в целом - нагрузочное тестирование Exchange 2007 - с большой долей вероятности для некоторых вариантов я успею провести его в апреле...
Тут - http://www.64bit.ru/?p=383 уже все померяли ;)
ОтветитьУдалитьхреновенько померяли, честно говоря.
ОтветитьУдалитьКак так, ESX и не выиграл ;-)
я уже отписал тут -
http://www.vm4.ru/2009/04/blog-post_8214.html
Для сильно нагруженных виртуальных машин актуально прибивание каждого физического проца к каждому виртуальному для уменьшения количества контекстных переключений. Эту плючшку нашел только в обычном xen (в щистриксовом этого нету) - vcpu-pin.
ОтветитьУдалитьне знаю как в Xen, а в ESX эта фича делает невозможным vMotion привязанной ВМ, что сильно ограничивает применимость фичи.
ОтветитьУдалить