Data Protection Manager 2007 в Microsoft Corp

Microsoft совершенно уверена в необходимости использования собственных продуктов во всех возможных областях работы. И зачастую первые beta релизы устанавливаются прямо в собственную рабочую инфраструктуру (разумеется без риска для производства), чтобы удостовериться и выверить стабильность и жизнеспособность собственного инструмента в Real Life, реальном мире, в компании, где от IT служб зависит очень многое. Microsoft IT (департамент IT Microsoft) начал эксплуатацию System Center Data Protection Manager (DPM), задолго до его начального выпуска в сентябре 2005 года, и недавно обновил техническую документацию по внедрению проекта в корпорации Microsoft.

Хорошо известно, что Microsoft перевела всю инфраструктуру Exchange на архивацию средствами DPM 2007. Тоже самое просходит и со всеми остальными частями инфраструктуры компании. Microsoft отказалась от Symantec BackupExec в пользу Data Protection Manager, получив прирост производительности, снижение стоимости и значительную оптимизацию процессов, обеспечивающих отказоустойчивость.

Для тех, кому интересны конкретные цифры, размеры, коэффициенты, статистика производительности, и методология — предлагаю вашему вниманию все выкладки ниже, чтобы заявления о зрелости и надежности DPM не выглядели голословными, и выразить данную информацию реальными показателями.

Каждая рабочая инфраструктура отличается от любой другой. Широкий диапазон различных факторов существует в каждой отдельной компании, и влияет на количественные показатели серверов, производительность, и т.д., а также операционные и бизнес- цели. Обозначенные показатели приведены для сравнительного анализа, и ваша инфраструктура может быть в чем-то схожей по построению с операциями Microsoft IT, но все же сценарии реализации могут несколько отличаться, от организации к организации.
Для достижения наилучших рекоммендаций, заказчикам и партнерам рекомендуется проводить разработки совместно со специалистами Microsoft по хранилищам, DPMinfo@microsoft.com.

А теперь, как было обещано ранее — реальные выкладки по реализации инфраструктуры DPM в компании Microsoft.

Крупнейший DPM сервер (наибольшая рабочая нагрузка):

  • 22 рабочих сервера под протекцией
  • 10.2 TB общий объем
  • 7.1 TB выделено
  • 3.5 TB задействовано

Обратите внимание, что соотношение 22:1 не является пределом производительности DPM. В данном случае, такое соотношение базируется на количестве данных, обрабатываемых DPM сервером. В других примерах возможно значительно большее число рабочих серверов, обслуживаемых единственной платформой DPM (например, множество небольших удаленных офисов, с различными объемами защищаемых данных), или меньшее количество серверов в расчете на платформу DPM, как например в случае рекомендаций для доменов Active Directory.

Наиболее загруженные рабочие сервера отводятся на мощнейший DPM сервер

Данные ниже, приведены с наиболее тяжелого узла сети на крупнейшем сервере DPM.

  • Рабочий сервер имеет показатели средней интенсивности изменения данных в 4.91%, следующий наиболее высокий показатель интенсивности изменения данными – 0.9%.
  • В среднем за 2:51 часа, 5.49GB данных синхронизируется с DPM сервером со скоростью передачи данных в 500-600 kb/sec.
  • Определенной особенностью является то, что DPM сервер использует 180GB хранилища, для протекции 120GB рабочих данных, с диапазоном изменений в 5%.
  • Это обеспечивает 40 реплик протекции для данного сервера.

Средняя интенсивность изменения данных Top 10 защищаемых рабочих серверов

Ранжирование Top 10 файловых серверов, со средней интенсивностью изменения данных (в %) за промежуток в 5 недель, на конец марта 2006 г.:

Rank Файл сервер Change Rate % Total Data Protected GB
1 PHUP01 32.20 % 207.87
2 DUFL01 5.90 % 14.09
3 HOUP01 4.57 % 24.48
4 EDUP01 3.58 % 23.13
5 TOUP02 3.17 % 11.26
6 ATUP01 2.90 % 62.09
7 NCUP01 2.34 % 33.62
8 HAUP01 2.30 % 24.48
9 BOUP01 2.13 % 19.15
10 BOUP02 1.51 % 9.98

Примечание: Не существует единого определяющего фактора, почему, например, у PHUP01 такой высокий коэффициент изменений, кроме, разве что, различные группы разработчиков по-разному загружают файловые ресурсы, при написании кода. Также, замечена довольно стабильная и очень низкая интенсивность изменения данных для прочих серверов. MsIT нацелен на возможности протекции практически всех этих серверов за промежуток от 30 до 60 дней.

Защита наиболее загруженных рабочих серверов средствами DPM

Наиболее загруженные рабочие сервера имеют показатели интенсивности изменения данных в 4.91%. Их статистика по DPM приведена ниже:

U-Drive 138GB общий размер 10GB свободно 128GB занято
I-Drive 138GB общий размер 112GB свободно 27GB занято

Данные по протекции DPM

  Детали Пула хранилища DPM (GB) Журнал синхронизации файл-сервера (GB)
Том Allocated Used by Replica Used by Shadow Copy Used by Transfer Log Allocated Max. used Average used
I: 55.82 12.07 0.12 0.01 13.57 0.01 0.01
U: 181.82 96.21 23.84 0.01 13.57 5.31 2.66

Обратите внимание, на малые объемы занимаемого пространства для реплики U drive (96GB), в сравнении с 128GB данных, расположенных на рабочем сервере.

Данные про статусу протекции DPM:

Status: OK
Replica path: d:DPM2006VolumesReplicaPHUP01U-f6862f9d-e2a9-11d9-a04c-806e6f6e6963ReplicaDir
Current recovery range: 19 days
Oldest shadow copy: 3/7/2006 5:34:17 PM
Latest shadow copy: 3/27/2006 1:22:35 AM
Total shadow copies: 40
Disk allocation: 135.67 GB allocated for replica (of entire volume) | 96.21 GB used

DPM сервер отвечает о 40 репликах диска, даже со средней интенсивностью изменения данных около 5%!
Размер источника данных – 128GB, MsIT выделяет 181GB хранилища DPM, используется всего лишь 97GB, 24GB от этого объема под реплики и теневые копии.

Время синхронизации DPM

Диск Job Время начала Времени затрачено Объем GB
U: Синхронизация 3/20/2006 16:04 2:46:31 5.61
U: Синхронизация 3/21/2006 16:03 3:01:21 5.32
U: Синхронизация 3/22/2006 16:04 2:43:13 5.65
U: Синхронизация 3/23/2006 16:02 3:05:01 5.54
U: Синхронизация 3/24/2006 16:32 3:06:14 5.52
U: Синхронизация 3/25/2006 16:02 2:39:17 5.48
U: Синхронизация 3/26/2006 16:03 2:35:32 5.31
В среднем: 2:51:01 5.49

За относительно непрерывный промежуток затраченного времени, менее 3 часов, и средней скоростью изменения данных в 5.5GB/день, DPM однозначно защищает серверные данные, используя всего лишь 600 KB/s сетевого трафика.

Надеюсь, что для вас это был достаточно убедительный пример применения продукта, в серьезных промышленных условиях. В ближайшее время здесь будут опубликованы технические выкладки сравнения функциональности различных решений для архивации Exchange, в том числе: Microsoft Data Protection Manager 2007, Symantec Backup Exec 12.5, CommVault Simpana 8, Quest LiteSpeed и других. Вы сможете лично убедиться в технических и функциональных преимуществах DPM над конкурентами.
Stay tuned! Не переключайтесь! 🙂

10 thoughts on “Data Protection Manager 2007 в Microsoft Corp”

  1. “Крупнейший DPM сервер”, какой то не очень и большой для IT Майкрософта. Даже у меня в компании на главном DPM выделено 5TB, из них 3,5 используется, и это всего при 11 серверах, включая Exchange, SQL, Sharepoint и файловый + 2 других DPM в филиалах.
    Хотелось увидеть здесь цифры посерьезней.

    P.S. Использовал Symantec, CA, но перейдя на DPM 2007 не могу нарадоваться 🙂 безусловно зе бест!

    1. Роман, ну цифры вобщем не первоапрельские, и достаточно реалистичные.
      Во-первых это скорее всего был рабочий пилотный срез, потом, под DPM подобрали все остальное, естественно база стала крупнее.
      Во-вторых, у вас 3,5 – это “SQL, Sharepoint и файловый + 2 других DPM в филиалах”, а там — это только почта.
      Думаю, что у Microsoft, после развеса всех своих ресурсов на DPM – цифры получились сильно другие.

      Подтверждаю, тоже использовал Symantec достаточно долго, и перейдя на DPM – вижу все недостатки конкурентов.
      Роман! Не поделитесь, чем для вас DPM стал лучше Sym или CA? Можно в почту, если хотите. MaxMVP@MaximumExchange.ru

  2. Максим, спасибо за ответ. Раз это только почта тогда все понятно, цифры серьезные, мне почему по тексту показалось что речь идет о файловых ресурсах.
    Поделюсь 🙂
    1) Очевидное: и в Symantec и в CA заумная система лицензирования, опции, агенты. Неудобно и дорого. DPM в этом плане сказка, посчитал количество серверов и все 🙂
    2) Интерфейс что в Symantec, что в CA это что-то монстрообразное. Если в Symantec еще более менее понятно куда лезть для той или иной задачи, то в CA иногда просто в ступор вводит. Приходится лезть в мануал на 406 страниц чтобы просто найти где это делается. Кошмар. DPM тут ну просто выше всех похвал, ничего лишнего, все логично. Все именно так как я себе представлял в идеальном софте для бэкапа.
    3) То как в DPM реализована Short-term, Long-term recovery тоже выше всех похвал. Именно так как планируется изначально на бумаге, не в Symantec ни в CA таких удобств нет, приходилось придумывать обходные решения. К слову схему хранения которая сейчас реализована в DPM сделать полностью на CA вообще не получилось 🙁 пришлось совмещать CA + NTBackup + самописные скрипты. Никуда не годится.
    4) Даже работа с библиотеками в DPM реализована куда лучше чем Symantec, CA. Насколько удобно то что не надо настраивать отдельно media pool, назначать какие кассеты для каких груп. Все делается на уровне Protection Group, а насколько Data Colocation удобен, включил и все работает, без дополнительных настроек 🙂
    5) Скорость. DPM просто мега шустрый, сервера и сервер бэкапа подключены по гигабиту, так он во время бэкапа или восстановления умудряется его использовать на 99%. Такого я не видел нигде до этого. Вот мне каждую неделю приходится восстанавливать 17гб базу sql (1С) для тестирования, занимает процесс восстановления 3 минуты 3 секунды. Это превосходный результат.

    Пользуюсь DPM пока всего около 4 месяцев, до этого в этой компании был CA около полугода (купили лицензию на год, но не стали дожидаться окончания, протестировав DPM сразу перешли на него). В предыдущей компании был Symantec, версия тогда еще 10d. Мук с ним было много, задания не выполнялись, делались по 2ое суток, во общем вспоминаю как страшный сон 🙂 может конечно в 12ой версии стало и получше, но желания пробовать как то нет.

    Теперь немного критики. В DPM мне не нравится как он работает с обычными workstation. Поясню, есть Top-менеджеры у которых на ноутбуках данные, ставим на ноутбук агент, настраиваем. И получается что каждый раз когда ноутбук не в сети у DPM возникает alert’ы – synchronization failures, recovery point creation failed. Конечно если ноутбук будет подключен к сети к следующей запланированной синхронизации то все это само решится, но хотелось бы немного иной схемы.
    А именно чтобы в DPM различал компьютер это или ноутбук, и если ноутбук для него правильно было бы, в случае невозможности контакта с агентов, не делать Alert, а скажем уменьшить время проверки доступности агента и как только он станет доступен, сразу сделать synchronization и recovery point. Мне кажется это не сложно реализовать, но насколько это было бы удобней чем как сейчас.

    1. Большое спасибо, Роман, за развернутый ответ.
      Во многом согласен с вами, как за преимущества так и за критику.
      (Smart Telecom? 🙂 )
      С вашего позволения, процитирую ваши слова в посте, хорошо сказано, зрелое и ценное мнение.

  3. Есть ли русское сообщество по DPM(в Technet слишком большое время реакции, если вообще можно надеяться на ответ)? Внедрил в производственную эксплуатацию DPM 2007, есть много вопросов.

    1. Русская группа TechNet Forum – самый оптимальный вариант. MVP по DPM я не знаю, но поищу.
      Всетаки, если вы внедрили, и у вас много вопросов – значит вам нехватает знаний. TechNet!

  4. Пользуемся DPM более года, раньше использовали Symantec (правда и сейчас используем для бекапа файловой шары). С Exchange, SQL, Sharepoint работает великолепно, никаких нареканий нет. С бекапом виртуальных машин под Hyper-V одни проблемы. Постоянный ошибки с консистенцией реплик и невозможностью создания точек восстановления, некоторые виртуальные машины бекапятся только в Save-состоянии. Кто то сталкивался с подобной проблемой?

  5. У меня ошибки реплик и без Hyper-V сыпяться 🙁 И при переключении SQL базы в другую модель бэкапирования, DPM не может переключиться на новый тип, хотя заявлена автоматическое переключение, или я что то не понимаю… Будем читать TechNet..

  6. Процесс чего? Hyper-V и виртуальные машины под ним работают безупречно. Вопрос только с их бекапом в DPM 2007. Подобная проблема была и с бекапом виртуальных машин под Virtual Server. Тогда эта проблема не была столь критичной, поэтому на нее не обращали внимание. Теперь приходится останавливать виртуальный сервер работающие в кластере Hyper-V серверов, что бы сделать его бекап, а как вы понимаете это не очень удобно.

Leave a Reply

Your email address will not be published.