StrangerR wrote:zVlad wrote:StrangerR wrote:DR защита у меня была. Зеркало не обеспечивает DR защиту а обеспечивает бесперебойность главного сервиса. ..... Такое зеркалирование поддерживается той же VMware но вот только это именно DR а не бесперебойность сервиса.
Вы не только в DR ничего не понимаете, но и с зеркалированием запутались напрочь.
зеркало зеркалу рознь. Синхронный стендбай базы данных - средство High Availiability а также средство zero downtime при мейнтенсах.
Ну вот мы уже про HA вспомнили. Скоро, говоря, о всего лишь DR вспомним все технологии IT не важные с точки зренуя юзера.
Раз уж заговорили о HA, напомню, на MF это нажевается Sysplex и предполагает совместную работу нескольких систем (на разных бох-ах в одном датацентре или на одном бохе- в разных LPAR, в любом случае обединенных с помощью CF - Coupling Facility:
http://en.wikipedia.org/wiki/Coupling_Facility Это,чтобы Вам было понятнее, нечто вроде Oracle RAC, но сделаное по настоящему). Все системы SysPlex используют одни и теже диски. Любую систему можно остановить на maintenance.
Ваша HA со standby, kоторый стоит и ничего не делает кроме как принимает данные с primary, это детский лепет по сравнению с Sysplex, где все системы работают на результат. Sysplex это одномременно и клaстер, т.е. получении мощности где одного сервера недостаточно, но опять сделано по-настоящему в отличии от клaстер с Shared Nothing.
StrangerR wrote:
Асинхронное, скорее всего снапшотное, зеркало сторейджа - средство защиты от потери сайта или вашей супер МейнФреймы. Оно всегда будет отставать, будет копировать кучу ненужного. Обычно делают комбинированное решение
- приложения, сами ОС и прочее защищают так как у вас, реплицированием на уровне SAN системы. Потому как они меняются редко и мало.
- данные (базу и файлы, особенно базу) реплицируют на уровне логическом, например базу - синхронным стендбаем. Ну или если репликация в другой город то асинхронным.
Потаря сайта амбивалентна к любым платформам, поэтому выделять специально МФ здесь не обязательно.
Production, если это действительно Production не должен изменяться без надобности, для это есть другие сайты. На Production изменяются только рабочие данные в БД. Диски со страничным обменом и для временных ресурсов БД могут быть исключены из такого реплицирования (у нас реплицуреется все и никто никогда в этом проблем не видил, может они и есть но до меня это не доходило).
Говоря о такой репликации мы говорил именно о репликации "в другой город" для DR.
StrangerR wrote:
А так... сторейдж она реплицирует снапшоты, или же все транзакции вынуждены идти по каналу связи то есть он должен быть таким же как ширина вашего IO. В итоге (1) реплика отстает потому что снапшотная, и (2) реплицируется куча никому не нужного хлама, заодно. Нет, это хорошая стратегия, полная репликация на уровне SAN, но (1) очень дорогая по ресурсам, (2) вечно будет отставать то есть применима именно как DR _все пропало дата центр утонул_, и (3) если она не на VM то её нелегко тестировать. Обычно это применяют именно как DR между удаленными сайтами. Мы рассматривали такую возможность, но пока плюнули, обошлись rsync + DB репликацией + как я сказал - локально синхронное зеркало базы, удаленно репликация асинхронная другими средствами. Репликация дисков серверов базы данных - ну вероятно прошла бы ели снапшот раз в 20 минут делать, но канал бы потребовался раз в 10 толще чем сейчас.
(Я про один только проект. Их много, в других может и дисковая репликация встретиться. Но я пока как то ей не вдохновился.)
Про хлам я уже сказал - это детский лепет, извините. Конечно будет отставание и его не надо пытаться устранять - это же ДР. Может это решение и дорого, но в определенных отрослях с этим мирятся так же как с мифической дороговизной МФ. В итоге получается, кстати, что в совокупности все затрат на ИТ доля МФ не такая уж и драматическая.
Не знаю может в Ваших возможностях для тестирования обязательно нужна ВМ, наверное нужна, или физижеский нужен сервер. У нас на МФ это делается на раз-два-три:
1. Исходное состояние. MF в другом городе ранит другую Production используя все ресурсы: CPU и memory. Этот МФ может иметь меньше MIPS i меньше CPUs чем MF в этом городе. В его конфигурации имеется LPAR для DR сайта в неактивно состоянии, т.е. никаких ресурсов не потребляет. Этот МФ имеет CBU records (Capacity BackUp).
2. Подготовка. Приходит время тестировать, или мы в самом деле потераыли сайт в "этом городе". Продуцтион систему в "другом городе" просят освободить n GB memory. Как только это завершается активизируют DR LPAR в освобожденных GB-ax. Активизируется CBU record добaвляя capacity - MF в "другом городе" становится мощее (в нашем случае примерно в сто раз).
3. Завершение. Потерянная в "етом городе" система загружается в DR LPAR с реплицированных дисков. Юзеры начинают в ней работать. Для Test DR используется свой IP address конечно, потому нормальная работа ведь продолжается. В случае настоящего DR IP конечно не меняется.
Раз десять участвовал в таком тестировании последни раз 18-го октыбря, никаких сюрпризов ни разу не было.
По завершению тестa DR LPAR деактивируется. Продуцтион системе отдают n GB и она на них расползается снова. CBU record сам деактивируется через 10 дней, или его можно убрать динамически. МФ в "другом городе" возвращется к своей обычной capacity за которую мы платим.