Добро пожаловать в форум, Guest  >>   Войти | Регистрация | Поиск | Правила | В избранное | Подписаться
Все форумы / Microsoft SQL Server Новый топик    Ответить
Топик располагается на нескольких страницах: 1 2 3 4      [все]
 Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
Имея некоторые проблемы с надёжностью
больших бэкапов (сохранение на NAS, 0.2 - 0.7 TB на файл в сжатом виде)
натолкнулся на статью, где приводятся данные о надёжности дисков / ленты
откуда с удивлением узнал, что надёжность ленты на два порядка выше, чем у лучших дисков.

http://www.enterprisestorageforum.com/storage-technology/sas-vs.-sata-1.html

В этой связи хотелось бы узнать
- куда бэкапят коллеги
- рекомендации (если у кого есть)
28 июн 16, 14:21    [19345468]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
a_voronin
Member

Откуда: Москва
Сообщений: 4806
на не самый быстрый HDD
28 июн 16, 14:29    [19345553]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
StarikNavy
Member

Откуда: Москва
Сообщений: 2396
Alexander Us,

-на ленте
-на ленту
28 июн 16, 14:51    [19345735]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
StarikNavy
Member

Откуда: Москва
Сообщений: 2396
Alexander Us,

вобще рекомендации надо не у коллег, а у "бизнеса" спрашивать
какая глубина истории хранения им нужна, какая срок восттановления, стоимость итд итп
28 июн 16, 14:52    [19345742]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Lavrov_Yura
Member

Откуда:
Сообщений: 34
сторонней программой (ранее Backup Exec, теперь Networker) со своей быстрой хранилкой для кратковременых бэкапов и своими стриммерами для долгохранящихся.
28 июн 16, 15:31    [19346007]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
узнал, что надёжность ленты на два порядка выше, чем у лучших дисков.
В принципе да.

Но диски спасает то, что их обычно объединяют в отказоустойчивые массивы.

Alexander Us
В этой связи хотелось бы узнать
- куда бэкапят коллеги
- рекомендации (если у кого есть)
Ленты - удел совсем энтерпрайза-энтерпрайза. Для больших объёмов.
Мы, простые работяги, свои жалкие террабайты бакапим на диски.
Alexander Us
- рекомендации (если у кого есть)
Наверное, в этих энтерпрайзах есть какие то расчёты, и основанные на них рекомендации, да вот типа той же статьи.

Я вижу, что угрозу несёт в основном не отказ железа, а ошибки слкжб эксплуатации, типа, "ни у кого не было задания делать бакап этого сервера".
Поэтому ИМХО правильная стратегия - поручать вести бакап параллельно разным подразделениям.
То есть бакапить не только данные, но и действия персонала, и ответственность.
29 июн 16, 00:03    [19348036]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
alexeyvg
Alexander Us
- рекомендации (если у кого есть)
Наверное, в этих энтерпрайзах есть какие то расчёты, и основанные на них рекомендации, да вот типа той же статьи.

Я вижу, что угрозу несёт в основном не отказ железа, а ошибки слкжб эксплуатации, типа, "ни у кого не было задания делать бакап этого сервера".
Поэтому ИМХО правильная стратегия - поручать вести бакап параллельно разным подразделениям.
То есть бакапить не только данные, но и действия персонала, и ответственность.
Да, ещё - задание админу (или службе эксплуатации) "(с)делать бакап" считается выполненным не тогда, когда бакап сделан, а когда он восстановлен, и результат восстановления проверен.
Это, конечно, очевидно, но просто на всякий случай напомнил...
29 июн 16, 00:06    [19348047]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
А кто использует опцию "проверка бэкапа"?

Я некоторое время полагал, что если бэкап успешно сделан, то почти наверняуа всё ок,
что подтверждалось выборочными тестовыми восстановлениями. Оказалось не так.

Т.е. проблема (видимо хардварная) в NAS - запись баз проблем, а verify проходит не всегда успешно.
29 июн 16, 09:36    [19348483]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
Alexander Us,

"... жалкие терабайты..." с компрессией можня прямиком в azure page blobs.

с 2016 появилась возможность делать stripe в несколько azure blobs..
30 июн 16, 07:21    [19352838]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
+

у blob storage есть разные уровни redundancy LRS/GRS/RA-GRS

2014 пишет в page blob'ы и цена выходит 50$/1Tb в месяц за LRS (три копии в датацентре). но вы же еще будете жать бэкапы. page blob'ы тарифицируются как standard disk:
https://azure.microsoft.com/en-us/pricing/details/storage/#disk-storage

2016 может писать в block blob'ы они дешевле в хранении и есть cool/hot
https://azure.microsoft.com/en-us/pricing/details/storage/
30 июн 16, 10:45    [19353399]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
o-o
Guest
Чурюпаху завербовали azurщики
30 июн 16, 10:49    [19353416]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
churupaha
2014 пишет в page blob'ы и цена выходит 50$/1Tb в месяц за LRS (три копии в датацентре). но вы же еще будете жать бэкапы. page blob'ы тарифицируются как standard disk:
https://azure.microsoft.com/en-us/pricing/details/storage/#disk-storage

2016 может писать в block blob'ы они дешевле в хранении и есть cool/hot
https://azure.microsoft.com/en-us/pricing/details/storage/
Там ещё для доступа есть какая то цена, так что стоимость будет выше. Насколько, интересно?

churupaha
у blob storage есть разные уровни redundancy LRS/GRS/RA-GRS
Что то мне кажется, что опасность потери данных будет не от аппарратных сбоев, а от косяков (с обоих сторон) ведения аккаунтов в Azure.

И ещё непонятно, как получить доступ, только специальными методами, что то стандартное там работает?

Хотя в целом технология хорошая, да.
30 июн 16, 11:08    [19353502]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
alexeyvg
churupaha
2014 пишет в page blob'ы и цена выходит 50$/1Tb в месяц за LRS (три копии в датацентре). но вы же еще будете жать бэкапы. page blob'ы тарифицируются как standard disk:
https://azure.microsoft.com/en-us/pricing/details/storage/#disk-storage

2016 может писать в block blob'ы они дешевле в хранении и есть cool/hot
https://azure.microsoft.com/en-us/pricing/details/storage/
Там ещё для доступа есть какая то цена, так что стоимость будет выше. Насколько, интересно?
Вообще главный недостаток такого подхода - уход от распределённых вычислений (как концепции) к концепции "мэйнфрейма".

Вроде же выгодно распределять хранение и обработку на разных уровнях? И стоимость единицы производительности, единицы пропускной способности уменьшается при таком распределении.
Вот конкретно, ежедневный бакап + его передача, неужели в облаке, с передачей через тыщи километров, будет дешевле, чем на свои дисковые массивы с передачей по локальной сети?

Так, когда то уже давно, "большие ЭВМ" были потеснены мидл-фреймами, потом Unix, ПК, потом ноутбуки и смартфоны...

А сейчас нам рекламируют новый тренд, что типа давайте всё хранить и обрабатывать на одной большой машине, а у нас будут простые терминалы.
Как то это всё мной не принимается.
30 июн 16, 11:16    [19353539]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
defragmentator
Member

Откуда:
Сообщений: 20504
alexeyvg
Ленты - удел совсем энтерпрайза-энтерпрайза. Для больших объёмов.
Мы, простые работяги, свои жалкие террабайты бакапим на диски.

+100
Можно на разные диски, чтобы гарантированно был цел хотя бы один из нескольких последних бэкапов.
А ленточки - ну, понты просто.
30 июн 16, 12:30    [19353954]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
a_voronin
Member

Откуда: Москва
Сообщений: 4806
Ну поставим вопрос так. А на что дешевле всего бекапить?
30 июн 16, 12:47    [19354068]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
a_voronin
Ну поставим вопрос так. А на что дешевле всего бекапить?


Гм, так все обсуждение как-бе намекает, что зависит от требований - объема и доступного временного слота для бекапа, требований по хранению копии на оффсайте, длительности хранения. На ленточки цена за гиг самая низкая, но вот стоимость установки для их работы + софта не маленькая. Но, начиная с некоторого момента (размера бекапа) - становится оправдана.
30 июн 16, 12:51    [19354104]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
Ferdipux
Гм, так все обсуждение как-бе намекает, что зависит от требований - объема и доступного временного слота для бекапа, требований по хранению копии на оффсайте, длительности хранения.


Ну давайте на категории разобьём что ли:

Уровень100200300400
Р: размер<=0.25 TB<=1 TB<=4 TB<=16 TB
Х: хранение<=1 Неделя<=4 Недели<=1 Квартал<=1 Год
В: время для<=16 Часов<=8 Часов<=4 Часа<=2 Часа


ну и оффсайт: да; нет
30 июн 16, 13:38    [19354364]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
Ну давайте на категории разобьём что ли:
Непонятна ваша табличка.
размер - это что, размер одного бакапа, время - период его изготовления, а хранение - сколько хранится?
Т.е. для уровня 400 нужно хранить 70 000 террабайт?
30 июн 16, 13:48    [19354428]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
a_shats
Member

Откуда: Москва
Сообщений: 814
Alexander Us,

Сейчас чаще всего - на диски, но, разумеется, не просто единичные диски, а в составе чего-то типа тех же NAS.
Ленты применяются для архива (доставать старые бэкапы при нужде).
Ну и промежуточный вариант - VTL (СХД/сервер/NAS, прикидывающийся ленточной библиотекой по FC/iSCSI).

Про рекомендации - 0.7ТБ это бэкап не большой, а совсем даже маленький.
Просто NAS нужно под него поставить не а-ля WD MyBook или аналогичной фигни от Seagate, а нормальный, человеческий, с отказоустойчивостью по дискам.

Ну и, как уже неоднократно советовали - добавить проверку бэкапа (в смысле - восстановления из него).
30 июн 16, 13:54    [19354453]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
alexeyvg,

да, имелось ввиду размер одного бэкапа.
Хотя можно эту же шкалу применить к суммарному размеру всех (полных) бэкапов.

Для уровня 400 нужно хранить 7 Террабайт.
30 июн 16, 14:03    [19354517]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
Alexander Us,

Давайте так - оффсайт когда его понимают как нечто в ячейке банка (а не в другом ДЦ) - это ИМХО только ленты, если размер больше 100 GB (Blu-Ray BDXL).
По остальному - с налету не скажу, нужно идти к продажникам и смотреть анналы/продажные презентации, там иногда похожее сравнение проскакивает.
Навскидку по вашей матрице - уровни 100, 200 можно закрыть без лент, 300 - нужно считать, 400 - скорее всего ленты.

По времени - для "чистого" бекапа время можно оценить как размер деленный максимум пропускной способности интерфейса. То есть по 10GB Ethernet бекап 1 TB не сможет пройти быстрее чем за 850 секунд (iSCSI over Eth), в реальности - за полтора-три раза большее время. Если вам нужно быстрее или необходимо делать целостный бекап нескольких баз - придется покупать софт на бекам "моментальным снимком БД" от производителей хранилок.
30 июн 16, 14:03    [19354520]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
Alexander Us
alexeyvg,

да, имелось ввиду размер одного бэкапа.
Хотя можно эту же шкалу применить к суммарному размеру всех (полных) бэкапов.

Для уровня 400 нужно хранить 7 Террабайт.


Вы тогда распишите вашу таблицу подробно. Я в предположении ежедневных полных бекапов насчитал для lvl 400 5840 TB.
30 июн 16, 14:05    [19354536]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
a_shats
Про рекомендации - 0.7ТБ это бэкап не большой, а совсем даже маленький.
Да и 7 - очень даже маленький :-)

ИМХО, думать о ленточных бакапах нужно, когда сумарный объём хранимых бакапов начинает исчисляться петабайтами (ну или хотя бы больше сотни террабайт, тогда можно уже позволить себе такую причуду).
30 июн 16, 14:06    [19354538]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
Alexander Us,

поправка: если размер одного полного бэкапа 7TB это уровень 400
30 июн 16, 14:07    [19354548]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
alexeyvg
И ещё непонятно, как получить доступ, только специальными методами, что то стандартное там работает?


create credential azurestorageacccred with identity = 'azurestorageacc', secret ='azurestoragekey'
go

restore database [externalpartners] to url = N'https://YOUR_STORAGE_ACC_NAME.blob.core.windows.net/CONTAINER_NAME/backup_file_name.bak'
with credential = N'azurestorageacccred', compression, stats = 5;

restore database [externalpartners] from url = N'https://YOUR_STORAGE_ACC_NAME.blob.core.windows.net/CONTAINER_NAME/backup_file_name.bak' 
with credential = N'azurestorageacccred', stats = 5;


если хочется как список файлов все видеть, есть тулза для всех осей Azure Explorer и Azure portal (web-морда).

есть Powershell API для доступа...

если нужен аналог copy/move, есть AzCopy.

у нас retention window реализовано на основе t-sql/powershell. в ожуре пока только бэкапы некритичных базенок...

есть еще Managed Azure Backups в SQL Serverе оно все умеет само делать retention window, следит не разорван ли restore sequence и т. п.., но там много ограничений, учитывая что чтение/хранение платное хочется контролировать все построже, потому все своими лисапедами.

Сообщение было отредактировано: 30 июн 16, 14:17
30 июн 16, 14:10    [19354568]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
alexeyvg,

да, имелось ввиду размер одного бэкапа.
Хотя можно эту же шкалу применить к суммарному размеру всех (полных) бэкапов.

Для уровня 400 нужно хранить 7 Террабайт.
Стоп, то есть это суммарный размер хранилища для бакапов?
Тогда какая разнгица, сколько они хранятся, и как часто делаются?

Для 7 ТБ нужно просто купить недорогой NAS, с гигабитным Ethernet портом, хватит за глаза. Там внутрях зеркало, или какой нибудь рейд5
Лучше взять таких 2 штуки, для дублирования.

Для совсем параноиков ещё купить диск в слот, и директору раз в месяц уносить его домой, так сказать, для георафически-распределённой системы бакапов.
Или вместо этого ещё одну линию хранения организовать в облаке (но именно "ещё одну", а не единственную!)
30 июн 16, 14:10    [19354569]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Ferdipux
Alexander Us
да, имелось ввиду размер одного бэкапа.
Хотя можно эту же шкалу применить к суммарному размеру всех (полных) бэкапов.

Для уровня 400 нужно хранить 7 Террабайт.


Вы тогда распишите вашу таблицу подробно. Я в предположении ежедневных полных бекапов насчитал для lvl 400 5840 TB.
Хм, а я насчитал 70 000 ТБ...
каждые 2 часа по 16 ТБ - 12 раз в сутки
Храним год, 365*12*16=70 080
30 июн 16, 14:12    [19354583]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
o-o
Чурюпаху завербовали azurщики


та не, все в порядке, просто поделился инфой...
30 июн 16, 14:13    [19354599]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
alexeyvg
Для совсем параноиков ещё купить диск в слот, и директору раз в месяц уносить его домой, так сказать, для георафически-распределённой системы бакапов.
Или вместо этого ещё одну линию хранения организовать в облаке (но именно "ещё одну", а не единственную!)

Оффсайт - это не только для параноиков, но и для аудита IT системы от PwC-Deloitte-etc. Там у них в списке есть крыж "есть оффсайт бекап с хранением media в ячейке банка", и в публичном отчете они об этом пишут.
30 июн 16, 14:14    [19354605]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
a_shats
Member

Откуда: Москва
Сообщений: 814
alexeyvg,

Ну, если 7 ТБ - это ежедневный инкремент, а требуемая глубина архива с полгодика-годик или более - вполне себе нужна уже лента :) Насчет сотен ТБ согласен.
Но тут есть и второй момент - в таких случаях обычно уже используется иерархический, D2D2T бэкап - то есть "в середине" всё равно есть "диски", хотя бы и с небольшой глубиной архива. С целью сокращения окна бэкапа.
30 июн 16, 14:15    [19354616]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
Ferdipux
Вы тогда распишите вашу таблицу подробно. Я в предположении ежедневных полных бекапов насчитал для lvl 400 5840 TB.


Так лучше?

Уровень100200300400
Р: размер одного полного бэкапа*<=0.25 TB<=1 TB<=4 TB<=16 TB
Х: минимальное хранение<=1 Неделя<=4 Недели<=1 Квартал<=1 Год
В: время для создания одного полного бэкапа<=16 Часов<=8 Часов<=4 Часа<=2 Час


С бэкапами по 5840 TB я не сталкивался, так что кто хочет, скорректируйтк таблицу исходя из Вашего практического опыта.

*Думаю, размер одного полного бэкапа в зависимости от контекста обсуждения можно применять к одной базе или всем вместе взятым.
30 июн 16, 14:18    [19354640]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
alexeyvg
Ferdipux
пропущено...


Вы тогда распишите вашу таблицу подробно. Я в предположении ежедневных полных бекапов насчитал для lvl 400 5840 TB.
Хм, а я насчитал 70 000 ТБ...
каждые 2 часа по 16 ТБ - 12 раз в сутки
Храним год, 365*12*16=70 080


Я имел ввиду размер ОДНОГО бэкапа.

Вы же имеете ввиду размер хранилища, так что мне надо бы добавить в таблицу параметр "размер хранилища".
И "частота бэкапов".
30 июн 16, 14:24    [19354686]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Ferdipux
alexeyvg
Для совсем параноиков ещё купить диск в слот, и директору раз в месяц уносить его домой, так сказать, для георафически-распределённой системы бакапов.
Или вместо этого ещё одну линию хранения организовать в облаке (но именно "ещё одну", а не единственную!)

Оффсайт - это не только для параноиков, но и для аудита IT системы от PwC-Deloitte-etc. Там у них в списке есть крыж "есть оффсайт бекап с хранением media в ячейке банка", и в публичном отчете они об этом пишут.
Ну так безопасники в банках - это и есть праноики :-)

Я же тут по доброму это упоминаю, просто напомнил то, что к бакапам критических данных, как, например, к фин-транзакциям и счетам в АБС, нужно относиться очень, очень строго.
30 июн 16, 14:24    [19354689]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
Alexander Us,

Сходил к продажникам. После обсуждения - лента после объема хранения 50 TB становится выгоднее. Но - это лента с ее недостатками (медленный доступ к произвольному участку, последовательное чтение) + для управления бекапами на ленту нужна софтина и знания в ее настройке. А на диски бекапить можно как угодно...

Цепочку диск-лента часто используют по другой причине. У ленты есть номинальная производительность записи, если на нее отдаются данные медленнее номинала, хотя бы со скоростью 80-90% от номинала - производительность ленты падает до 10-15% (ее нужно успевать отматывать назад). Поэтому на диске организуется промежуточный буфер.
30 июн 16, 14:26    [19354708]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
Так лучше?

Уровень100200300400
Р: размер одного полного бэкапа*<=0.25 TB<=1 TB<=4 TB<=16 TB
Х: минимальное хранение<=1 Неделя<=4 Недели<=1 Квартал<=1 Год
В: время для создания одного полного бэкапа<=16 Часов<=8 Часов<=4 Часа<=2 Час

...
Я имел ввиду размер ОДНОГО бэкапа.

Вы же имеете ввиду размер хранилища, так что мне надо бы добавить в таблицу параметр "размер хранилища".
И "частота бэкапов".

Конечно, нужен параметр "частота бэкапов".

А то по вашей табличке что можно понять?

сделали один раз бакап, "Р: размер одного полного бэкапа*, 16 TB"
Хранить его будем год: "Х: минимальное хранение,<=1 Год"
Сделали мы его тогда, год назад, за 2 часа: "В: время для создания одного полного бэкапа,<=2 Час"

И что, и какие выводы можно сделать? Что нужен NAS за 200 баксов + 5 дисков по 4ТБ на 1000?
Да, такой справится, параметры соответствуют.
30 июн 16, 14:30    [19354742]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
alexeyvg

...
А то по вашей табличке что можно понять?

сделали один раз бакап, "Р: размер одного полного бэкапа*, 16 TB"
Хранить его будем год: "Х: минимальное хранение,<=1 Год"
Сделали мы его тогда, год назад, за 2 часа: "В: время для создания одного полного бэкапа,<=2 Час"

И что, и какие выводы можно сделать? Что нужен NAS за 200 баксов + 5 дисков по 4ТБ на 1000?
Да, такой справится, параметры соответствуют.


Ещё попытка:
Уровень100200300400
Р: размер одного бэкапа<=0.25 TB<=1 TB<=4 TB<=16 TB
Х: хранение<=1 Неделя<=4 Недели<=1 Квартал<=1 Год
В: время для создания одного бэкапа<=16 Часов<=8 Часов<=4 Часа<=2 Час
Ч: частата создания бэкапов<=1/неделю<=1/день<=4/день<=12/день
К: размер(калибр) хранилища<=10ТБ<=50 ТБ<=250 ТБ<=2000 ТБ


Отдельно параметры:
тип бэкапа (полный,разностный,лог)
хрпнение оффлайн/онлайн

ЗЫ:
для Ваших бэкапов надо бы вводить 500 и 600 уровни :)
30 июн 16, 15:03    [19355003]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
Ferdipux
Alexander Us,

Сходил к продажникам. После обсуждения - лента после объема хранения 50 TB становится выгоднее. Но - это лента с ее недостатками (медленный доступ к произвольному участку, последовательное чтение) + для управления бекапами на ленту нужна софтина и знания в ее настройке. А на диски бекапить можно как угодно...

Цепочку диск-лента часто используют по другой причине. У ленты есть номинальная производительность записи, если на нее отдаются данные медленнее номинала, хотя бы со скоростью 80-90% от номинала - производительность ленты падает до 10-15% (ее нужно успевать отматывать назад). Поэтому на диске организуется промежуточный буфер.


Спасибо, оч. интересная инфа!


ЗЫ:
Вы не в курсе, есть ли такие NAS где кроме сетевого подключения есть ещё USB-3 (Тип B).
Т.е. такой, что на него можно было бы бэкапить прямо по USB и/или по сети?
30 июн 16, 15:12    [19355103]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
Alexander Us,

Тогда мое ХО - ваши 300 и 400 уровень - это лента. Проблема 300 и особенно 400 уровня - производительность среды передачи данных. По 10 GBEth одному каналу можно перелить максимум 4,2 TB в час, а сервер и бекапилка должны такой поток породить и съесть. Вам на 400 уровне или Infiniband, или 40 GBEth, +спец бекап софт который умеет заливать на несколько лент в параллель.
У меня был опыт построения инфраструктуры чтобы делать бекап-рестор 8 TB за 2 часа на 8 GB FC (Infiniband тогда был очень дорог и не для использованных серверов), проблем там было много. Носитель - лента.
30 июн 16, 15:15    [19355141]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
Ещё попытка:
Уровень100200300400
Р: размер одного бэкапа<=0.25 TB<=1 TB<=4 TB<=16 TB
Х: хранение<=1 Неделя<=4 Недели<=1 Квартал<=1 Год
В: время для создания одного бэкапа<=16 Часов<=8 Часов<=4 Часа<=2 Час
Ч: частата создания бэкапов<=1/неделю<=1/день<=4/день<=12/день
К: размер(калибр) хранилища<=10ТБ<=50 ТБ<=250 ТБ<=2000 ТБ
А, вот теперь понятно.

Для уровней 100 и 200 я бы использовал просто диски, в виде NAS (в том числе обычное сетевое хранилище на базе Windows Server), как я писал раньше.
Для уровня 400 - ленты, для уровня 300 - ленты или дисковое хранилище.
Ещё для последних двух нужно рассматривать вариант, когда в тяжёлые СХД масштаба предприятия интегрирована поддержка ленточных библиотек, как одного из уровней хранения.

Alexander Us
для Ваших бэкапов надо бы вводить 500 и 600 уровни :)
Не, я же писал, наши жалкие террабайты мы храним на обычном NAS + копия на файл-сервер. У нас общий размер бакапов террабайт 12...
30 июн 16, 15:35    [19355412]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
Вы не в курсе, есть ли такие NAS где кроме сетевого подключения есть ещё USB-3 (Тип B).
Т.е. такой, что на него можно было бы бэкапить прямо по USB и/или по сети?
Ну, по сети они все умеют, просто исходя из названия.
По USB никто не умеет, если говорить про NAS.

Но часто NAS называют так же и подключаемые по USB диски.

Я бы вообще их не советовал, и дело тут не в скорости интерфейса (USB 3.0 вообще довольно быстрый), а в надёжности и удобстве использования.
30 июн 16, 15:38    [19355443]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
Alexander Us
Вы не в курсе, есть ли такие NAS где кроме сетевого подключения есть ещё USB-3 (Тип B).
Т.е. такой, что на него можно было бы бэкапить прямо по USB и/или по сети?

Гм, я бы не брал... Диски по USB-3 - это DAS (Direct Attached Storage) и с качеством железки\функциональностью\скоростью контроллера там как-бы не очень... Начальный уровень NAS...
30 июн 16, 15:43    [19355477]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Ferdipux
Диски по USB-3 - это DAS (Direct Attached Storage) и с качеством железки\функциональностью\скоростью контроллера там как-бы не очень
FC - это тоже DAS :-)

Тут дело в самом USB, ну и действительно, в уровне контроллеров, которые используются для таких устройств :-(
30 июн 16, 16:03    [19355607]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Yohtur
Member

Откуда: Londonobad
Сообщений: 14
alexeyvg
бакап" считается выполненным не тогда, когда бакап сделан, а когда он восстановлен, и результат восстановления проверен.

База 16.6Тб бэкапится на дисковый массив и восстанавливается как База_Репортинг.
С лентой работал последний раз в 2002.
30 июн 16, 16:44    [19355927]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
mitek
Member

Откуда:
Сообщений: 605
a_shats
Сейчас чаще всего - на диски, но, разумеется, не просто единичные диски, а в составе чего-то типа тех же NAS.
Ленты применяются для архива (доставать старые бэкапы при нужде).
Ну и промежуточный вариант - VTL (СХД/сервер/NAS, прикидывающийся ленточной библиотекой по FC/iSCSI).


А как насчет новомодных дедупликаторов а-ля EMC DataDomain, IBM ProtectTIER и т.д. да и просто классических нетбекапов/тсм-ов с inline-дедупликацией ? C одной стороны позволяет нехило экономить место на дисках, с другой получается, что полностью зависим от первого бекапа.
30 июн 16, 16:45    [19355933]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
StarikNavy
Member

Откуда: Москва
Сообщений: 2396
Yohtur
База 16.6Тб бэкапится на дисковый массив и восстанавливается как База_Репортинг.

а по времени, сколько это занимает?
каждый день?
и если нужен бэкап, хотя бы недельной давности?
30 июн 16, 16:55    [19356006]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
mitek
Member

Откуда:
Сообщений: 605
Ferdipux
У меня был опыт построения инфраструктуры чтобы делать бекап-рестор 8 TB за 2 часа на 8 GB FC (Infiniband тогда был очень дорог и не для использованных серверов), проблем там было много. Носитель - лента.

LAN-FREE ? Если не секрет, то какая библиотека и сколько драйвов (и какого LTO) использовалось в параллель ?
30 июн 16, 17:13    [19356111]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
mitek
LAN-FREE ? Если не секрет, то какая библиотека и сколько драйвов (и какого LTO) использовалось в параллель ?

Библиотека - IBM TS3300, 4 драйва LTO4 в параллель. Для бекапа делался снапшот диска дисковой хранилкой (с координацией его на уровне MS SQL) и затем снапшот утаскивался на ленту с хранилки. Виртуализатором хранилок (кто делал сам снапшот) выступала IBM SVC, про саму дисковую хранилку - не помню.
30 июн 16, 17:28    [19356190]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Ferdipux
Member

Откуда: Москва
Сообщений: 559
mitek,

Сорри, перепутал, давно было, библиотека IBM TS 3310, драйвов было 10 LTO-5.
30 июн 16, 17:35    [19356234]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Monochromatique
Member [заблокирован]

Откуда:
Сообщений: 1936
churupaha,

И сколько в Азуру будут литься гигабайт так 150?
30 июн 16, 19:39    [19356763]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
defragmentator
Member

Откуда:
Сообщений: 20504
Monochromatique
churupaha,

И сколько в Азуру будут литься гигабайт так 150?


Важно не сколько туда, а сколько по времени обратно
30 июн 16, 20:29    [19356958]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
andrey odegov
Member

Откуда:
Сообщений: 473
defragmentator
Monochromatique
churupaha,

И сколько в Азуру будут литься гигабайт так 150?


Важно не сколько туда, а сколько по времени обратно
важно, что бы пока оно льется туда не потребовалось обратно
а почему бекап? в проме важна максимальная доступность, достигаемая другими способами. а восстанавливаться из бекапа на проме, да еще такие объёмы, это же полный караул. rto ведь не резиновое.
30 июн 16, 20:40    [19357004]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
andrey odegov
а почему бекап? в проме важна максимальная доступность, достигаемая другими способами. а восстанавливаться из бекапа на проме, да еще такие объёмы, это же полный караул. rto ведь не резиновое.
Сохранность данных важнее доступности.
К тому же наличие бакапов этой доступности не мешает, конфликта тут нет.

Т,о. вопрос в том, считаете ли вы оправданными дополнительные траты за возможность иметь резервную копию?

Доступность, достигаемая другими средствами, к сожалению, достигается обычно созданием всевозможных "зеркал", а зеркала не обеспечат сохранность данных, ведь они, возможно, будут зеркалировать все изменения, в т.ч. ошибочные.
30 июн 16, 21:00    [19357092]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
andrey odegov
Member

Откуда:
Сообщений: 473
alexeyvg
andrey odegov
а почему бекап? в проме важна максимальная доступность, достигаемая другими способами. а восстанавливаться из бекапа на проме, да еще такие объёмы, это же полный караул. rto ведь не резиновое.
Сохранность данных важнее доступности.
К тому же наличие бакапов этой доступности не мешает, конфликта тут нет.

Т,о. вопрос в том, считаете ли вы оправданными дополнительные траты за возможность иметь резервную копию?

Доступность, достигаемая другими средствами, к сожалению, достигается обычно созданием всевозможных "зеркал", а зеркала не обеспечат сохранность данных, ведь они, возможно, будут зеркалировать все изменения, в т.ч. ошибочные.
безусловно бекапы нужны. но сколько готово ждать производство, пока данные будут восстановлены после ситуации 'ой, что же я наделал?'.
30 июн 16, 21:09    [19357124]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
andrey odegov
alexeyvg
пропущено...
Сохранность данных важнее доступности.
К тому же наличие бакапов этой доступности не мешает, конфликта тут нет.

Т,о. вопрос в том, считаете ли вы оправданными дополнительные траты за возможность иметь резервную копию?

Доступность, достигаемая другими средствами, к сожалению, достигается обычно созданием всевозможных "зеркал", а зеркала не обеспечат сохранность данных, ведь они, возможно, будут зеркалировать все изменения, в т.ч. ошибочные.
безусловно бекапы нужны. но сколько готово ждать производство, пока данные будут восстановлены после ситуации 'ой, что же я наделал?'.
Нисколько не готово.
Только вводить всю базу ручками оно ещё более неготово :-)
Так что бакапы нужны, да.
И ещё раз, наличие бакапов не препятствует применению средств обеспечения доступности. Бакапы - это не средства обеспечения доступности, это именно резервные копии, и они просто должны быть.

Насчёт скорости восстановления - нужно просто делать более доступным последний бакап.
Он должен быть на быстрых локальных устройствах.
А на всяких лентах и ажурах - старые бакапы.
30 июн 16, 21:30    [19357199]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
Monochromatique
churupaha,

И сколько в Азуру будут литься гигабайт так 150?


около часа

в 2014 поскольку он бэкапит в page blob'ы - 60 Mb/sec сейчас максимум для одного page blob'а

в 2016 можно лить страйпом сразу в N block blob'ов.
30 июн 16, 21:35    [19357220]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
andrey odegov
Member

Откуда:
Сообщений: 473
churupaha
Monochromatique
churupaha,

И сколько в Азуру будут литься гигабайт так 150?


около часа

в 2014 поскольку он бэкапит в page blob'ы - 60 Mb/sec сейчас максимум для одного page blob'а

в 2016 можно лить страйпом сразу в N block blob'ов.
а какой у вас ширины канал до облака?
30 июн 16, 21:47    [19357258]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Monochromatique
Member [заблокирован]

Откуда:
Сообщений: 1936
churupaha
Monochromatique
churupaha,

И сколько в Азуру будут литься гигабайт так 150?


около часа

в 2014 поскольку он бэкапит в page blob'ы - 60 Mb/sec сейчас максимум для одного page blob'а

в 2016 можно лить страйпом сразу в N block blob'ов.


Это, пардон, сколько на отдачу должно быть? Что за канал такой?
30 июн 16, 22:13    [19357316]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
andrey odegov
churupaha
пропущено...


около часа

в 2014 поскольку он бэкапит в page blob'ы - 60 Mb/sec сейчас максимум для одного page blob'а

в 2016 можно лить страйпом сразу в N block blob'ов.
а какой у вас ширины канал до облака?


у меня нет такой инфы, смотрел по логам сколько времени бэкап такого размера (размер файла бэкапа) лился в blobs'ы. датацентр ажура, куда бэкапится там не далеко.
30 июн 16, 22:44    [19357406]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
alexeyvg,

так сейчас как сбоит NAS, пришлось бэкапить по USB-3 на внешний диск.

Результаты:
USB-3: 119 MB/sec
NAS: 33 MB/sec (2x1GBit)
USB-3 vs NAS (размер файла созданного бэкапа / длительность бэкапа)

Выводы:
Так как наши требования не выше чем уровень 200, обдумываем бэкап на внешний USB-3 диск (например WD Duo c RAID1)
Затем созданный бэкап можно не торопясь копировать на архивный SAN

Предполагаемые плюсы:
-выиргыш в скорости бэкапа/восстановления
-разргузка сети (бэкап и проверка авхива локально, только затем копирование в архивный SAN)
-устранение фактора ошибки "сбой в сети" при создании бэкапа
-дёшево

Жду критики...
1 июл 16, 11:52    [19358645]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Yohtur
Member

Откуда: Londonobad
Сообщений: 14
StarikNavy
Yohtur
База 16.6Тб бэкапится на дисковый массив и восстанавливается как База_Репортинг.

а по времени, сколько это занимает?
каждый день?
и если нужен бэкап, хотя бы недельной давности?

11часов занимает каждую ночь.
7 дней с диска можно брать, 8-30дней надо в датацентре заказывать.
1 июл 16, 14:58    [19359965]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
Жду критики...
Ну, работает, и хорошо.
Моя критика исключительно от неудачного опыта работы с USB-дисками.

Может, вам NAS поправить или заменить? По одному гигабитному каналу должно быть мегов около 100, 33 - ненормально.
1 июл 16, 15:52    [19360334]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
a_shats
Member

Откуда: Москва
Сообщений: 814
Результаты:
USB-3: 119 MB/sec
NAS: 33 MB/sec (2x1GBit)

А что у Вас такое с NAS, что он настолько медленно работает ?
Или это источник бэкапа сильно нагружен и так медленно отдает ?
Должно быть втрое-вчетверо быстрее вообще-то.
Выводы:
Так как наши требования не выше чем уровень 200, обдумываем бэкап на внешний USB-3 диск (например WD Duo c RAID1)
Затем созданный бэкап можно не торопясь копировать на архивный SAN

Плохая идея.
Нормальный NAS будет лучше.
Предполагаемые плюсы:
-выиргыш в скорости бэкапа/восстановления
-разргузка сети (бэкап и проверка авхива локально, только затем копирование в архивный SAN)
-устранение фактора ошибки "сбой в сети" при создании бэкапа
-дёшево

- на любом нормальном NAS оно будет быстрее (выше написал)
- никто не мешает воткнуть еще 2-портовую гигабитку, сделать VLAN и отнести все бэкапные дела туда
- сбой в сети, если его причина не выявлена и устранена, нанесет куда больше ущерба, чем просто битый бэкап.
1 июл 16, 16:23    [19360477]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
alexeyvg
Может, вам NAS поправить или заменить? По одному гигабитному каналу должно быть мегов около 100, 33 - ненормально.


Да я рад бы но
нет 100% уверености что это именно NAS.
Многоктатное restore verify одного и того же файла обрывается то на 10% то на 60% и т.д.
с ошибкой 3203 ... failed 13(The data is invalid.)
1 июл 16, 16:25    [19360491]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
Alexander Us
alexeyvg
Может, вам NAS поправить или заменить? По одному гигабитному каналу должно быть мегов около 100, 33 - ненормально.


Да я рад бы но
нет 100% уверености что это именно NAS.
Многоктатное restore verify одного и того же файла обрывается то на 10% то на 60% и т.д.
с ошибкой 3203 ... failed 13(The data is invalid.)


Имеется ввиду restore verify с NAS.
1 июл 16, 16:28    [19360503]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
alexeyvg
Может, вам NAS поправить или заменить? По одному гигабитному каналу должно быть мегов около 100, 33 - ненормально.


Да я рад бы но
нет 100% уверености что это именно NAS.
Многоктатное restore verify одного и того же файла обрывается то на 10% то на 60% и т.д.
с ошибкой 3203 ... failed 13(The data is invalid.)
Да, печально. С сетью что то?
Масса сообщений о кривых бакапах по сети, безобразие, неужели это нельзя решить на уровне сетевых протоколов???

А NAS нельзя как iSCSI подключить (может, не весь, а сделать специальный раздел)?
1 июл 16, 18:57    [19361116]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
alexeyvg
Alexander Us
пропущено...


Да я рад бы но
нет 100% уверености что это именно NAS.
Многоктатное restore verify одного и того же файла обрывается то на 10% то на 60% и т.д.
с ошибкой 3203 ... failed 13(The data is invalid.)
Да, печально. С сетью что то?
Масса сообщений о кривых бакапах по сети, безобразие, неужели это нельзя решить на уровне сетевых протоколов???

А NAS нельзя как iSCSI подключить (может, не весь, а сделать специальный раздел)?


Насчет решения на уровне сетевых протоколов —
пока не представляю как, да и не админ я.

Так что пока решение вообще без оных — USB. :)

Насчет iSCSI буду читать, спасибо за предложение.
1 июл 16, 21:30    [19361488]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
Насчет решения на уровне сетевых протоколов —
пока не представляю как, да и не админ я.
Не, это я про микрософт, про продолжающуюся 30 лет ситуацию с ошибками бакапов в сеть.
Вам или админам тут ничего не сделать, только повышать надёжность сети, уменьшая число ошибок. Но понятно, что это костыли, потому что ошибка (искажение пакета) при передаче всё равно может произойти.
1 июл 16, 23:36    [19361787]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
alexeyvg
Alexander Us
Насчет решения на уровне сетевых протоколов —
пока не представляю как, да и не админ я.
Не, это я про микрософт, про продолжающуюся 30 лет ситуацию с ошибками бакапов в сеть.
Вам или админам тут ничего не сделать, только повышать надёжность сети, уменьшая число ошибок. Но понятно, что это костыли, потому что ошибка (искажение пакета) при передаче всё равно может произойти.


Я попробовал следующее
С помощью Robocopy скопировал файл (0,7 ТБ) с NAS на локальный диск ДВА раза и сравнил файлы прбайтно. Нашлись несколько, около 30 различаюшихся байт. При этом отличались они одним и теи же битом.
Затем еще раз дважды скачал файл, сравнил. На этот раз нашлось 3 различных байта, различающиечя тем же битом.

Проверка NAS ничего не дала.Теперь меняю в нем по обному диску и проверяю, сохранился лли эффект.
2 июл 16, 01:25    [19362020]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
alexeyvg
Member

Откуда: Moscow
Сообщений: 31498
Alexander Us
Я попробовал следующее
С помощью Robocopy скопировал файл (0,7 ТБ) с NAS на локальный диск ДВА раза и сравнил файлы прбайтно. Нашлись несколько, около 30 различаюшихся байт. При этом отличались они одним и теи же битом.
Затем еще раз дважды скачал файл, сравнил. На этот раз нашлось 3 различных байта, различающиечя тем же битом.
Хм, вообще файлшара, как я понимаю, устойчива к сбоям сети.
Так что тут действительно дело в NAS, видимо.
2 июл 16, 02:49    [19362072]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
schi
Member

Откуда: Москва
Сообщений: 2601
alexeyvg
Мы, простые работяги, свои жалкие террабайты бакапим на диски.


Терабайты. Терра инкогнита и прочее, связанное с землею, тут не причем.
2 июл 16, 10:46    [19362272]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Александр Гладченко
Member

Откуда:
Сообщений: 10750
Блог
Главное в резервной копии - сколько займёт её восстановление и/или её наличие. Кроме этого, важно, что бы процесс резервного копирования не мешал (заметно) работе пользователей. Удобно, если система резервного копирования хорошо масштабируется при росте объёма копирования.
Перечисленные задачи решаются многими способами. У нас на локальные массивы RAID0 в количестве 12 шт. делаются копии с глубиной хранения 2 - 3 дня. У каждого сервера свои массивы для копий. Файлы с этими копиями забираются на ферму серверов DPM. На каждый сервер по 10Gbps можно резервировать около 100Тб фалов резервных копий. Хронология хранения около недели. Промышленные сервера и ферма DPM в разных территориально датацентрах, между которыми канал 100Gbps.
Ленты не используем, с ними больше возни и нужно часто вынимать погибшие. Лет 5 использовали, наелись :)
4 июл 16, 12:16    [19366327]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
Александр Гладченко
Главное в резервной копии - сколько займёт её восстановление и/или её наличие. Кроме этого, важно, что бы процесс резервного копирования не мешал (заметно) работе пользователей. Удобно, если система резервного копирования хорошо масштабируется при росте объёма копирования.
Перечисленные задачи решаются многими способами. У нас на локальные массивы RAID0 в количестве 12 шт. делаются копии с глубиной хранения 2 - 3 дня. У каждого сервера свои массивы для копий. Файлы с этими копиями забираются на ферму серверов DPM. На каждый сервер по 10Gbps можно резервировать около 100Тб фалов резервных копий. Хронология хранения около недели. Промышленные сервера и ферма DPM в разных территориально датацентрах, между которыми канал 100Gbps.
Ленты не используем, с ними больше возни и нужно часто вынимать погибшие. Лет 5 использовали, наелись :)


Спасибо!

-------------------------------------------------------
Если Вы посчитаете возможным сделать уточнения:

Как Вы решаете ситуации когда вылетает диск в RAID0: замена + ручной бэкап?
На какой стадии Вы проверяете бэкап: пока он на RAID0 или когда он скопирован на ферму?
4 июл 16, 18:17    [19368193]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
Вот еще для полноты картины подход к хранению/резервированию...

Data/Log-files in Azure Blobs
Backups with blob Snapshots

У них все стораджы с redundancy = Local/Zone/GRS/RA-GRS. Потому бэкапирование снапшотами выглядит интересно. Они это используют в частности в Azure DWH. А также можно самим юзать, имея виртуалку в Azure, файлы баз можно положить на Blob Storage и бэкапиться снапшотами. Вообще, и файлы баз On Premises инстансов технически тоже можно положить в Blob Storage просто, чтобы поковырять фичу...
8 июл 16, 16:51    [19387271]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
+ из плюсов - для point in time recovery не нужен restore sequence full+diff+logs, в случае со снапшотами если нужно восстановиться на время t, то достаточно иметь два log снапшота l_t1 и l_t2, где t1 <= t and t <= t2.
8 июл 16, 16:57    [19387300]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
churupaha
Member

Откуда: Краснодар
Сообщений: 1015
+ бэкап происходит быстро :)
8 июл 16, 16:57    [19387303]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Александр Гладченко
Member

Откуда:
Сообщений: 10750
Блог
Alexander Us
Если Вы посчитаете возможным сделать уточнения:

1. Как Вы решаете ситуации когда вылетает диск в RAID0: замена + ручной бэкап?
2. На какой стадии Вы проверяете бэкап: пока он на RAID0 или когда он скопирован на ферму?


1. Такой массив сразу убирается из сценария резервирования до его восстановления. Если получается, файлы с него переносятся на другие массивы, которые всегда имеют запас места.
2. Проверка делается локально на постоянной основе, с тренировочные фермы восстановление выполняется редко.

Ремарка: когда копия сделана BACKUP DATABASE и на "достойные" диски, она почему то всегда восстанавливается успешно :) Разумеется, нужно иметь систему мониторинга, которая будет предупреждать вас о всех проблемах с дисками и СХД. Описанный подход у меня используется лет 10 на полусотне серверов, пока ещё не случалось, что бы копия понадобилась во время ремонта массива...
11 июл 16, 13:54    [19394978]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Alexander Us
Member

Откуда:
Сообщений: 1133
Александр Гладченко
когда копия сделана BACKUP DATABASE и на "достойные" диски, она почему то всегда восстанавливается успешно :)


Я тоже так думал, пока не попался NAS со спорадической ошибкой чтения.
В среднем выдаёт 2-6 битых байт на 1 ТБ.
Козлит один и тот же бит.
11 июл 16, 15:07    [19395422]     Ответить | Цитировать Сообщить модератору
 Re: Кто куда бэкапит большие базы?  [new]
Александр Гладченко
Member

Откуда:
Сообщений: 10750
Блог
Alexander Us
Александр Гладченко
когда копия сделана BACKUP DATABASE и на "достойные" диски, она почему то всегда восстанавливается успешно :)


Я тоже так думал, пока не попался NAS со спорадической ошибкой чтения.
В среднем выдаёт 2-6 битых байт на 1 ТБ.
Козлит один и тот же бит.


Дык, для этого и нужен мониторинг. У меня под резервные копии уже под тысячу дисков. Разумеется, диски периодически ломаются, вендор их за четверо суток вместе с нашим саппортом меняет - это рутина. Также нужно следить за продлением гарантии и ещё много чего не должно ускользать от "всевидящего ока" админа :)
12 июл 16, 14:14    [19399885]     Ответить | Цитировать Сообщить модератору
Топик располагается на нескольких страницах: 1 2 3 4      [все]
Все форумы / Microsoft SQL Server Ответить