Всем привет.
Сейчас данные находятся на обычном диске и бекапятся с помощью снепшотов средствами гугл облака. Обьем данных растет и чтобы забыть про "закончилось место на диске", принято решение перенести данные в бакет, у которого опции снепшотов нет. Как можно бекапить большой объем данных, которые находятся в гугловых бакетах , чтобы была возможность восстановить файлы по просьбе пользователя, который их случайно удалил, и вспомнил через несколько дней.
Речь идет о 100-1000 пользователях, с 100-1000ГБ данных каждый.
Думал про rsync на соседний сервер/диск, но опция --delete (без нее будет много мусора) потребует создавать периодически архивы данных.
Может rysnc на LVM-раздел и потом snapshot?
GlusterFS/Ceph/Swift?
Или с такими объемами нет смысла переходить на бакеты, если необходима возможность бекапов для восстановления файлов, т.к. по факту, придется держать копию всех файлов в другом месте да и ещё в нескольких экземплярах?
бекап bigdata.
Модераторы: SLEDopit, Модераторы разделов
-
yars
- Сообщения: 1147
- Статус: Slacker!
- ОС: Slackware64-current
Re: бекап bigdata.
Можно что-то архива tar под контролем git, но это велосипедизм... Но я в этом плохо разбираюсь, все-таки домашние бэкапы -- большая разница.
Slackware64-current/Xfce/Xiaomi Mi Notebook Pro 15.6 | Arch Linux/Xfce/Lenovo G580
-------------
Registered Linux User #557010
-------------
Registered Linux User #557010
-
Bizdelnick
- Модератор
- Сообщения: 21482
- Статус: nulla salus bello
- ОС: Debian GNU/Linux
Re: бекап bigdata.
BigBrother писал(а): ↑14.07.2015 19:54чтобы была возможность восстановить файлы по просьбе пользователя, который их случайно удалил, и вспомнил через несколько дней.
Давным-давно для этой цели была придумана штука под названием «корзина».
Пишите правильно:
| в консоли вку́пе (с чем-либо) в общем вообще | в течение (часа) новичок нюанс по умолчанию | приемлемо проблема пробовать трафик |
Спасибо сказали:
-
BigBrother
- Сообщения: 436
- Статус: ¯\_(ツ)_/¯
- ОС: linux based
Re: бекап bigdata.
Bizdelnick писал(а): ↑14.07.2015 22:26Давным-давно для этой цели была придумана штука под названием «корзина».
Архитектура проекта, предоставляет некоторым пользователям прямой доступ к своим файлам через ssh. Если пользователь через web браузер удалил файл, то поместить этот файл "в корзину" для нас не проблема, но если он удалил через командную строку, то этот момент мы не можем отследить.
Получается, чтобы можно было восстановить файл, который юзер удалил через ssh, необходимо иметь полную копию файлов юзера, на другом сервере.
-
SLEDopit
- Модератор
- Сообщения: 4824
- Статус: фанат консоли (=
- ОС: GNU/Debian, RHEL
Re: бекап bigdata.
Ну если rsync для вас приемлим, то посмотрите на rsnapshot. Это перловая обвязка, которая работает поверх rsync'a + hard links. Достаточно любопытное решение.BigBrother писал(а): ↑14.07.2015 19:54Думал про rsync на соседний сервер/диск, но опция --delete (без нее будет много мусора) потребует создавать периодически архивы данных.
Но если файлов много и они небольшие, то нагрузку на диск будет давать такая штука вполне ощутимую.
UNIX is basically a simple operating system, but you have to be a genius to understand the simplicity. © Dennis Ritchie
The more you believe you don't do mistakes, the more bugs are in your code.
The more you believe you don't do mistakes, the more bugs are in your code.