бекап bigdata.

Обсуждение настройки и работы сервисов, резервирования, сетевых настроек и вопросов безопасности ОС.

Модераторы: SLEDopit, Модераторы разделов

BigBrother
Сообщения: 436
Статус: ¯\_(ツ)_/¯
ОС: linux based

бекап bigdata.

Сообщение BigBrother »

Всем привет.
Сейчас данные находятся на обычном диске и бекапятся с помощью снепшотов средствами гугл облака. Обьем данных растет и чтобы забыть про "закончилось место на диске", принято решение перенести данные в бакет, у которого опции снепшотов нет. Как можно бекапить большой объем данных, которые находятся в гугловых бакетах , чтобы была возможность восстановить файлы по просьбе пользователя, который их случайно удалил, и вспомнил через несколько дней.
Речь идет о 100-1000 пользователях, с 100-1000ГБ данных каждый.
Думал про rsync на соседний сервер/диск, но опция --delete (без нее будет много мусора) потребует создавать периодически архивы данных.
Может rysnc на LVM-раздел и потом snapshot?
GlusterFS/Ceph/Swift?
Или с такими объемами нет смысла переходить на бакеты, если необходима возможность бекапов для восстановления файлов, т.к. по факту, придется держать копию всех файлов в другом месте да и ещё в нескольких экземплярах?
Спасибо сказали:
Аватара пользователя
yars
Сообщения: 1147
Статус: Slacker!
ОС: Slackware64-current

Re: бекап bigdata.

Сообщение yars »

Можно что-то архива tar под контролем git, но это велосипедизм... Но я в этом плохо разбираюсь, все-таки домашние бэкапы -- большая разница.
Slackware64-current/Xfce/Xiaomi Mi Notebook Pro 15.6 | Arch Linux/Xfce/Lenovo G580
-------------
Registered Linux User #557010
Спасибо сказали:
Аватара пользователя
Bizdelnick
Модератор
Сообщения: 21482
Статус: nulla salus bello
ОС: Debian GNU/Linux

Re: бекап bigdata.

Сообщение Bizdelnick »

BigBrother писал(а):
14.07.2015 19:54
чтобы была возможность восстановить файлы по просьбе пользователя, который их случайно удалил, и вспомнил через несколько дней.

Давным-давно для этой цели была придумана штука под названием «корзина».
Пишите правильно:
в консоли
вку́пе (с чем-либо)
в общем
вообще
в течение (часа)
новичок
нюанс
по умолчанию
приемлемо
проблема
пробовать
трафик
Спасибо сказали:
BigBrother
Сообщения: 436
Статус: ¯\_(ツ)_/¯
ОС: linux based

Re: бекап bigdata.

Сообщение BigBrother »

Bizdelnick писал(а):
14.07.2015 22:26
Давным-давно для этой цели была придумана штука под названием «корзина».

Архитектура проекта, предоставляет некоторым пользователям прямой доступ к своим файлам через ssh. Если пользователь через web браузер удалил файл, то поместить этот файл "в корзину" для нас не проблема, но если он удалил через командную строку, то этот момент мы не можем отследить.
Получается, чтобы можно было восстановить файл, который юзер удалил через ssh, необходимо иметь полную копию файлов юзера, на другом сервере. :huh:
Спасибо сказали:
Аватара пользователя
SLEDopit
Модератор
Сообщения: 4824
Статус: фанат консоли (=
ОС: GNU/Debian, RHEL

Re: бекап bigdata.

Сообщение SLEDopit »

BigBrother писал(а):
14.07.2015 19:54
Думал про rsync на соседний сервер/диск, но опция --delete (без нее будет много мусора) потребует создавать периодически архивы данных.
Ну если rsync для вас приемлим, то посмотрите на rsnapshot. Это перловая обвязка, которая работает поверх rsync'a + hard links. Достаточно любопытное решение.
Но если файлов много и они небольшие, то нагрузку на диск будет давать такая штука вполне ощутимую.
UNIX is basically a simple operating system, but you have to be a genius to understand the simplicity. © Dennis Ritchie
The more you believe you don't do mistakes, the more bugs are in your code.
Спасибо сказали: