Нужен накопитель для быстрого копирования файлов с сервера
Никак не могу нормально решить проблему резервного копирования файлов с боевого сервера. Вообще надо копировать стотыщмильёнов мелких файлов, каждый размером меньше 1МБ, общим объёмом окого 50ГБ, но можно сделать имидж нужных разделов винта в виде пары больших файлов, размером 60 и 130ГБ, и копировать их.
Объёмы по нынешним меркам небольшие, но их копирование доступными мне методами вводит всю систему в ступор. Пока у меня есть только два варианта копирования — на подключаемый по ЮСБ жёсткий диск и на другую машину по сети через отдельные гигабитные сетевые карты. К сожалению, у сервера (он в одноюнитовом корпусе) нет каких-либо других интерфейсов, для подключения внешних накопителей, да и подключение внутренних устройств тоже сильно ограничено, например, стример не вставить.
Помогите кто чем может, предложите ещё какие-нибудь варианты )
Объёмы по нынешним меркам небольшие, но их копирование доступными мне методами вводит всю систему в ступор. Пока у меня есть только два варианта копирования — на подключаемый по ЮСБ жёсткий диск и на другую машину по сети через отдельные гигабитные сетевые карты. К сожалению, у сервера (он в одноюнитовом корпусе) нет каких-либо других интерфейсов, для подключения внешних накопителей, да и подключение внутренних устройств тоже сильно ограничено, например, стример не вставить.
Помогите кто чем может, предложите ещё какие-нибудь варианты )
15 комментариев
В любом случае rsync попадает под второй вариант — по сети на другую машину. Тут, мне кажется, проще и, возможно, быстрее всего использовать NFS.
Не проще ли и не быстрее ли скопировать 100 гиговый файл целиком, чем проверять какие в нём изменения и копировать их? К тому же, речь идёт о бинарных файлах — архив, содержимое и объём которого каждый раз меняется, или имидж дискового раздела, который, понятное дело, также постоянно меняется, то будет ли вообще хоть какая-то неменяющая часть в этих файлах? Сомневаюсь :-)
А также когда один большой архив перекидываете через сеть.
rsync достаточно умен чтоб знать/подсчитать какой именно блок (какие именно блоки) файла надо будет перекинуть чтоб синхронизировать обе стороны.
rsync используется с большим успехом компаниями которые перекидывают очень большие данные через свои линии (HP, Dell, Intel).
запакавать tar архив — скопировать (если нужно скопировать обратно — распаковать)будет быстрее, чем вариант
скопировать стотыщмильёнов мелких файлов (если нужно, скопировать их обратно.
вариант с rsync конечно ещё лучше.