Контекст: Я успешно использую rsync для создания ежедневных инкрементных и удаленных резервных копий с использованием флага --link-dest «referenceBackup», так что при создании новой резервной копии создается только новая ссылка на существующий и неизмененный файл.
проблема: Некоторые каталоги содержат много маленьких файлов (сотни тысяч), и даже оптимизация --link-dest не является ... "оптимальной". Большинство этих «маленьких файлов» могут быть исходными файлами, небольшими скомпилированными выходными файлами «*.o», ... созданием новой ссылки на enode для каждого из многих сотен тысяч файлов, потребляющих ресурсы файловой системы. Например, для эталонного каталога размером 20 гигабайт с более чем 250 000 файлов инкрементное резервное копирование использует около 100 МБ (0,05%) дополнительного пространства (даже если изменяется только 40 килобайт данных).
Вопрос: Я точно знаю, что полные каталоги и поддеревья каталогов всегда будут содержать в основном одни и те же «сотни тысяч» небольших файлов (возможно, всего с 10 или 20 модификациями), и мне просто интересно, есть ли лучшая стратегия резервного копирования для оптимизации в таком сценарии ( по сравнению с --link-dest ...). То есть я хотел бы создать просто "diff" существующего каталога в новом инкрементальном бэкапе, пытаясь даже создать новую ссылку на enode для 99% существующих файлов. Здесь какое-то наложение файловой системы (подобное докеру) приложение или шаблон?