Прежде всего: я не знаю, правильное ли это место, чтобы спросить, пожалуйста, скажите мне, куда я могу обратиться с этим, прежде чем вы удалите мой пост, это было бы здорово, спасибо!
★
Что я хочу сделать (и какие у меня есть варианты):
У меня есть Synology NAS, который может выполнять задачи, которые (да, я нуб) являются «командами Linux». Моя цель — сделать резервную копию всего моего веб-пространства или определенной папки на нем на NAS, но только новые или измененные файлы (например, это будет работать с git).
Я не могу использовать ключи SSH (что, как я полагаю, было бы лучшим способом), потому что я не могу правильно настроить их на своем NAS (это возможно, но мне не хватает знаний, и хотя я был бы признателен, если бы вы помогли мне с те, это просто слишком сложно для меня, я прочитал кучу всего, и это просто не работает, поэтому я пробую способ без SSH-ключей (по крайней мере, так я немного понимаю, что происходит)).
★
Итак, мой псевдокод будет примерно таким:
- Подключите NAS к веб-пространству
- Перейдите в мою конкретную папку (в моем случае вход по FTP уже ограничен только этой папкой, поэтому мы можем это пропустить)
- Создайте папку на моем NAS / или перейдите к ней (она уже существует)
- Клонируйте все материалы из папки веб-пространства изначально в первый раз
- gzip всю папку и назовите zip по дате
- При повторном выполнении скрипт должен только проверять, были ли изменены какие-либо файлы, и только обновлять файлы, загружать новые или также удалять старые (так что каждый из моих почтовых индексов будет полностью рабочим веб-пространством без каких-либо ненужных файлов)
- Итак, теперь моя основная папка обновлена в веб-пространстве и снова заархивирована.
★
Что у меня есть на данный момент:
lftp -u МОЕ-FTP-ИМЯ ПОЛЬЗОВАТЕЛЯ,МОЙ-FTP-ПАРОЛЬ МОЕ-ВЕБ-ПРОСТРАНСТВО-URL 'зеркало / тест'
tar -zcvf /volume1/BACKUPS/backup-$(дата +%Y-%m-%d-%H-%M-%S).tar.gz /volume1/BACKUPS/ИМЯ-ИМЯ-ВЕБ-ПРОСТРАНСТВА/
rm -rf /volume1/BACKUPS/ИМЯ-ВЕБ-ПРОСТРАНСТВА/
Некоторые проблемы с этим:
- Он загружает все веб-пространство каждый раз, потому что я не мог заставить работать «только новые файлы». Размер файла не проблема, но это так много маленьких файлов, это занимает очень много времени и просто блокирует ресурсы NAS.
- По какой-то причине gzip при распаковке содержит весь путь
/volume1/РЕЗЕРВНЫЕ КОПИИ/ИМЯ МОЕГО ВЕБ-ПРОСТРАНСТВА/
и только в последней папке мои файлы. я просто хочу МОЕ-ИМЯ-ВЕБ-ПРОСТРАНСТВА
папку с моими файлами внутри заархивировать.
★
Я был бы очень признателен, если бы вы могли помочь мне с этим. Это не должно быть лфтп
, я тоже пробовал wget
но это тоже не сработало. Так что все, что работает, просто дерзайте. Недавно я работал над этим в последний раз, но если я правильно помню, я не могу использовать мерзавец
но я больше не знаю, почему