У нас есть экземпляр AWS EC2 с установленным твердотельным накопителем EBS gp3 объемом около 70 ГБ. Иногда мы выполняем некоторые команды scp для копирования новых файлов в эту EBS, но в остальное время экземпляр будет выполнять только операции чтения в EBS.
Этот экземпляр получает запросы из Интернета, и для каждого запроса он должен прочитать 2000 файлов (1000 ~ 60 КБ и 1000 ~ 414 КБ). Теперь мы хотим включить этот экземпляр в группу автомасштабирования. Что нам делать с этим EBS? Насколько я читал, я могу:
- Создайте новые экземпляры с новым EBS, который копирует исходный EBS каждый раз при их создании -> Копирует ГБ и выполняет операции ввода-вывода в секунду, что в конечном итоге означает затраты $ + времени на копирование EBS.
- Используйте EBS с несколькими подключениями -> более высокая стоимость хранилища (это выделенный ГБ, а не общий)
- Используйте ЭФС. Более низкая скорость и более высокая задержка. Цена выше, чем у EBS, но при создании нескольких будет дешевле.
- Используйте NFS на микроэкземпляре с группой автомасштабирования с параметром min:1 max:1, чтобы избежать сбоев, и подключайте EBS каждый раз при его создании.
- Используйте GlusterFS. Я думаю, что это довольно дорого на AWS. Это?
Я не думаю, что в долгосрочной перспективе у нас никогда не будет больше 100 ГБ. Как вы думаете, что является лучшим подходом в этом сценарии? Я думал в 5), но из-за затрат я думал в 4).