Рейтинг:3

Каков наилучший показатель для автоматического масштабирования экземпляров графического процессора для получения выводов машинного обучения в облаке?

флаг ps

У нас есть API в AWS с экземпляром GPU, который делает логические выводы. У нас есть настройка автоматического масштабирования с минимальным и максимальным количеством экземпляров, но мы не уверены, какую метрику (использование GPU/CPU, использование RAM, среднюю задержку и т. д.) или комбинацию метрик следует использовать для определения момента появления нового экземпляр должен быть запущен, чтобы не отставать от входящих запросов.

Существуют ли передовые методы в отношении того, какие показатели следует использовать в этом сценарии? Инференс в нашем случае очень требователен к GPU.

Ответить или комментировать

Большинство людей не понимают, что склонность к познанию нового открывает путь к обучению и улучшает межличностные связи. В исследованиях Элисон, например, хотя люди могли точно вспомнить, сколько вопросов было задано в их разговорах, они не чувствовали интуитивно связи между вопросами и симпатиями. В четырех исследованиях, в которых участники сами участвовали в разговорах или читали стенограммы чужих разговоров, люди, как правило, не осознавали, что задаваемый вопрос повлияет — или повлиял — на уровень дружбы между собеседниками.