Рейтинг:0

AWS S3 links return 403 when application is run using Docker Swarm, but works fine when run with Docker Compose

флаг jp

I have a Django application on EC2 (ubuntu) instance using S3 for static & media files, which is set up currently using Docker Compose. I'm trying to convert it to use Docker Swarm, but in doing so all my S3 links are returning 403 status.

Error message: Failed to load resource: the server responded with a status of 403 (Forbidden)

If I run the same using docker-compose, all the static files are loaded properly. The only thing that I noticed is that the IP address of all the containers are different when run on swarm and compose. Although I'm not sure if this has anything to do with the issue.

Is there anything extra that I need to take care of for S3 to work in Docker Swarm?

djdomi avatar
флаг za
Вы сами уже ответили - либо смените IP _*или*_ разрешите доступ к нему.

Ответить или комментировать

Большинство людей не понимают, что склонность к познанию нового открывает путь к обучению и улучшает межличностные связи. В исследованиях Элисон, например, хотя люди могли точно вспомнить, сколько вопросов было задано в их разговорах, они не чувствовали интуитивно связи между вопросами и симпатиями. В четырех исследованиях, в которых участники сами участвовали в разговорах или читали стенограммы чужих разговоров, люди, как правило, не осознавали, что задаваемый вопрос повлияет — или повлиял — на уровень дружбы между собеседниками.