@docker_ru
Docker — русскоговорящее сообщество

Обсуждаем вопросы, посвященные Docker🐳, Docker Swarm и всей экосистеме. Обмениваем идеями, новостями и решаем пробемы. Вам могут быть полезны: @coreos_ru, @kubernetes_ru, @devops_ru, @rkt_ru Рекомендуем сразу отключить уведомления для удобства

2608 members

Архив канала @docker_ru 24 февраля 2017 г.

02:23:39 ПП
User 24306243
@nikolay_suvorov там косяк у меня был просто.
02:24:31 ПП
User 76622815
Подскажите, плс
Запускаю в терминале консул агент, который крутится на localhost:8500
В другом терминале запускаю доккер контейнер, который пытается достать ключи для консул темплейтов с localhost:8500
Как мне прокинуть доступ к localhost:8500 внутрь моего контейнера?
02:24:36 ПП
User 24306243
Maxim  мне кто-то предлагал для логирования bacula и prometheus
02:26:24 ПП
User 24306243
может стоит посмотреть в сторону этих технологий
02:27:01 ПП
02:27:10 ПП
User 84802924
дефолтный драйвер же
02:32:23 ПП
User 24306243
Так как нет группы по aws s3, надеюсь камнями не закидают если наишу сюда.

Насколько это правильно или не правлиьно, на продакшене разрешать доступ на заливку, получение списка и скачивание файлов s3 bucket, в которм лежат бекапы.

Конфиг в aws:
"Action": ["s3:PutObject", "s3:ListBucket", "s3:GetObject"],
03:03:32 ПП
User 114941324
Хм, кто-то работал с Concourse? У меня почему-то воркер не может подключится, хотя в логах вроде все нормально(
04:47:50 ПП
User 342142410
Вообщем я занимаюсь разработкой облачного кластера для игровых серверов, которые запускаются внутри докер-контейнеров. Есть центральный сервер, который должен получать от всех машин из разных ДЦ логи. Нужно чтобы логи были последовательные (amqp?), не терялись и не дублировались (если между машиной с игровым сервером и центральным сервером, обрабатывающим логи, пропало соединение, а потом восстановилось через некоторое время, например)
04:48:34 ПП
User 342142410
Также эти логи должны храниться какое-то время в mongodb, например
04:50:05 ПП
User 342142410
Какие технологии для реализации сей затеи мне использовать?
04:50:34 ПП
User 342142410
И еще, нужно чтобы логи обязательно приходили в реалтайме
04:51:22 ПП
User 83482436
rsyslog например
04:51:41 ПП
User 342142410
Желательно, чтобы сообщения на диск вообще не сбрасывались
04:51:55 ПП
User 83482436
RELP-транспорт обеспечит гарантированную доставку сообщений
04:52:02 ПП
User 83482436
а, стоп, это конфа про докер
04:52:05 ПП
User 342142410
И при потере коннекта с главным сервером буферезировались в память, а потом при появлении коннекта все пачкой отправлялись
04:52:07 ПП
User 83482436
извините, умолкаю
04:54:21 ПП
User 342142410
То есть я вопрос задал не по теме?
04:58:17 ПП
User 83482436
нет, это я не знаю чем помочь :)
я сюда читать хожу
04:59:49 ПП
User 83482436
вообще для сбора логов и отправки на процессинг я раньше брал logstash
05:00:01 ПП
User 83482436
ну, вообще весь ELK стек раз уж на то пошло
05:01:36 ПП
User 342142410
мне анализировать и искать по ним не нужно потом)
05:01:48 ПП
User 342142410
только парсить при поступлении и все
05:02:47 ПП
User 83482436
ну парсить это как раз logstash
05:03:10 ПП
User 83482436
вообще если с ними ничего делать не надо, то лучше конечно еще на локальной машине отправить в /dev/null
05:12:34 ПП
User 41256359
Складывать логи в память, которые нельзя терять. Вы знаете толк в извращениях.
05:17:24 ПП
User 342142410
хотя да, возможны же отключения питания в дц
05:17:30 ПП
User 342142410
поэтому нужно это на диск скидывать