Привет!
Недавно мы написали статью на Хабре о том, как наша система доставки логов развивалась последний год. Для того чтобы выдерживать различные пиковые нагрузки и быстро обрабатывать достаточно большие объемы информации мы полностью изменили её архитектуру и теперь она без особых проблем и вмешательств инженеров обрабатывает 4 Тб логов в сутки.
На примере небольшого интернет-проекта (выдуманного) мы покажем, как можно собирать различные виды логов, доставлять их, обрабатывать и использовать для различного мониторинга. Покажем, как можно (и нужно) настраивать Elasticsearch для комфортной работы с данными, а также проведем учение по его “воскрешению” после сбоев.