7.1 Konfiguracja monitoringu za pomocą Prometheus
W tym kroku omówimy, jak skonfigurować monitoring i logowanie dla naszej aplikacji wielokontenerowej. To pozwoli na śledzenie stanu i wydajności usług, a także na zbieranie i analizowanie logów w celu diagnostyki problemów.
Cel: zbieranie metryk z usług i wizualizacja ich do monitorowania wydajności i stanu aplikacji.
Instalacja i konfiguracja Prometheus
W tym przykładzie Prometheus uruchamiany jest z użyciem Dockera. Zapewnia to interoperacyjność na różnych platformach i pozwala na efektywne wdrożenie monitoringu na dowolnym systemie operacyjnym obsługującym Dockera.
1. Utworzenie katalogu na konfigurację Prometheus:
mkdir prometheus
cd prometheus
2. Utworzenie pliku konfiguracji prometheus.yml
:
global:
scrape_interval: 15s
scrape_configs:
- job_name: 'flask-app'
static_configs:
- targets: ['backend:5000']
- job_name: 'node-app'
static_configs:
- targets: ['frontend:3000']
3. Utworzenie Dockerfile dla Prometheus:
FROM prom/prometheus
COPY prometheus.yml /etc/prometheus/prometheus.yml
4. Dodanie Prometheus do compose.yaml
:
version: '3'
services:
frontend:
build: ./frontend
ports:
- "3000:3000"
networks:
- task-network
backend:
build: ./backend
ports:
- "5000:5000"
depends_on:
- database
networks:
- task-network
environment:
- DATABASE_URL=postgresql://taskuser:taskpassword@database:5432/taskdb
database:
image: postgres:13
environment:
- POSTGRES_DB=taskdb
- POSTGRES_USER=taskuser
- POSTGRES_PASSWORD=taskpassword
networks:
- task-network
volumes:
- db-data:/var/lib/postgresql/data
nginx:
build: ./nginx
ports:
- "80:80"
depends_on:
- frontend
- backend
networks:
- task-network
prometheus:
build: ./prometheus
ports:
- "9090:9090"
networks:
- task-network
networks:
task-network:
driver: bridge
volumes:
db-data:
7.2 Instalacja i konfiguracja Grafana
1. Tworzenie folderu na konfigurację Grafana:
mkdir grafana
cd grafana
2. Tworzenie Dockerfile dla Grafana:
FROM grafana/grafana
3. Dodanie Grafana do docker-compose.yml
:
grafana:
image: grafana/grafana
ports:
- "3033:3000"
depends_on:
- prometheus
networks:
- task-network
4. Konfiguracja Grafana do pracy z Prometheus:
- Uruchom kontenery za pomocą
docker compose up
. - Przejdź do interfejsu web Grafana pod adresem
http://localhost:3033
. - Zaloguj się, używając domyślnych danych logowania (admin/admin).
- Przejdź do
"Configuration"
->"Data Sources"
i dodaj nowe źródło danych. - Wybierz
"Prometheus"
i wskażURL http://prometheus:9090
. - Zapisz konfigurację.
Tworzenie dashboardów w Grafana
- Tworzenie nowego dashboardu:
- Przejdź do
"Create"
->"Dashboard"
. - Kliknij
"Add new panel"
. - W sekcji
"Query"
wybierz źródło danychPrometheus
. - Wprowadź zapytanie
PromQL
do pobrania metryk. Na przykład, do monitorowania użyciaCPU
:
- Przejdź do
- Konfiguracja panelu (Panel):
- Wybierz typ wykresu (na przykład, "Graph").
- Skonfiguruj panel (na przykład, tytuł, legendę, osie itp.).
- Kliknij
"Apply"
, aby zapisać panel.
- Tworzenie dodatkowych paneli:
- Powtórz kroki, aby utworzyć dodatkowe panele dla innych metryk, takich jak pamięć, sieć i dysk.
rate(container_cpu_usage_seconds_total[1m])
7.3 Konfiguracja ELK Stack
Konfiguracja logowania za pomocą ELK Stack (Elasticsearch, Logstash, Kibana)
.
Cel: zbierać, przechowywać i analizować logi z naszych serwisów.
Instalacja i konfiguracja Elasticsearch
Dodanie Elasticsearch
do compose.yaml
:
elasticsearch:
image: docker.elastic.co/elasticsearch/elasticsearch:8.15.0
environment:
- discovery.type=single-node
ports:
- "9200:9200"
networks:
- task-network
Instalacja i konfiguracja Logstash
Krok 1. Utworzenie katalogu dla konfiguracji Logstash:
mkdir logstash
cd logstash
Krok 2. Utworzenie pliku konfiguracyjnego logstash.conf
:
input {
beats {
port => 5044
}
}
filter {
json {
source => "message"
}
}
output {
elasticsearch {
hosts => ["elasticsearch:9200"]
index => "docker-logs-%{+YYYY.MM.dd}"
}
}
Krok 3. Utworzenie Dockerfile dla Logstash
:
FROM docker.elastic.co/logstash/logstash:8.15.0
COPY logstash.conf /usr/share/logstash/pipeline/logstash.conf
Krok 4. Dodanie Logstash do compose.yaml
:
logstash:
build: ./logstash
ports:
- "5044:5044"
depends_on:
- elasticsearch
networks:
- task-network
Instalacja i konfiguracja Kibana
Dodanie Kibana do compose.yaml
:
kibana:
image: docker.elastic.co/kibana/kibana:8.15.0
ports:
- "5601:5601"
depends_on:
- elasticsearch
networks:
- task-network
Instalacja Filebeat do zbierania logów
Krok 1. Utworzenie katalogu dla konfiguracji Filebeat:
mkdir filebeat
cd filebeat
Krok 2. Utworzenie pliku konfiguracyjnego filebeat.yml
:
filebeat.inputs:
- type: docker
containers.ids:
- '*'
processors:
- add_docker_metadata: ~
output.logstash:
hosts: ["logstash:5044"]
Krok 3. Utworzenie Dockerfile dla Filebeat:
FROM docker.elastic.co/beats/filebeat:8.15.0
COPY filebeat.yml /usr/share/filebeat/filebeat.yml
Krok 4. Dodanie Filebeat do compose.yaml
:
filebeat:
build: ./filebeat
volumes:
- "/var/run/docker.sock:/var/run/docker.sock:ro"
depends_on:
- logstash
networks:
- task-network
7.4 Pełny plik
Pełny plik compose.yaml
version: '3'
services:
frontend:
build: ./frontend
ports:
- "3000:3000"
networks:
- task-network
backend:
build: ./backend
ports:
- "5000:5000"
depends_on:
- database
networks:
- task-network
environment:
- DATABASE_URL=postgresql://taskuser:taskpassword@database:5432/taskdb
database:
image: postgres:13
environment:
- POSTGRES_DB=taskdb
- POSTGRES_USER=taskuser
- POSTGRES_PASSWORD=taskpassword
networks:
- task-network
volumes:
- db-data:/var/lib/postgresql/data
nginx:
build: ./nginx
ports:
- "80:80"
depends_on:
- frontend
- backend
networks:
- task-network
prometheus:
build: ./prometheus
ports:
- "9090:9090"
networks:
- task-network
grafana:
image: grafana/grafana
ports:
- "3033:3000"
depends_on:
- prometheus
networks:
- task-network
elasticsearch:
image: docker.elastic.co/elasticsearch/elasticsearch:7.9.2
environment:
- discovery.type=single-node
ports:
- "9200:9200"
networks:
- task-network
logstash:
build: ./logstash
ports:
- "5044:5044"
depends_on:
- elasticsearch
networks:
- task-network
kibana:
image: docker.elastic.co/kibana/kibana:7.9.2
ports:
- "5601:5601"
depends_on:
- elasticsearch
networks:
- task-network
filebeat:
build: ./filebeat
volumes:
- "/var/run/docker.sock:/var/run/docker.sock:ro"
depends_on:
- logstash
networks:
- task-network
networks:
task-network:
driver: bridge
volumes:
db-data:
GO TO FULL VERSION