Ładna rozmowa i widać, że praktycy tu siedzą. Można rozgraniczyć różne sprawy. Z jednej strony jest klasyczne monitorowanie z arbitralnymi progami alarmowymi, mającymi zwrócić uwagę zanim coś się zepsuje, typu php-fpm zrobił ponad 90 podprocesów dla jakiejś aplikacji. Z drugiej są agregaty w rodzaju Grayloga, który może pokazać zachowania POSTów zwracających coś innego niż 200-cośtam. Do frontu można zatrudnić Matomo, które pokaże wyraźnie dłuższe czasy oczekiwania na jakieś kliknięcia. A na końcu jeszcze potwór Dynatrace, który połączy zachowania bazy danych z funkcjami w kodzie. Problemem często nie jest zbyt mała ilość danych, ale zbyt duża. To może być kilka gigabajtów logów dziennie. Bez doktoratów z grepa i wyrażeń regularnych - lub wspomnianych wyżej narzędzi - jeden człowiek tego nie ogarnie. Wypracowanie metryk to jest czasami miesiąc bieżącej analizy i spokojnego strojenia zbyt często mrugających alertów, których nikt już nie czyta.