Running with Ruby

Tag: thin (page 1 of 2)

Ruby, Mongoid and memory leaks – Identity map problem

Where is my memory?

Recently, when browsing large dataset from MongoDB using Padrino and Thin, Ruby started to have memory leaks. After each request it grew approximately 2-5 MB.

I’ve started debugging by putting following line in my action, to see memory usage increase per request:

puts 'RAM USAGE: ' + `pmap #{Process.pid} | tail -1`[10,40].strip

Results:

RAM USAGE: 796156K
RAM USAGE: 798284K
RAM USAGE: 798824K
RAM USAGE: 799088K
RAM USAGE: 799900K
RAM USAGE: 799900K
RAM USAGE: 812044K
RAM USAGE: 816152K
RAM USAGE: 816292K
RAM USAGE: 816836K
RAM USAGE: 818956K
RAM USAGE: 819088K
RAM USAGE: 830572K
RAM USAGE: 884604K
RAM USAGE: 887648K
RAM USAGE: 892800K
RAM USAGE: 897160K
RAM USAGE: 906960K

As you can see it grows rapidly. When looking at htop things get even worse:

88,4 MB
93,9 MB
97,5 MB
99,2 MB
109,4 MB
113,4 MB
122,7 MB
127,1 MB
...
1,2 GB!

It was definitely too much! Memory consumption reached it’s limits and everything slowed down.

I knew that it had something to do with this line:

@analyses = Analysis.finished.page(params[:page] ||= 1).per(10)

Kaminari?

At the beginning I’ve suspected Kaminari and its pagination engine, however it is just a more complex layer covering some scopes. To check this I’ve removed Kaminari:

@analyses = Analysis.finished.skip(((params[:page] ||= 1)-1)*10).limit(10)

Unfortunately nothing good happened and memory consumption kept growing with same speed. Interesting is that, when I’ve turned off all MongoDB indexes:

db.collection1.dropIndexes()
db.collection2.dropIndexes()
...
db.collectionN.dropIndexes()

memory usage grew much slower than before. So WTF?

Identity map!

Finally I’ve discovered damn source of my problem. It was identity map in Mongoid. What is identity map?

The identity map in Mongoid is a current aid to assist with excessive database queries in relations, and is necessary for eager loading to work. (…) When a document is now loaded from the database, is is automatically added to the identity map by it’s class and id. Subsequent request for that document by it’s id will not hit the database, but rather pull the document back from the identity map itself. It’s primary function in this capacity is to aid in cutting down queries for belongs_to relations when iterating over the parents.

Seems like identity map was never cleared (or it has a memory leak bug in it). Adding:

use Rack::Mongoid::Middleware::IdentityMap

didn’t help at all so I’ve just turned identity map off:

mongo.identity_map_enabled = false

and everything went back to normal. Interesting thing is that identity map in ActiveRecord is by default turned off in Rails because it’s known to cause similar problems.

Podstawy loadbalancingu – nginx + thin (backend, frontend)

Wstęp

Ostatnimi czasy przyszło mi pracować nad dość zasobożerną aplikacją. Nie wdając się w szczegóły, podzielona jest ona na frontend i backend. Frontend (jak sama nazwa wskazuje) odpowiada za generowanie tego co widzi użytkownik. Backend służy zaś do komunikacji poszczególnych fragmentów systemu oraz za przetwarzanie i gromadzenie danych. Aktualnie w czasie pracy – średnio obciążony system generuje około 10-40 żądań na sekundę na backendzie. Przód zasadniczo nie jest aż tak obciążony. Warto jednak mieć na uwadze to, że aplikacja ta jest w fazie beta i ilość użytkowników jest mocno ograniczona. W związku z tym skalowalność jak najbardziej mile widziana :)

Load balancing

Aby utrzymać wysoką wydajność i responsywność tejże aplikacji, zdecydowałem się na wykorzystanie load balancingu. Czym jest load balancing? Za wikipedią:

Równoważenie obciążenia (ang. load balancing) – technika rozpraszania obciążenia pomiędzy wiele procesorów, komputerów, dysków, połączeń sieciowych lub innych zasobów.

Przykładowy system load balancing mógłby zapewniać bezawaryjną i optymalną pracę na N-aplikacjach znajdujących się na bliźniaczych M-serwerach (zawierających równoważne aplikacje). Podczas gdy wielu użytkowników wysyła wiele żądań, trafiają one najpierw do SLB, który analizuje obciążenie na poszczególnych M-serwerach. Następnie dokonuje optymalnego wyboru – odsyłając użytkownika do jednego z serwerów do konkretnej aplikacji – według żądania.

W moim wypadku zasobem jest instancja Thina. Rozkład obciążeń ma u mnie “zrównoleglić” przetrwarzanie tak, aby dane napływające przez API nie musiały “czekać” aż konkretna instancja Thina skończy przetwarzać poprzednie informacje. Dodatkowo chciałem odseparować jak najbardziej wpływ backendu na frontend. Wszelkie “zasobożerne” obliczenia zamykają się w mocniejszej z maszyn, zaś na świat wystawiona jest ta “lżejsza”. Dodatkowo cała komunikacja między-serwerowa leci po vlanie.

nginx

Jako load balancer wybrałem nginx’a ponieważ jest lekki, szybki i wykrywa jak któryś z thinów jest niedostępny (np. padnie). Jego konfiguracja aby działał jako proces do równoważenia obciążeń nie stanowi większego problemu. Całość konfiguracji wykonujemy w przestrzeni http:


http{
# Konfiguracja
}

Zacznijmy od zdefiniowania sobie tego gdzie znajdują się nasze instancje thinów. Load balancer stoi na maszynie pierwszej, tam gdzie frontend. Dlatego też odwołujemy się do serwerów leżących na nim poprzez localhost:

    upstream frontends {
        server localhost:3001;
        server localhost:3002;
        server localhost:3003;
    }

    upstream backends {
        server serwer2:3001;
        server serwer2:3002;
        server serwer2:3003;
        server serwer2:3004;
        server serwer2:3005;
        server serwer2:3006;
    }

Oczywiście zamiast nazwy zdefinowanej w hostach (server2), możemy wskazywać bezpośrednio na IP i port, np: 192.168.1.10:3001. Porty zostały wybrane ze względów sentymentalnych i nie mają wpływu na działanie nginxa (no chyba że wpiszemy adres pod którym nic nie ma).

Dalej ustawiamy (bądź nie) kilka opcji związanych z timeoutami i gzipem:

    include       mime.types;
    default_type  application/octet-stream;

    keepalive_timeout 165;
    proxy_read_timeout 400;
    sendfile on;
    tcp_nopush on;
    gzip on;
    gzip_min_length 1000;
    gzip_proxied any;

    proxy_next_upstream error;

Ich dokładny opis można znaleźć np. w dokumentacji do nginxa.

Dalej musimy ustalić które żądania (skąd przychodzące) mają być realizowane przez którą z maszyn (frontend czy backend). Zajmijmy się najpierw backendem:

    server {
        listen 192.168.1.3:81;
        server_name server2;

        client_max_body_size 5M;

        location / {
            proxy_pass_header $server;
            proxy_set_header Host $http_host;
            proxy_redirect off;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Scheme $scheme;
            proxy_pass http://backends;
        }

    }

Ustawiamy nasłuch (192.168.1.3:81), kilka innych parametrów i najważniejsze czyli proxy_pass który przekierowywać będzie żądania na zdefiniowany przez nas upstream. To samo robimy dla frontendu:

    server {
        listen 192.168.1.2:80;
        server_name jakasnazwa;

        client_max_body_size 5M;

        location / {
            proxy_pass_header $server;
            proxy_set_header Host $http_host;
            proxy_redirect off;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Scheme $scheme;
            proxy_pass http://frontends;
        }
        
        error_page 502 /502.html;  
        location = /502.html {  
            root  /home/sciezka/error_templates;  
        }  

	error_page 500 /500.html;  
        location = /500.html {  
            root  /home/sciezka/error_templates;
	}
        error_page 404 /404.html;  
        location = /404.html {  
            root  /home/sciezka/error_templates;  
        }

    }

Jedyną różnicą jest ustawienie stron błędów tak aby były ustawiane przez nas. Na backendzie jest to zbędne, jednak tutaj w przypadku downtime’u miło byłoby móc powiadomić użytkowników wyświetlając stosowną stronę z komunikatem.

Na sam koniec ustawiamy nasłuch samego nginxa na świat:

    # Nginx status
    server {
      listen 80;
      server_name localhost;
      location /nginx_status {
        stub_status on;
        access_log off;
        allow 127.0.0.1;
        deny all;
      }   
    }

I możemy działać :)

Olderposts

Copyright © 2018 Running with Ruby

Theme by Anders NorenUp ↑