NUOVO! VPS basato su EPYC + NVMe

Accedi
+1 (855) 311-1555

Come bilanciare il carico di un sito web con NGINX e un hosting VPS multisede

5 min di lettura - 4 luglio 2025

hero image

Table of contents

  • Come bilanciare il carico di un sito web con NGINX e VPS multi-sede
  • Passo 1: distribuire i server VPS in diverse regioni
  • Fase 2: Configurazione di un VPS che funga da bilanciatore di carico
  • Passo 3: risolvere il singolo punto di guasto
  • Il problema
  • Le soluzioni
  • Opzione 1: Alta disponibilità con un IP flottante
  • Opzione 2: bilanciamento del carico a livello di DNS
  • Opzione 3: Anycast IP (avanzato)
  • Fase 4: Controlli di salute e logica di failover
  • Passo 5: puntare il dominio al bilanciatore di carico
  • Opzionale: Routing consapevole della geo-localizzazione
  • \+---------------------+
  • Riflessioni finali

Share

Distribuire il traffico del sito web su server VPS in più sedi utilizzando NGINX. Imparate a configurare il bilanciamento del carico, a evitare i singoli punti di guasto e a migliorare le prestazioni.

Come bilanciare il carico di un sito web con NGINX e VPS multi-sede

Il bilanciamento del carico del vostro sito web su più istanze VPS in diverse località geografiche può migliorare le prestazioni, ridurre la latenza e aumentare la ridondanza. Utilizzando NGINX come reverse proxy, è possibile distribuire il traffico tra i server di backend, ognuno dei quali ospita una copia del sito web o dell'applicazione.

In questa guida illustreremo il processo di configurazione, evidenzieremo le migliori pratiche e affronteremo il problema comune dell'introduzione di un singolo punto di guasto con il reverse proxy, insieme alle soluzioni per mitigarlo.


Passo 1: distribuire i server VPS in diverse regioni

Iniziate distribuendo istanze VPS in diverse località geografiche, ad esempio una a New York, una a Francoforte e una a Singapore. Ogni VPS deve funzionare:

  • Una copia del sito web o dell'applicazione
  • NGINX (se usato anche come server web locale)
  • Accesso SSH per la configurazione e la manutenzione

Assicurarsi che i contenuti e le configurazioni siano coerenti tra tutti i server.


Fase 2: Configurazione di un VPS che funga da bilanciatore di carico

Scegliere un VPS che funga da reverse proxy e da bilanciatore di carico, oppure configurarne uno nuovo per questo scopo. Questo server instraderà il traffico verso i nodi VPS di backend.

Utilizzate una configurazione di base del reverse proxy NGINX che definisca un gruppo upstream e che indirizzi le richieste in entrata verso i nodi backend.

Ecco un esempio di configurazione NGINX per il vostro proxy

http { upstream backend_server { server vps1.example.com; server vps2.example.com; server vps3.example.com; } server { listen 80; location / { proxy_pass http://backend_servers; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } }

Passo 3: risolvere il singolo punto di guasto

Il problema

Il VPS che ospita il reverse proxy NGINX diventa un singolo punto di guasto. Se questo server si guasta, l'intero sito diventa indisponibile, anche se i server di backend sono ancora in funzione.

Le soluzioni

Opzione 1: Alta disponibilità con un IP flottante

Utilizzate strumenti come Keepalived o Pacemaker con VRRP per creare un IP flottante tra due o più nodi NGINX. Se uno di essi si guasta, l'IP passa automaticamente a un altro.

Opzione 2: bilanciamento del carico a livello di DNS

Eseguite più nodi di bilanciamento del carico NGINX e utilizzate il round-robin DNS o GeoDNS (ad esempio, AWS Route 53, Cloudflare Load Balancing) per distribuire il traffico tra di essi.

Opzione 3: Anycast IP (avanzato)

Pubblicizzare lo stesso indirizzo IP da più regioni geografiche utilizzando BGP e Anycast. Il traffico viene instradato automaticamente verso il nodo più vicino in base alla posizione dell'utente.

Suggerimento: La combinazione del routing geografico basato su DNS con i proxy NGINX altamente disponibili offre la migliore copertura e resilienza.


Fase 4: Controlli di salute e logica di failover

Sebbene NGINX Open Source non supporti in modo nativo i controlli attivi sullo stato di salute, interromperà l'instradamento verso un nodo guasto dopo gli errori di connessione. Per un controllo dello stato di salute più avanzato:

  • Utilizzare NGINX Plus
  • Oppure costruire una logica di monitoraggio e failover esterna con cron + curl + ricariche di configurazione.

Passo 5: puntare il dominio al bilanciatore di carico

Aggiornare i record DNS per puntare all'indirizzo IP del reverse proxy NGINX (o all'IP flottante se si usa l'HA). Se si utilizzano più proxy, configurare il provider DNS per una risoluzione bilanciata o geo-aware.


Opzionale: Routing consapevole della geo-localizzazione

NGINX di per sé non gestisce il routing basato sulla geolocalizzazione, ma è possibile abbinarlo a:

  • GeoDNS: Utilizzare un provider DNS che instrada gli utenti verso il server più vicino.
  • IP anycast: Distribuire lo stesso IP da più centri dati, consentendo l'ottimizzazione del routing globale.

```Richiesta utente | v +---------------------+ | GeoDNS / Load-aware | | DNS Routing Layer | +---------------------+ | v +----------------------+ | Proxy NGINX regionale | (HA o Anycast IP) | +----------------------+ | v +---------------------+ | Nodi backend VPS |

+---------------------+

Riflessioni finali

L'uso di NGINX per il bilanciamento del carico su più server VPS aiuta a scalare globalmente e a ridurre la latenza. Ma ricordate: il reverse proxy deve essere altamente disponibile, altrimenti diventa un problema.

Per eliminare i singoli punti di guasto, considerate la distribuzione del carico basata su DNS, gli IP flottanti o la rete Anycast. Con un'attenta pianificazione, la vostra configurazione VPS multi-sede può fornire prestazioni veloci e tolleranti ai guasti su scala.

Questa guida è appropriata solo per un front-end web e non copre le connessioni a un database e i problemi e le soluzioni di distribuzione per l'alta disponibilità. Ne parleremo in un articolo successivo...

Blog

In primo piano questa settimana

Altri articoli
server administrator

Come scegliere il giusto livello RAID per la vostra azienda

Per qualsiasi azienda, piccola, media o grande che sia, i dati sono una risorsa fondamentale. Mentre gli imprenditori spesso investono in sistemi robusti per far funzionare le loro applicazioni, a volte trascurano l'implementazione di adeguate misure di protezione dei dati. La realtà è semplice: la perdita di dati equivale a una perdita di business_. Un modo efficace per migliorare la protezione dei dati e le prestazioni è l'integrazione del RAID nella configurazione di storage.

3 min di lettura - 4 luglio 2025

Perché è importante avere un VPS potente e senza contatore

3 min di lettura - 4 luglio 2025

Altri articoli
background image

Avete domande o avete bisogno di una soluzione personalizzata?

icon

Opzioni flessibili

icon

Portata globale

icon

Distribuzione immediata

icon

Opzioni flessibili

icon

Portata globale

icon

Distribuzione immediata