NEU! EPYC + NVMe basierte VPS

Anmelden
+1 (855) 311-1555

Wie man eine Website mit NGINX und VPS-Hosting mit mehreren Standorten ausbalanciert

5 Min. Lesezeit - 4. Juli 2025

hero image

Table of contents

  • Lastausgleich einer Website mit NGINX und VPS mit mehreren Standorten
  • Schritt 1: Bereitstellen von VPS-Servern in verschiedenen Regionen
  • Schritt 2: Richten Sie einen VPS ein, der als Lastverteiler fungiert
  • Schritt 3: Behebung des einzigen Fehlerpunkts
  • Das Problem
  • Lösungen
  • Option 1: Hohe Verfügbarkeit mit einer Floating IP
  • Option 2: Lastausgleich auf DNS-Ebene
  • Option 3: Anycast IP (fortgeschritten)
  • Schritt 4: Zustandsprüfungen und Failover-Logik
  • Schritt 5: Verweisen Sie Ihre Domain auf den Load Balancer
  • Optional: Geo-location-aware Routing
  • \+---------------------+
  • Abschließende Überlegungen

Share

Verteilen Sie den Website-Traffic über VPS-Server an mehreren Standorten mit NGINX. Erfahren Sie, wie Sie den Lastausgleich konfigurieren, Single Points of Failure vermeiden und die Leistung verbessern.

Lastausgleich einer Website mit NGINX und VPS mit mehreren Standorten

Die Lastverteilung Ihrer Website auf mehrere VPS-Instanzen an unterschiedlichen geografischen Standorten kann die Leistung verbessern, die Latenzzeit verringern und die Redundanz erhöhen. Durch den Einsatz von NGINX als Reverse-Proxy können Sie den Datenverkehr zwischen Backend-Servern verteilen, die jeweils eine Kopie Ihrer Website oder Anwendung hosten.

In diesem Leitfaden gehen wir den Einrichtungsprozess durch, heben Best Practices hervor und gehen auf den häufigen Fallstrick ein, dass der Reverse Proxy einen Single Point of Failure einführt - zusammen mit Lösungen, um diesen zu entschärfen.


Schritt 1: Bereitstellen von VPS-Servern in verschiedenen Regionen

Beginnen Sie mit der Bereitstellung von VPS-Instanzen an verschiedenen geografischen Standorten, z. B. eine in New York, eine in Frankfurt und eine in Singapur. Jeder VPS sollte laufen:

  • Eine Kopie Ihrer Website oder Anwendung
  • NGINX (falls auch als lokaler Webserver verwendet)
  • SSH-Zugang für Einrichtung und Wartung

Stellen Sie sicher, dass die Inhalte und Konfigurationen auf allen Servern konsistent sind.


Schritt 2: Richten Sie einen VPS ein, der als Lastverteiler fungiert

Wählen Sie einen VPS aus, der als Reverse Proxy und Load Balancer fungiert, oder richten Sie einen neuen Server für diesen Zweck ein. Dieser Server leitet den Datenverkehr an die Backend-VPS-Knoten weiter.

Verwenden Sie eine grundlegende NGINX-Reverse-Proxy-Konfiguration, die eine Upstream-Gruppe definiert und eingehende Anfragen an Ihre Backend-Knoten weiterleitet.

Hier ist ein Beispiel für eine NGINX-Konfiguration für Ihren Proxy

http { upstream backend_servers { server vps1.example.com; server vps2.example.com; server vps3.example.com; } server { listen 80; location / { proxy_pass http://backend_servers; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } }

Schritt 3: Behebung des einzigen Fehlerpunkts

Das Problem

Der VPS, auf dem der NGINX-Reverse-Proxy gehostet wird, wird zu einem Single-Point-of-Failure. Wenn dieser Server ausfällt, ist Ihre gesamte Website nicht mehr verfügbar - auch wenn Ihre Backend-Server noch laufen.

Lösungen

Option 1: Hohe Verfügbarkeit mit einer Floating IP

Verwenden Sie Tools wie Keepalived oder Pacemaker mit VRRP, um eine schwebende IP zwischen zwei oder mehr NGINX-Knoten einzurichten. Fällt einer aus, wechselt die IP automatisch zu einem anderen.

Option 2: Lastausgleich auf DNS-Ebene

Betreiben Sie mehrere NGINX-Load-Balancer-Knoten und verwenden Sie Round-Robin-DNS oder GeoDNS (z. B. AWS Route 53, Cloudflare Load Balancing), um den Datenverkehr auf sie zu verteilen.

Option 3: Anycast IP (fortgeschritten)

Bewerben Sie dieselbe IP-Adresse aus mehreren geografischen Regionen mit BGP und Anycast. Der Datenverkehr wird automatisch an den nächstgelegenen Knoten weitergeleitet, der auf dem Standort des Benutzers basiert.

Tipp: Die Kombination von DNS-basiertem geografischem Routing mit hochverfügbaren NGINX-Proxys bietet die beste Abdeckung und Ausfallsicherheit.


Schritt 4: Zustandsprüfungen und Failover-Logik

NGINX Open Source unterstützt zwar von Haus aus keine aktiven Gesundheitsprüfungen, stoppt aber bei Verbindungsfehlern das Routing zu einem ausgefallenen Knoten. Für fortgeschrittene Gesundheitsprüfungen:

  • Verwenden Sie NGINX Plus
  • Oder bauen Sie eine externe Überwachungs- und Failover-Logik mit cron + curl + config reloads

Schritt 5: Verweisen Sie Ihre Domain auf den Load Balancer

Aktualisieren Sie Ihre DNS-Einträge so, dass sie auf die IP-Adresse Ihres NGINX-Reverse-Proxys verweisen (oder auf eine Floating IP, wenn Sie HA verwenden). Wenn Sie mehrere Proxys verwenden, konfigurieren Sie Ihren DNS-Provider für eine lastverteilte oder geoabhängige Auflösung.


Optional: Geo-location-aware Routing

NGINX selbst beherrscht kein geostandortbasiertes Routing, aber Sie können es mit GeoDNS koppeln:

  • GeoDNS: Verwendung eines DNS-Anbieters, der Benutzer zum nächstgelegenen Server weiterleitet
  • Anycast-IPs: Verteilen Sie dieselbe IP von mehreren Datenzentren aus, was eine globale Routing-Optimierung ermöglicht.

Benutzeranfrage | v +---------------------+ | GeoDNS / Load-aware | | DNS Routing Layer | +---------------------+ | v +----------------------+ | Regionaler NGINX Proxy | | (HA oder Anycast IP) | +----------------------+ | v +---------------------+ | VPS Backend Nodes |

+---------------------+

Abschließende Überlegungen

Die Verwendung von NGINX für den Lastausgleich über mehrere VPS-Server hilft Ihnen, global zu skalieren und die Latenz zu reduzieren. Aber denken Sie daran: Der Reverse-Proxy muss hochverfügbar sein, sonst wird er zu einer Belastung.

Um Single Points of Failure zu vermeiden, sollten Sie DNS-basierte Lastverteilung, Floating IPs oder Anycast-Netzwerke in Betracht ziehen. Bei sorgfältiger Planung kann Ihr VPS-Setup mit mehreren Standorten schnelle, fehlertolerante Leistung in großem Umfang liefern.

Dieser Leitfaden ist nur für ein Web-Frontend geeignet und behandelt nicht die Verbindungen zu einer Datenbank und die Probleme und Lösungen, die sich aus der Verteilung dieser für eine hohe Verfügbarkeit ergeben. Wir werden das in einem späteren Artikel behandeln...

Blog

Diese Woche im Blickpunkt

Weitere Artikel
server administrator

Wie Sie den richtigen RAID-Level für Ihr Unternehmen auswählen

Für jedes Unternehmen, ob klein, mittelgroß oder groß, sind Daten ein wichtiges Gut. Während Unternehmer oft in robuste Systeme investieren, um ihre Anwendungen zu betreiben, vergessen sie manchmal, angemessene Datenschutzmaßnahmen zu ergreifen. Die Realität ist einfach: _Datenverlust ist gleich Geschäftsverlust_. Eine effektive Möglichkeit zur Verbesserung von Datenschutz und Leistung ist die Integration von RAID in Ihre Speicherkonfiguration.

3 Min. Lesezeit - 4. Juli 2025

Warum es wichtig ist, einen leistungsstarken und ungemessenen VPS zu haben

3 Min. Lesezeit - 4. Juli 2025

Weitere Artikel
background image

Sie haben Fragen oder benötigen eine individuelle Lösung?

icon

Flexible Optionen

icon

Globale Reichweite

icon

Sofortige Bereitstellung

icon

Flexible Optionen

icon

Globale Reichweite

icon

Sofortige Bereitstellung