Entscheiden Sie zunächst, welche Komponenten und Ressourcen benötigt werden. Sie benötigen einen Master-Knoten, mindestens ein Dutzend identischer Rechenknoten, einen Ethernet-Switch, eine Stromverteilungseinheit und ein Rack. Bestimmen Sie den Verkabelungs- und Kühlungsaufwand sowie den Platzbedarf. Entscheiden Sie auch, welche IP-Adressen Sie für Knoten verwenden möchten, welche Software Sie installieren und welche Technologien erforderlich sind, um parallele Rechenleistung zu erzeugen (mehr dazu weiter unten).
Mounten Sie die Knoten. Sie müssen Hosts erstellen oder vorgefertigte Server kaufen.
Installieren Sie die Server im Rack. Beginnen Sie unten, damit das Rack oben nicht überladen wird. Sie werden die Hilfe eines Freundes benötigen – zusammengebaute Server können sehr schwer sein und es ist ziemlich schwierig, sie in die Zellen zu stellen, auf denen sie im Rack stehen.
Installieren Sie einen Ethernet-Switch neben dem Rack. Es lohnt sich, den Switch gleich zu konfigurieren: Stellen Sie die Jumbo-Frame-Größe auf 9000 Byte ein, stellen Sie die statische IP-Adresse ein, die Sie in Schritt 1 gewählt haben, und deaktivieren Sie unnötige Protokolle wie SMTP.
Installieren Sie eine Stromverteilungseinheit (PDU oder Power Distribution Unit). Abhängig von der maximalen Last, die die Knoten in Ihrem Netzwerk ausgeben, benötigen Sie möglicherweise 220 Volt für einen Hochleistungscomputer.
Wenn alles eingestellt ist, fahren Sie mit der Konfiguration fort. Linux ist in der Tat das System der Wahl für Hochleistungscluster (HPC) – es ist nicht nur ideal für wissenschaftliches Rechnen, sondern Sie müssen auch nicht bezahlen, um ein System auf Hunderten oder sogar Tausenden von Knoten zu installieren. Stellen Sie sich vor, wie viel es kosten würde Windows-Installation für alle Knoten!
Installieren Sie die Message Passing-Schnittstelle, den Ressourcenmanager und andere erforderliche Bibliotheken. Wenn Sie Rocks im vorherigen Schritt nicht installiert haben, müssen Sie die erforderliche Software manuell installieren, um die parallele Rechenlogik einzurichten.
Verbinden Sie Computer mit dem Netzwerk. Der Master-Knoten sendet Aufgaben zur Berechnung an Slave-Knoten, die wiederum das Ergebnis zurücksenden müssen, und auch Nachrichten untereinander senden. Und je früher dies geschieht, desto besser.
Testen Sie den Cluster. Das Letzte, was Sie tun sollten, bevor Sie Benutzern Zugriff auf Rechenleistung gewähren, sind Leistungstests. Der HPL-Benchmark (High Performance Lynpack) ist eine beliebte Option zum Messen der Rechengeschwindigkeit in einem Cluster. Sie müssen Software aus dem Quellcode mit dem höchsten Optimierungsgrad kompilieren, den Ihr Compiler für die von Ihnen gewählte Architektur zulässt.
Ich baute meinen ersten „Cluster“ von Einplatinencomputern fast unmittelbar nachdem der Orange Pi PC-Mikrocomputer an Popularität gewann. Es könnte ein "Cluster" mit großer Ausdehnung genannt werden, weil es formal gesehen gerecht war das lokale Netzwerk von vier Boards, die sich gegenseitig „sahen“ und auf das Internet zugreifen konnten.
Das Gerät nahm am Projekt teil [E-Mail geschützt] und konnte sogar etwas zählen. Aber leider kam niemand, um mich von diesem Planeten abzuholen.
Durch das ständige Herumhantieren mit Kabeln, Anschlüssen und microSD-Karten habe ich jedoch viel gelernt. So habe ich zum Beispiel herausgefunden, dass man der angegebenen Leistung des Netzteils nicht trauen sollte, dass es schön wäre, die Last in Bezug auf den Verbrauch zu verteilen, und dass es auf den Leitungsquerschnitt ankommt.
Und ja, ich musste das Energiemanagementsystem „kollektiv farmen“, da der gleichzeitige Start von fünf Singleboardern einen Startstrom in der Größenordnung von 8-10A (5 * 2) erfordern kann! Das ist viel, besonders für Netzteile, die in den Kellern des Landes hergestellt werden, wo wir so gerne alle möglichen ... interessanten Gadgets bestellen.
Ich werde wahrscheinlich mit ihr anfangen. Die Aufgabe wurde auf relativ einfache Aktionen reduziert - schalten Sie nach einer bestimmten Zeit 4 Kanäle in Reihe ein, über die 5 Volt zugeführt werden. Der einfachste Weg, Ihren Plan umzusetzen, ist mit Arduino (das jeder anständige Geek im Überfluss hat) und hier ist so ein Wunderboard mit Ali mit 4 Relais.
Und weißt du, es hat sogar funktioniert.
Die „Kühlschrank-ähnlichen“ Klicks beim Start sorgten jedoch für einige Ablehnung. Erstens lief beim Klicken ein Rauschen durch das Netzteil und es mussten Kondensatoren installiert werden, und zweitens war die gesamte Struktur ziemlich groß.
Also habe ich eines Tages einfach die Relaisbox durch IRL520-basierte Transistorschalter ersetzt.
Dies löste das Problem mit Interferenzen, aber da der Mosfet „Null“ steuert, musste ich die Messingbeine im Rack verlassen, um nicht versehentlich die Masse der Platinen zu verbinden.
Und jetzt ist die Lösung perfekt repliziert und bereits zwei Cluster arbeiten stabil und ohne Überraschungen. Genau wie geplant.
Aber zurück zur Reproduzierbarkeit. Warum Netzteile für einen beträchtlichen Betrag kaufen, wenn Ihnen viele erschwingliche ATXs buchstäblich unter den Füßen liegen?
Außerdem haben sie alle Spannungen (5,12,3,3), die Ansätze zur Eigendiagnose und die Möglichkeit der Programmsteuerung.
Nun, hier werde ich nicht besonders kreuzigen - ein Artikel über die ATX-Steuerung durch Arduino.
Na, alle Pillen sind gegessen, die Briefmarken sind auch geklebt? Es ist Zeit, alles zusammenzufügen.
Es wird einen Hauptknoten geben, der sich über WiFi mit der Außenwelt verbindet und dem Cluster „Internet“ gibt. Es wird mit ATX-Standby-Spannung betrieben.
Tatsächlich ist TBNG für die Verbreitung des Internets verantwortlich.
Auf Wunsch können also Cluster-Knoten hinter TOR versteckt werden.
Außerdem wird es ein kniffliges Board geben, das über i2c mit diesem Hauptknoten verbunden ist. Sie kann jeden der 10 Worker-Knoten ein- und ausschalten. Außerdem kann er drei 12-V-Lüfter steuern, um das gesamte System zu kühlen.
Das Szenario ist wie folgt: Wenn ATX bei 220 V eingeschaltet wird, startet der Hauptknoten. Wenn das System betriebsbereit ist, schaltet es nacheinander alle 10 Knoten und Lüfter ein.
Wenn der Einschaltvorgang abgeschlossen ist, umgeht der Kopfknoten jeden funktionierenden Knoten und fragt, wie wir uns fühlen, wie hoch die Temperatur sein soll. Wenn eines der Racks beheizt ist, erhöhen Sie den Luftstrom.
Nun, mit dem Shutdown-Befehl wird jeder der Knoten sorgfältig gelöscht und stromlos gemacht.
Ich habe das Board-Diagramm selbst gezeichnet, daher sieht es gruselig aus. Die Nachverfolgung und Herstellung übernahm jedoch eine gut ausgebildete Person, wofür ihm herzlichen Dank gebührt.
Hier wird gerade zusammengebaut.
Hier ist eine der ersten Skizzen der Lage der Cluster-Komponenten. Auf einem Blatt Papier in einem Käfig erstellt und durch Office Lens mit einem Telefon verewigt.
Die gesamte Struktur wird auf eine Textolite-Platte gelegt, die für diesen Anlass gekauft wurde.
So sieht die Anordnung der Knoten im Inneren aus. Zwei Racks mit fünf Brettern.
Hier sieht man die Steuerung Arduino. Es ist über i2c über einen Pegelwandler mit dem Haupt-Orange-Pi-PC verbunden.
Nun, hier ist die endgültige (aktuelle Version).
Alles, was Sie also brauchen, ist, ein paar Python-Dienstprogramme zu schreiben, die all diese Musik leiten würden - schalten Sie es ein, schalten Sie es ein, passen Sie die Lüftergeschwindigkeit an.
Ich will Sie nicht mit den technischen Details langweilen - es sieht in etwa so aus:
1
2 3 4 5 6 7 8 | #!/usr/bin/env sh echo "ATX-Board wird gestartet..." /home/zno/i2creobus/i2catx_tool.py --start Echo "Lüfter-Anfangswerte einstellen..." /home/zno/i2creobus/i2creobus_tool.py --fan 0 --set 60 /home/zno/i2creobus/i2creobus_tool.py --fan 1 --set 60 /home/zno/i2creobus/i2creobus_tool.py --fan 2 --set 60 |
Da wir bereits über 10 Nodes verfügen, setzen wir auf Ansible, das beispielsweise hilft, alle Nodes korrekt herunterzufahren. Oder laufen Sie auf jedem Temperaturmonitor.
1
2 3 4 5 6 7 8 | ---
- Gastgeber: Arbeiter Rollen: - webmon_stop -webmon_remove - webmon_install - webmon_start |
Mir wird oft ein abschätziger Ton vorgeworfen, dass dies nur ein lokales Netzwerk von Einzelzahlern sei (wie ich ganz am Anfang erwähnt habe). Im Allgemeinen ist mir die Meinung anderer scheißegal, aber vielleicht bringen wir etwas Glamour hinzu und organisieren einen Docker-Schwarm-Cluster.
Die Aufgabe ist sehr einfach und dauert weniger als 10 Minuten. Dann führen wir eine Instanz von Portainer auf dem Hauptknoten aus, und voila!
Jetzt kannst du Ja wirklich Aufgaben skalieren. Im Moment arbeitet also der Kryptowährungs-Miner Verium Reserve im Cluster. Und das ziemlich erfolgreich. Ich hoffe, der nächste Eingeborene zahlt den verbrauchten Strom ab;) Nun, oder reduzieren Sie die Anzahl der beteiligten Knoten und schürfen Sie etwas anderes wie Turtle Coin.
Wenn Sie eine Nutzlast wünschen, können Sie Hadoop in den Cluster werfen oder einen Ausgleich von Webservern arrangieren. Im Internet gibt es viele fertige Bilder, und es gibt genügend Schulungsmaterial. Nun, wenn das Image (Docker-Image) fehlt, können Sie jederzeit ein eigenes erstellen.
Was hat es mich gelehrt? Generell ist der „Stack“ an Technologien sehr breit. Überzeugen Sie sich selbst – Docker, Ansible, Python, Arduino-Upgrade (Gott vergib mir, es wird nicht bei Nacht gesagt) und natürlich die Shell. Sowie KiCad und Arbeit mit einem Auftragnehmer :).
Was kann besser gemacht werden? Viel. Auf der Softwareseite wäre es schön, Kontroll-Utilities in Go umzuschreiben. Auf dem Eisen - machen Sie es steampunkiger - KDPV legt zu Beginn die Messlatte perfekt höher. Es gibt also etwas zu tun.
Gespielte Rollen:
Während der Experimente litten einige Orange Pi PC2-Boards unter einer vertauschten Stromversorgung (sie brennen sehr gut), ein anderer PC2 verlor sein Ethernet (dies ist eine separate Geschichte, in der ich die Physik des Prozesses nicht verstehe).
Das scheint die ganze Geschichte „on top“ zu sein. Wenn es jemand interessant findet - stellen Sie Fragen in den Kommentaren. Und dort für Fragen abstimmen (plus - jeder Kommentar hat dafür einen Button). Die meisten interessante Fragen werden in neuen Notizen behandelt.
Vielen Dank für das Lesen bis zum Ende.
(Übrigens, gleichzeitig ist es möglich, einen kostengünstigen und effizienten Cluster aus einer Xbox 360 oder PS3 zusammenzustellen, die Prozessoren dort sind ungefähr die gleichen wie bei Power, und Sie können mehr als eine Set-Top-Box kaufen eine Million.)
Davon ausgehend zeigen wir preislich interessante Optionen zum Aufbau eines leistungsfähigen Systems auf. Natürlich muss es Multiprozessor sein. Intel verwendet für solche Aufgaben Xeon-Prozessoren, während AMD Opteron-Prozessoren verwendet.
Damit acht Prozessoren in das Gehäuse passen, werden diese nicht gleich aufgesetzt Hauptplatine, sondern auf separaten Platinen, die in die Hauptplatine gesteckt werden. Das Foto zeigt vier Platinen mit auf der Hauptplatine installierten Prozessoren (jeweils zwei). Dies ist eine Supermicro-Lösung. Bei der HP-Lösung hat jeder Prozessor seine eigene Platine. Die Kosten der HP-Lösung belaufen sich auf zwei bis drei Millionen, je nach Auslastung von Prozessoren, Speicher und anderem. Das Chassis von Supermicro kostet 10.000 US-Dollar, was attraktiver ist. Darüber hinaus kann Supermicro vier Coprozessor-Erweiterungskarten in PCI-Express-x16-Ports stecken (übrigens wird noch Platz für einen Infiniband-Adapter sein, um daraus einen Cluster zusammenzustellen), und HP hat nur zwei. Daher ist die Acht-Prozessor-Plattform von Supermicro attraktiver für die Entwicklung eines Supercomputers. Das folgende Foto aus der Ausstellung zeigt eine Supercomputer-Baugruppe mit vier GPU-Platinen.
Wählen spezifisches Modell, habe ich eine Tabelle zusammengestellt, in der ich den Preis / (Anzahl der Kerne * Frequenz) für jeden Prozessor berechnet habe. Ich habe Prozessoren unter 2 GHz von der Berechnung ausgeschlossen und für Intel - mit einem Bus unter 6,4 GT / s.
Modell |
Zahl der Kerne |
Frequenz |
Preis, $ |
Preis/Kern, $ |
Preis/Kern/GHz |
AMD |
|||||
6386 SE |
16 |
2,8 |
1392 |
87 |
31 |
6380 |
16 |
2,5 |
1088 |
68 |
27 |
6378 |
16 |
2,4 |
867 |
54 |
23 |
6376 |
16 |
2,3 |
703 |
44 |
19 |
6348 |
12 |
2,8 |
575 |
48 |
17 |
6344
|
12 |
2,6 |
415 |
35 |
13 |
6328 |
8 |
3,2 |
575 |
72 |
22 |
6320 |
8 |
2,8 |
293 |
37 |
13 |
INTEL |
|||||
E5-2690 |
8 |
2,9 |
2057 |
257 |
89 |
E5-2680 |
8 |
2,7 |
1723 |
215 |
80 |
E5-2670 |
8 |
2,6 |
1552 |
194 |
75 |
E5-2665 |
8 |
2,4 |
1440 |
180 |
75 |
E5-2660 |
8 |
2,2 |
1329 |
166 |
76 |
E5-2650 |
8 |
2 |
1107 |
138 |
69 |
E5-2687W |
8 |
3,1 |
1885 |
236 |
76 |
E5-4650L |
8 |
2,6 |
3616 |
452 |
174 |
E5-4650 |
8 |
2,7 |
3616 |
452 |
167 |
E5-4640 |
8 |
2,4 |
2725 |
341 |
142 |
E5-4617 |
6 |
2,9 |
1611 |
269 |
93 |
E5-4610 |
6 |
2,4 |
1219 |
203 |
85 |
E5-2640 |
6 |
2,5 |
885 |
148 |
59 |
E5-2630
|
6 |
2,3 |
612 |
102 |
44 |
E5-2667 |
6 |
2,9 |
1552 |
259 |
89 |
X5690 |
6 |
3,46 |
1663 |
277 |
80 |
X5680 |
6 |
3,33 |
1663 |
277 |
83 |
X5675 |
6 |
3,06 |
1440 |
240 |
78 |
X5670 |
6 |
2,93 |
1440 |
240 |
82 |
X5660 |
6 |
2,8 |
1219 |
203 |
73 |
X5650 |
6 |
2,66 |
996 |
166 |
62 |
E5-4607 |
6 |
2,2 |
885 |
148 |
67 |
X5687 |
4 |
3,6 |
1663 |
416 |
115 |
X5677 |
4 |
3,46 |
1663 |
416 |
120 |
X5672 |
4 |
3,2 |
1440 |
360 |
113 |
X5667 |
4 |
3,06 |
1440 |
360 |
118 |
E5-2643 |
4 |
3,3 |
885 |
221 |
67 |
Daher ist meine Wahl der Prozessoren für einen Supercomputer Opteron 6386 SE, Opteron 6344, Xeon E5-2687W und Xeon E5-2630.
Ein solches System würde ohne GPU mindestens 5.000 US-Dollar kosten.
Supermicro X9DRG-QF - dieses Board wurde speziell für den Bau von Hochleistungssystemen entwickelt.
Ein Merkmal solcher Coprozessoren ist das Vorhandensein einer großen Menge an RAM an Bord, schnelle Berechnungen mit doppelter Genauigkeit und Energieeffizienz.
FP32, TFlops | FP64, TFlops | Preis | Speicher, GB | |
Nvidia Tesla K20X | 3.95 | 1.31 | 5.5 | 6 |
AMD FirePro S10000 | 5.91 | 1.48 | 3.6 | 6 |
Intel Xeon Phi 5110P | 1 | 2.7 | 8 | |
Nvidia GTX Titan | 4.5 | 1.3 | 1.1 | 6 |
NVIDIA GTX 680 | 3 | 0.13 | 0.5 | 2 |
AMD HD 7970 GHz-Edition | 4 | 1 | 0.5 | 3 |
AMD HD 7990 Devil 13 | 2x3,7 | 2x0,92 | 1.6 | 2x3 |
Die Lösung von Intel - Xeon Phi 5110P ist interessant, da alle Kerne im Coprozessor auf der x86-Architektur basieren und keine spezielle Codeoptimierung erforderlich ist, um die Berechnungen zu starten. Aber mein Lieblings-Coprozessor ist die relativ günstige AMD HD 7970 GHz Edition. Theoretisch wird diese Grafikkarte die maximale Leistung pro Preis zeigen.
Benutzen als Netzwerkschnittstelle um rechner anzubinden, ist herkömmliches gigabit-ethernet zu langsam. Für diese Zwecke wird am häufigsten Infiniband verwendet. Der Infiniband-Hostadapter ist im Vergleich zum Server kostengünstig. Beispielsweise werden solche Adapter bei der internationalen Ebay-Auktion zu einem Preis von 40 $ verkauft. Beispielsweise kostet die Lieferung eines X4-DDR-Adapters (20 Gb/s) nach Russland etwa 100 US-Dollar.
Gleichzeitig ist die Schaltausrüstung für Infiniband ziemlich teuer. Ja, und wie oben erwähnt, der klassische Stern als Topologie Computernetzwerk- nicht die beste Wahl.
InfiniBand-Hosts können jedoch ohne Switch direkt miteinander verbunden werden. Dann wird zum Beispiel diese Option sehr interessant: ein Cluster aus zwei Computern, die über Infiniband verbunden sind. Ein solcher Supercomputer kann zu Hause zusammengebaut werden.
Bei Tianhe-1A, einem chinesischen Supercomputer auf Basis von Xeons, ist das Verhältnis wie folgt. Zwei Sechs-Kern-Prozessoren für eine Nvidia M2050-Grafikkarte (schwächer als K20X).
Wir werden eine solche Einstellung für unsere Baugruppen als optimal (weil billiger) annehmen. Das heißt, 12-16 Prozessorkerne pro GPU. In der folgenden Tabelle sind praktisch mögliche Optionen fett markiert, die aus meiner Sicht erfolgreichsten unterstrichen.
Grafikkarte | Kerne | 6-Kern-CPU | 8-Kern-CPU | 12-Kern-CPU | 16-Kern-CPU | |||||
2 | 24 | 32 | 4
|
5 |
3
|
4
|
2
|
3
|
2
|
2
|
3 | 36 | 48 | 6 |
8 |
5 |
6 |
3
|
4
|
2
|
3
|
4 | 48 | 64 | 8 |
11 |
6 |
8 |
4
|
5 |
3
|
4
|
Hauptplatine | Supermikro H8QGL-6F | 1 | 1200 | 1200 |
Zentralprozessor | AMD Opteron 6344 | 4 | 500 | 2000 |
CPU-Kühler | Thermaltake CLS0017 | 4 | 40 | 160 |
Fahrgestell 1400W | SC748TQ-R1400B | 1 | 1000 | 1000 |
Grafikbeschleuniger | AMD HD 7970 GHz-Edition | 3 | 500 | 1500 |
5860 |
Menge | Preis | Summe | ||
Hauptplatine | TYAN S8232 | 1 | 790 | 790 |
Zentralprozessor | AMD Opteron 6282SE | 2 | 1000 | 2000 |
CPU-Kühler | Noctua NH-U12DO A3 | 2 | 60 | 120 |
Rahmen | Antec Zwölfhundert Schwarz | 1 | 200 | 200 |
Netzteil | FSP AURUMPRO 1200W | 2 | 200 | 400 |
Grafikbeschleuniger | AMD HD 7970 GHz-Edition | 2 | 500 | 1000 |
Grafikbeschleuniger | AX79906GBD5-A2DHJ | 1 | 1000 | 1000 |
Infiniband-Adapter | X4 DDR Infiniband | 1 | 140 | 140 |
Infiniband-Kabel | X4 DDR Infiniband | 1 | 30 | 30 |
5680 (für einen Block) |
Dieser Artikel zeigt Ihnen, wie Sie einen Server 2012-Failovercluster mit zwei Knoten erstellen. Ich werde zunächst die Voraussetzungen auflisten und einen Überblick über die Hardware-, Netzwerk- und Speichereinstellungen geben. Anschließend wird detailliert beschrieben, wie Sie Server 2012 mit Failover-Clustering-Funktionen erweitern und den Failover-Cluster-Manager verwenden, um einen Zwei-Knoten-Cluster einzurichten.
Es gibt so viele neue Funktionen in Windows Server 2012, dass es schwierig ist, den Überblick zu behalten. Einige der wichtigsten Bausteine einer neuen IT-Infrastruktur beziehen sich auf Verbesserungen beim Failover-Clustering. Failover-Clustering entstand als Technologie zum Schutz kritischer Anwendungen, die für Geschäftsvorgänge wie Microsoft erforderlich sind SQL Server und Microsoft Exchange. In der Folge hat sich das Failover-Clustering jedoch zu einer Hochverfügbarkeitsplattform für eine Reihe von Diensten und Diensten entwickelt Windows-Anwendungen. Failover-Clustering ist Teil der Grundlage von Dynamic Datacenter und Technologien wie Live-Migration. Mit Server 2012 und neuen Verbesserungen Protokollserver Message Block (SMB) 3.0 begann der Umfang des Failover-Clusterings zu steigen und sorgte für kontinuierlich verfügbare Dateifreigaben öffentlicher Zugang. Eine Übersicht über die Failover-Clustering-Funktionalität in Server 2012 finden Sie unter What's New in Windows Server 2012 Failover Clustering, veröffentlicht in derselben Ausgabe.
Zum Erstellen eines Server 2012-Failoverclusters mit zwei Knoten sind zwei Computer erforderlich, auf denen Server 2012 Datacenter oder Standard Editionen ausgeführt werden. Dies können physische Computer oder virtuelle Maschinen sein. Virtuelle Knotencluster können mit erstellt werden Hilfe von Microsoft Hyper-V oder VMware vSphere. Dieser Artikel verwendet zwei physische Server, aber die Clusterkonfigurationsschritte für physische und virtuelle Knoten sind identisch. Hauptmerkmale besteht darin, dass die Knoten gleich konfiguriert sein müssen, damit der Standby-Knoten Arbeitslasten im Falle eines Failover oder einer Live-Migration ausführen kann. Die im Server 2012-Testfailovercluster verwendeten Komponenten sind in der Abbildung dargestellt.
Ein Server 2012-Failovercluster erfordert gemeinsam genutzten Speicher vom Typ iSCSI, Serially Attached SCSI oder Fibre Channel SAN. In unserem Beispiel wird iSCSI SAN verwendet. Beachten Sie die folgenden Merkmale von Speichern dieses Typs.
Weitere Informationen zum Konfigurieren von iSCSI-Speicher für einen Failover-Cluster finden Sie in der Seitenleiste „iSCSI-Speicherkonfigurationsbeispiel“. Weitere Informationen zu den Anforderungen für das Failover-Clustering finden Sie unter Hardwareanforderungen und Speicheroptionen für das Failover-Clustering (http://technet.microsoft.com/en-us/library/jj612869.aspx).
Der erste Schritt zum Erstellen eines Server 2012-Failoverclusters mit zwei Knoten besteht darin, das Failoverclusterfeature mithilfe des Server-Managers hinzuzufügen. Der Server-Manager wird automatisch geöffnet, wenn Sie sich bei Server 2012 anmelden. Um eine Failover-Cluster-Funktion hinzuzufügen, wählen Sie Lokaler Server aus und scrollen Sie nach unten zum Abschnitt ROLLEN UND FUNKTIONEN. Wählen Sie in der Dropdown-Liste AUFGABEN die Option Rollen und Features hinzufügen aus, wie in Abbildung 1 dargestellt. Dadurch wird der Assistent zum Hinzufügen von Rollen und Features gestartet.
Die erste Seite, die beim Ausführen des Assistenten geöffnet wird, ist die Begrüßungsseite Bevor Sie beginnen. Klicken Sie auf die Schaltfläche Weiter, um zur Auswahlseite für den Installationstyp zu gelangen, auf der Sie gefragt werden, ob Sie die Komponente auf einem lokalen Computer oder in einem Dienst installieren möchten Remotedesktop. Wählen Sie für dieses Beispiel die Option Rollenbasierte oder funktionsbasierte Installation und klicken Sie auf Weiter.
Wählen Sie auf der Seite Zielserver auswählen den Server aus, auf dem Sie die Failover-Clustering-Features installieren möchten. In meinem Fall ist es lokaler Server namens WS2012-N1. Klicken Sie bei ausgewähltem lokalen Server auf Weiter, um mit der Seite Serverrollen auswählen fortzufahren. In diesem Beispiel ist die Serverrolle nicht installiert, also klicken Sie auf Weiter. Oder Sie können im linken Menü auf den Link Funktionen klicken.
Scrollen Sie auf der Seite Features auswählen in der Liste der Features nach unten zu Failoverclustering. Klicken Sie in das Feld vor Failover-Clustering und Sie sehen ein Dialogfeld, in dem die verschiedenen Komponenten aufgeführt sind, die als Teil dieser Komponente installiert werden. Wie Abbildung 2 zeigt, installiert der Assistent standardmäßig die Failovercluster-Verwaltungstools und das Failovercluster-Modul für Windows PowerShell. Klicken Sie auf die Schaltfläche „Features hinzufügen“, um zur Seite „Feature Selection“ zurückzukehren. Weiter klicken.
Auf der Seite Installationsauswahl bestätigen wird die Failover-Clustering-Funktion zusammen mit den Verwaltungstools und dem PowerShell-Modul angezeigt. Von dieser Seite aus können Sie zurückkehren und Änderungen vornehmen. Wenn Sie auf die Schaltfläche Installieren klicken, beginnt die eigentliche Installation der Komponenten. Sobald die Installation abgeschlossen ist, wird der Assistent abgeschlossen und die Failover-Clustering-Funktion wird unter ROLLEN UND FUNKTIONEN im Server-Manager angezeigt. Dieser Vorgang muss auf beiden Knoten abgeschlossen werden.
Der nächste Schritt nach dem Hinzufügen der Failover-Clustering-Funktion besteht darin, die Einstellungen der Umgebung zu überprüfen, in der der Cluster erstellt wurde. Hier können Sie den Assistenten zum Überprüfen der Einstellungen im Failovercluster-Manager verwenden. Dieser Assistent überprüft die Hardwareparameter und Software aller Knoten im Cluster und meldet alle Probleme, die die Organisation des Clusters beeinträchtigen könnten.
Um den Failovercluster-Manager zu öffnen, wählen Sie die Option Failovercluster-Manager im Menü Extras im Server-Manager aus. Klicken Sie im Verwaltungsbereich auf den Link Validate Configuration (siehe Abbildung 3), um den Validate Configuration Wizard zu starten.
|
Abbildung 3: Ausführen des Configuration Check Wizard |
Zuerst wird die Begrüßungsseite des Assistenten angezeigt. Klicken Sie auf die Schaltfläche Weiter, um mit der Seite Serverauswahl oder Cluster fortzufahren. Geben Sie auf dieser Seite die Knotennamen des Clusters ein, den Sie testen möchten. Ich habe WS2012-N1 und WS2012-N2 angegeben. Klicken Sie auf die Schaltfläche Weiter, um die Seite Testoptionen anzuzeigen, auf der Sie bestimmte Testsuiten auswählen oder alle Tests ausführen können. Zumindest beim ersten Mal empfehle ich, alle Tests durchzuführen. Klicken Sie auf die Schaltfläche Weiter, um zur Bestätigungsseite zu gelangen, auf der die laufenden Tests angezeigt werden. Klicken Sie auf die Schaltfläche Weiter, um den Cluster-Testprozess zu starten. Beim Testen wird die Version überprüft Betriebssystem, Netzwerk- und Speichereinstellungen aller Clusterknoten. Nach Abschluss des Tests wird eine Zusammenfassung der Ergebnisse angezeigt.
Wenn die Validierungstests erfolgreich sind, können Sie einen Cluster erstellen. Abbildung 4 zeigt den Zusammenfassungsbildschirm für einen erfolgreich validierten Cluster. Werden bei der Prüfung Fehler gefunden, wird der Bericht markiert gelbes Dreieck(Warnungen) oder ein rotes „X“ für schwerwiegende Fehler. Warnungen sollten gelesen werden, können aber ignoriert werden. Schwerwiegende Fehler müssen behoben werden, bevor der Cluster erstellt werden kann.
Als Ergebnis wird der Cluster-Erstellungs-Assistent gestartet, beginnend mit der Willkommensseite. Klicken Sie auf Weiter, um zur in Abbildung 6 gezeigten Serverauswahlseite zu wechseln. Geben Sie auf dieser Seite die Namen aller Knoten im Cluster ein und klicken Sie dann auf Weiter.
Auf der Seite Zugriffspunkt für die Verwaltung des Clusters müssen Sie den Namen und die IP-Adresse des Clusters angeben, die im Netzwerk eindeutig sein müssen. Abbildung 7 zeigt, dass mein Clustername WS2012-CL01 und die IP-Adresse 192.168.100.200 lautet. Bei Verwendung von Server 2012 kann die Cluster-IP-Adresse per DHCP zugewiesen werden, aber ich bevorzuge eine statisch zugewiesene IP-Adresse für meine Server.
Klicken Sie nach Eingabe des Namens und der IP-Adresse auf die Schaltfläche Weiter, um die Bestätigungsseite anzuzeigen (Bildschirm 8). Auf dieser Seite können Sie die Einstellungen überprüfen, die Sie beim Erstellen des Clusters vorgenommen haben. Sie können zurückgehen und bei Bedarf Änderungen vornehmen.
Nachdem Sie auf der Bestätigungsseite auf die Schaltfläche Weiter geklickt haben, wird auf allen ausgewählten Knoten ein Cluster gebildet. Die Fortschrittsseite zeigt die Schritte des Assistenten beim Erstellen eines neuen Clusters. Nach Abschluss zeigt der Assistent eine Zusammenfassungsseite mit den Einstellungen für den neuen Cluster an.
Der Assistent für neue Cluster wählt automatisch den Speicher für das Quorum aus, aber häufig wählt er nicht die Quorum-Festplatte aus, die der Administrator möchte. Um zu überprüfen, welcher Datenträger für das Quorum verwendet wird, öffnen Sie den Failovercluster-Manager und erweitern Sie den Cluster. Öffnen Sie dann den Knoten Storage und klicken Sie auf den Knoten Disks. Die im Cluster verfügbaren Festplatten werden im Bereich „Festplatten“ angezeigt. Die vom Assistenten für das Cluster-Quorum ausgewählte Festplatte wird unter Disk Witness in Quorum aufgeführt.
In diesem Beispiel wurde für das Quorum Cluster Disk 4 verwendet, dessen Größe mit 520 MB etwas größer ist als der Mindestwert für ein Quorum von 512 MB. Wenn Sie einen anderen Datenträger für das Cluster-Quorum verwenden möchten, können Sie die Cluster-Einstellungen ändern, indem Sie im Failovercluster-Manager mit der rechten Maustaste auf den Cluster-Namen klicken, Weitere Aktionen auswählen und Cluster-Quorum-Einstellungen konfigurieren auswählen. Dadurch wird der Assistent zum Auswählen des Quorums angezeigt, mit dem Sie die Cluster-Quorum-Einstellungen ändern können.
Beide Knoten in meinem Cluster haben die Hyper-V-Rolle, da der Cluster für hochverfügbare virtuelle Maschinen für die Live-Migration ausgelegt ist. Um die Live-Migration zu vereinfachen, besteht der nächste Schritt darin, Cluster Shared Volumes (CSV) zu konfigurieren. Im Gegensatz zu Server 2008 R2 sind freigegebene Clustervolumes in Server 2012 standardmäßig aktiviert. Sie müssen jedoch noch angeben, welcher Speicher für Cluster Shared Volumes verwendet werden soll. Um CSV auf einem verfügbaren Datenträger zu aktivieren, erweitern Sie den Speicherknoten und wählen Sie den Knoten Datenträger aus. Wählen Sie dann den Clusterdatenträger aus, den Sie als CSV-Datei verwenden möchten, und klicken Sie im Bereich „Aktionen“ des Failovercluster-Managers auf den Link „Zu freigegebenen Clustervolumes hinzufügen“ (Abbildung 9). Das Feld „Assigned To“ dieses Clusterdatenträgers ändert sich von „Available Storage“ zu „Cluster Shared Volume“, wie in Abbildung 9 gezeigt.
Zu diesem Zeitpunkt konfiguriert der Failovercluster-Manager den Cluster-Datenträgerspeicher für CSV, indem er insbesondere einen Bereitstellungspunkt hinzufügt Systemlaufwerk. In diesem Beispiel werden freigegebene Clustervolumes sowohl auf Cluster-Datenträger 1 als auch auf Cluster-Datenträger 3 aktiviert, indem die folgenden Bereitstellungspunkte hinzugefügt werden:
* C:ClusterStorageVolume1 *C:ClusterStorageVolume2
Zu diesem Zeitpunkt wurde ein Server 2012-Cluster mit zwei Knoten erstellt und freigegebene Clustervolumes aktiviert. Anschließend können Sie geclusterte Anwendungen installieren oder dem Cluster Rollen hinzufügen. In diesem Fall wurde der Cluster für die Virtualisierung erstellt, also fügen wir dem Cluster die Rolle der virtuellen Maschine hinzu.
Um eine neue Rolle hinzuzufügen, wählen Sie den Clusternamen im Navigationsbereich des Failovercluster-Managers aus und klicken Sie im Bereich Aktionen auf den Link Rollen konfigurieren, um den Assistenten für hohe Verfügbarkeit zu starten. Klicken Sie auf der Willkommensseite auf die Schaltfläche Weiter, um zur Rollenauswahlseite zu gelangen. Scrollen Sie durch die Liste der Rollen, bis Sie die Rolle der virtuellen Maschine sehen, wie in Abbildung 10. Wählen Sie die Rolle aus und klicken Sie auf Weiter.
Auf der VM-Auswahlseite werden alle VMs auf allen Cluster-Knoten aufgelistet, wie in Abbildung 11 gezeigt. Scrollen Sie durch die Liste und wählen Sie die VMs aus, die hochverfügbar sein sollen. Klicken Sie auf die Schaltfläche Weiter. Nachdem Sie Ihre Auswahl bestätigt haben, klicken Sie auf Weiter, um die Rollen der virtuellen Maschine zum Failovercluster-Manager hinzuzufügen.
Für Ausfallsicherheit Windows-Cluster Server 2012 erfordert gemeinsam genutzten Speicher, der iSCSI, Serially Attached SCSI oder Fibre Channel SAN sein kann. Dieser Failovercluster verwendet ein Kanal-SAN.
Zuerst wurden drei LUNs auf dem iSCSI-SAN erstellt. Eine LUN wurde für den Quorum-Datenträger des Clusters (520 MB) erstellt. Die andere LUN ist für 10 VMs und hat eine Größe von 375 GB. Die dritte LUN ist einer kleinen Test-VM gewidmet. Alle drei LUNs sind im NTFS-Format.
Nachdem die LUNs erstellt wurden, wurde der iSCSI-Initiator auf beiden Knoten von Server 2012 konfiguriert.Um iSCSI-Ziele hinzuzufügen, wurde der iSCSI-Initiator aus dem Menü „Extras“ im Server-Manager ausgewählt. Auf der Registerkarte Discovery habe ich auf die Schaltfläche Discover Portal geklickt. Als Ergebnis erschien das Dialogfeld Discover Portal, in dem die IP-Adresse (192.168.0.1) und der iSCSI-Port (3260) des SAN eingegeben wurden.
Dann ging ich zur Registerkarte Ziele und klickte auf die Schaltfläche Verbinden. Im Dialogfeld „Mit Ziel verbinden“ habe ich den Namen des iSCSI-SAN-Ziels eingegeben. Es wurde aus den Eigenschaften des SAN erhalten. Der Name hängt vom SAN-Anbieter, dem Domänennamen und den Namen der erstellten LUNs ab. Zusätzlich zum Zielnamen habe ich den Modus so eingestellt, dass er diese Verbindung zur Liste der bevorzugten Ziele hinzufügt.
Nachdem die iSCSI-Einrichtung abgeschlossen war, wurden diese LUNs auf der Registerkarte „Ziele“ des iSCSI-Initiators angezeigt. Um LUNs beim Start von Server 2012 automatisch bereitzustellen, habe ich dafür gesorgt, dass sie auf der Registerkarte „Favorite Targets“ aufgelistet sind, wie Abbildung A zeigt.
Bildschirm A. iSCSI-Initiator konfigurieren |
Abschließend wurden den LUNs mit dem Disk-Snap-In Buchstaben zugewiesen Managementkonsole Microsoft-Verwaltung (MMC). Ich habe Q für den Quorum-Datenträger und W für den Datenträger gewählt, der für virtuelle Maschinen und freigegebene Cluster-Volumes (CSV) verwendet wird. Wenn Sie Laufwerksbuchstaben zuweisen, müssen Sie diese zuerst auf demselben Knoten zuweisen. Dann müssen Sie die Festplatten offline schalten und ähnliche Zuweisungen auf dem zweiten Knoten vornehmen. Die Ergebnisse der Laufwerksbuchstabenzuweisung für einen einzelnen Knoten sind in Abbildung B dargestellt. Wenn Sie einen Cluster erstellen, werden die Laufwerke als verfügbarer Speicher angezeigt.