tantalos
Goto Top

Fragen zu Hardware bei Windows Server 2022 HCI Cluster mit S2D

Hallo,

als Neuling im Bereich Cluster habe ich ein paar grundlegende Fragen. Vielleicht könnt Ihr mir helfen.

Es geht um den Aufbau eines Failover-Clusters mit Windows Server 2022 (nicht Azure Stack HCI OS) unter Verwendung von Storage Spaces Direct.

1. Funktioniert so ein Cluster nur mit Server-Hardware, die von Microsoft zertifiziert ist oder braucht es nur bei Azure Stack HCI zertifizierte Hardware?

2. Falls ein derartiger Cluster auch mit nicht-zertifizierter Hardware funktioniert: Bekommt man nur bei Einsatz zertifizierter Hardware im Bedarfsfall Support durch Microsoft?

3. Switches: Müssen es RDMA-fähige sein oder taugen auch "normale", bspw. ein 100G-Switch von Mikrotik: https://mikrotik.com/product/crs504_4xq_in ?

4. Kann man Redundanz beim Switch-Betrieb erreichen, indem man in jeden Node zwei 1 Port-100G NICs verbaut und den Node dann mit beiden Switches verbindet?

5. Wenn man mit 3 oder mehr Nodes arbeitet: Wird der Datenbestand dann lediglich auf allen Nodes gespiegelt, so dass die Speicherkapazität des gesamten Clusters derjenigen eines einzelnen Nodes entspricht? Oder besteht die Möglichkeit für ein Setup, bei dem sich die Speicherkapazität der Nodes (teilweise) addiert?

Vielen Dank und schöne Grüße,

tantalos

Content-Key: 6535244296

Url: https://administrator.de/contentid/6535244296

Printed on: May 3, 2024 at 05:05 o'clock

Member: Th0mKa
Th0mKa Mar 28, 2023 at 04:15:01 (UTC)
Goto Top
Moin,

Zitat von @tantalos:
1. Funktioniert so ein Cluster nur mit Server-Hardware, die von Microsoft zertifiziert ist oder braucht es nur bei Azure Stack HCI zertifizierte Hardware?
Was von Microsoft unterstützt wird steht wie meistens in den Hardwarevoraussetzungen, der Hardwarekatalog ist sehr umfangreich.

2. Falls ein derartiger Cluster auch mit nicht-zertifizierter Hardware funktioniert: Bekommt man nur bei Einsatz zertifizierter Hardware im Bedarfsfall Support durch Microsoft?
Was verstehst du denn unter nicht zertifizierter Hardware?

3. Switches: Müssen es RDMA-fähige sein oder taugen auch "normale", bspw. ein 100G-Switch von Mikrotik: https://mikrotik.com/product/crs504_4xq_in ?
Müssen nein, unter Umständen empfohlen ja, aber auch das steht in den Requierements und hängt von deiner Clustergröße ab.

4. Kann man Redundanz beim Switch-Betrieb erreichen, indem man in jeden Node zwei 1 Port-100G NICs verbaut und den Node dann mit beiden Switches verbindet?
Ja, kann man.

5. Wenn man mit 3 oder mehr Nodes arbeitet: Wird der Datenbestand dann lediglich auf allen Nodes gespiegelt, so dass die Speicherkapazität des gesamten Clusters derjenigen eines einzelnen Nodes entspricht? Oder besteht die Möglichkeit für ein Setup, bei dem sich die Speicherkapazität der Nodes (teilweise) addiert?
Auch hier wird dir in der Doku geholfen.

P.S.: "Sparcluster" sind selten gut.

VG,
Thomas
Member: Mr-Gustav
Mr-Gustav Mar 28, 2023 at 06:07:40 (UTC)
Goto Top
Bedenke das mit RDMA das Replizieren der Einzelnen Blöcke von Platten Set zu Platten Set deutlich schneller
von der hand geht
Mitglied: 2423392070
2423392070 Mar 28, 2023 at 06:22:50 (UTC)
Goto Top
1. Wie stellst Du dir guten Support vor

2. Nein. Durch den OEM oder Händler.

3. Sollten dringend wenigstens RDMA "können". MT ist keine gute Idee.

4. Ja. Das wird auch gar nicht so selten gemacht. Jedoch meist Dual Port.

5. Wenn das deine Sorge ist, dann ist vielleicht das Konzept nicht optimal.
Member: tantalos
tantalos Mar 29, 2023 at 19:43:27 (UTC)
Goto Top
Zitat von @Mr-Gustav:

Bedenke das mit RDMA das Replizieren der Einzelnen Blöcke von Platten Set zu Platten Set deutlich schneller
von der hand geht

Unter https://learn.microsoft.com/en-us/windows-server/storage/storage-spaces/ ... differenziert Microsoft im Abschnitt "Networking" nach Größe des Clusters und schreibt:

Minimum interconnect for small scale 2-3 node

10 Gbps network interface card (NIC), or faster
Two or more network connections from each node recommended for redundancy and performance

Recommended interconnect for high performance, at scale, or deployments of 4+

NICs that are remote-direct memory access (RDMA) capable, iWARP (recommended) or RoCE
Two or more network connections from each node recommended for redundancy and performance
25 Gbps NIC or faster


Ist also davon ausgehen, dass man auch bei einem Cluster mit nur 3 Nodes in praxi einen deutlichen Performanceunterschied zwischen RDMA-fähigen Switches und solchen ohne RDMA feststellen kann?
Member: Th0mKa
Th0mKa Mar 29, 2023 at 19:49:29 (UTC)
Goto Top
Zitat von @tantalos:
Ist also davon ausgehen, dass man auch bei einem Cluster mit nur 3 Nodes in praxi einen deutlichen Performanceunterschied zwischen RDMA-fähigen Switches und solchen ohne RDMA feststellen kann?

Vor allem wirst du ohne RDMA bei einem ausgelasteten 100G Link viele deiner CPU Cores alleine mit dem Netzwerkverkehr beschäftigen.

/Thomas
Mitglied: 2423392070
2423392070 Mar 29, 2023 at 19:52:38 (UTC)
Goto Top
Die CNAs müssen das können. Die Switches wissen nichts davon , was die CNAs können, im engeren Sinne. Deine CNAs werden aber bestimmte Sachen brauchen, dass es läuft. DCB, Flow-Geraffel usw...

Wenn deine Switches den Anforderungen nicht genügen, dann werden sie zur Bremse bzwrs knallt in Form von Bluescreens.

Was willst du denn genau machen? RoCE? iSER?

Grundsätzlich ist dein Gedanke völlig falsch, weil du von Anfang an eine nicht supportete Umgebung baust.

Nichts gegen MT, aber du benötigst richtige Switches.