lionheart
Goto Top

Schlechter Datendurchsatz im LAN in eine Richtung

Hallo Zusammen,

ich stehe gerade vor einem Rätsel und hoffe jemand kann mir eine zündende Idee geben... face-wink

In meinem Netzwerk befinden sich ca. 100 Clients auf 4 Etagen und ca. 20 Server. Auf jeder Etage befinden sich ein HP ProCurve Switches, an denen die Arbeitsplätze angeschlossen sind. Auf diesen Switchen ist kein VLAN konfiguriert, alle befinden sich im Standard VLAN 1. Per 1 Gbit-Uplink werden diese mit einem tp-link Jetstream T3700-52TQ im Hauptverteiler verbunden. Die Etagen-Switche befinden sich auf dem tp-link Switch ebenfalls im Standard VLAN 1. Auf dem tp-link sind port-basierend zusätzlich noch weiter VLANs (z. B. für DMZ) konfiguriert, das hat mit meinem Problem aber eigentlich nichts zu tun - nur der Vollständigkeit halber erwähnt. Aber dieser Switch ist NEU.

An dem T3700 ist per SFTP+ (10Gbit) ein tp-link 10Gbit Switch angeschlossen, mit dem alle Server verbunden sind. Alle Ports, NICs an den Clients und Uplinks zeigen 1Gbit als Übertragungsgeschwindigkeit an. Bei den Servern sind es 10Gbit. Auf den Servern kommt Windows Server 2016 / 2019 zum Einsatz. Teilweise sind die Server mit Hyper-V virtualisiert. Die Clients verwenden alle Windows 10. Soviel zum Grund-Setup, nun zu meinem Problem.

Wenn ich von Client A (2. Etage) eine 20GB Datei auf eine Freigabe auf Client B (1. Etage) kopiere, habe ich einen Datendurchsatz von 110MB/s. Auch via iperf ist das 1Gbit vollständig messbar. Wenn ich nun allerdings die gleiche Datei von Client B (1. Etage) auf Client A kopiere habe ich nur ca. 30-50MB Durchsatz. Gleiches Spiel in Richtung der Server. Senden habe ich immer volle 1Gbit (110MB) und empfangend lediglich 50MB/s - egal von welchem Client. Der Sendende erreicht immer 110MB der Empfangende ca. 50MB. Zwischen den Server auf dem 10Gbit Switch habe ich in jede Richtung einen Durchsatz von 300-800 MB (je nach Speichersystem).

Ich habe nun schon diverse Analysen und Anpassungen an der Switch-Konfig durchgeführt, aber leider bisher noch keine Lösung gefunden. So einen Fall habe ich bisher leider noch nie erlebt. Da alle Switche / Ports konstant 1Gbit anzeigen, kann ich mir die Ursache nicht erklären. Die Firmware wurde an allen Switches bereits auf das letzte Release aktualisiert - ohne Verbesserung. Für die Verkabelung kommen nur Cat 6 / Cat 7 Kabel zum Einsatz.

Hat jemand schon einmal so ein Problem gehabt oder hat eine Idee? Bin gerade für jeden Tipp dankbar.

Grüße,
Lionheart

Content-Key: 622997

Url: https://administrator.de/contentid/622997

Printed on: April 27, 2024 at 23:04 o'clock

Member: em-pie
em-pie Nov 16, 2020 at 21:23:20 (UTC)
Goto Top
Moin,

Könnte es ggf. sein, dass dir die verbauten Speichermedien „einen Streich spielen“

Lesen von einer Disk mit 5.400 upm geht noch einigermaßen, schreiben bremst dann aber massiv das Netzwerkpotenzial aus.
Mit einer SSD im Vergleich ist das 1GBit der limitierende Faktor...

Gruß
em-pie
Member: emeriks
emeriks Nov 17, 2020 at 07:33:26 (UTC)
Goto Top
Hi,
Wie @em-pie schon schreibt: Das vermute ich auch.
Aber das kannst Du ganz einfach testen. Tausche testweise die Clients physisch untereinander aus und lasse Client A vom Port des Client B an den Client B senden, welcher sich dann am Port des Client A befindet. Damit würdest Du die Computer als Störquellen entweder ausschließen oder bestätigen.

E.
Member: aqui
aqui Nov 17, 2020 at 09:01:13 (UTC)
Goto Top
Der Fehler ist, wie oben schon gesagt, mit einem Sharing Protokoll die eigentliche Infrastruktur zu messen. Logischerweise schafft das keinerlei aussagekräftigen Messwerte weil man immer von Server HW abhängig ist.
Wenn man sinnvoll misst sollte man das immer unabhängig machen.
Klassische einfache Tools dafür sind NetIO oder iPerf3
https://web.ars.de/netio/
Damit bekommt man verlässliche Werte für unterschiedliche Paketgrößen die nicht von Servern oder sehr Performance einschränkenden Protokollen wie SMB/CIFS oben abhängig sind.
Eine Messung damit schafft erstmal Durchsatzwerte die unabhängig sind so das man unabhängig beurteilen kann was die Infrastruktur an sich schafft und was abhängig ist von Server HW.
Wie man misst kann man hier nachlesen:
http://www.nwlab.net/art/netio/netio.html
http://www.nwlab.net/art/iperf/

Bei Chinesen Billigswitches wie den obigen sollte man auch seine Erwartungen an Performance nicht allzu hoch schrauben, denn bekanntlich sind die von der internen ASIC Struktur immer mehrfach überbucht um Kosten zu sparen für Kunden die rein Preis orientiert kaufen und sind zusätzlich mit schwachbrüstigen Asics ausgestattet die bei vielen kleinen Paketen unter Last in die Knie gehen. 10G Connection Rate sagt also bei dieser Art Billigsthardware niemals etwas über Forwarding Raten unter Last aus.
Leider ist auch im Thread nicht genau erklärt ob die 10G Verkabelung mit 10G Base T oder mit SFP+ gemacht ist.
10G Base T ist ein Negotiation Verfahren. Hat man nur einen Knick oder einen schlechten Stecker im Patchkabel sinkt die Datenrate. Deshalb ist eine Server Vernetzung eher kontraproduktiv mit 10G Base T und Netzwerk Admins nehmen hier zu Recht immer DAC/Twinax Kabel mit SFP+ Schnittstellen die feste 10G Raten garantieren.
Ansonsten gilt das was oben schon gesagt wurde....