Ich habe einen Ubuntu Server 20.04 laufen. Dieser ist mit einer Quad GBit Nic von SUN ausgestattet. Wenn ich nun diese als bond im round robin betreibe. Habe ich nur die Bandbreite / Anzahl der Nics an Datenübertragungsrate übrig. Sprich: habe ich zwei Nics im Bond sind es 500Mbit habe ich alle vier sind es nur noch 250Mbit. Betreibe ich die Karte einzeln ohne bonding, habe ich die volle GBit zur Verfügung. Woran liegt das? Normalerweise müsste ich doch die 1Gbit immer haben?! Oder habe ich das Prinzip dahinter nicht ganz verstanden?
Was ist denn die Gegenstelle? AFAIR ist RR kein Standard (im Gegensatz zu LACP).
Georg A. schrieb: > Was ist denn die Gegenstelle? AFAIR ist RR kein Standard (im > Gegensatz zu LACP). Gegenstelle ist ein D-Link 1224T. Er ist schon ein älteres Model, LACP bzw 802.3ad beherrscht er leider noch nicht. Bei RR, so dachte ich ja, spielt der Switch keine große Rolle - das selbst ein unmanaged Switch das beherrscht. Ich habe mich dazu entschlossen, bevor ich mehr Zeit in das Problem invenstiere, einen neuen Switch anzuschaffen welcher 802.3ad beherrscht. Kostet nicht die Welt und spart aber Nerven.
Rene K. schrieb: > einen neuen Switch Von der Ausfallwahrscheinlichkeit her legt ein kluger Bauer nie alle Eier in einen Korb.
Das das mit dem "neuen" Switch funktioniert, ist eher ungewiss. Selbst grosse Hersteller bekommen zwischen zwei Switchen kein Bonding/Channel per LACP hin. Einfache Alternative: Nimm 10G (oder besser). Bei Round-Robin fallen vermutlich immer 3 Interface aus der Uebertragung heraus. Daher nur 1/4. Du kannst ja mal ein MAC-basiertes Mapping *) versuchen. Da bleibt dann wenigstens das GBit... *) Sollte auf aufeinanderfolgende Ports des Switches verbinden.
Gretel schrieb: > Das das mit dem "neuen" Switch funktioniert, ist eher ungewiss. > Selbst grosse Hersteller bekommen zwischen zwei Switchen kein > Bonding/Channel per LACP hin. > Einfache Alternative: Nimm 10G (oder besser). Die Verbindung ist nicht Switch <-> Switch sondern Server <-> Switch. 10Gig sind nur eine bedingte Alternative. Hintergrund: Es geht nicht darum möglichst große Datenmengen zu transportieren sondern Daten von mehreren Clients gleichzeitig per smbd entgegenzunehmen. Gretel schrieb: > Bei Round-Robin fallen vermutlich immer 3 Interface aus > der Uebertragung heraus. Daher nur 1/4. > Du kannst ja mal ein MAC-basiertes Mapping *) versuchen. > Da bleibt dann wenigstens das GBit... Ich habe jetzt, an dem betagten Switch, an den jeweiligen Ports trunking aktiviert in einer Trunk-Group. Auch habe ich, wie empfohlen, vier aufeinanderfolgende Ports genommen und nicht nebeneinander (obere Reihe ungerade, untere Gerade) Nun funktioniert das ganze wunderbar, ich kann gleichzeitig von vier Clients mit voller Geschwindigkeit auf den Server schieben und ziehen.
> Die Verbindung ist nicht Switch <-> Switch sondern Server <-> Switch. Das ist eigentlich egal. Beim Server wuerde das LACP dann der Kartentreiber machen muessen. Auch da ist gegenseitiges "Unverstaendnis" nicht ausgeschlossen. > Nun funktioniert das ganze wunderbar, ich kann gleichzeitig von vier > Clients mit voller Geschwindigkeit auf den Server schieben und ziehen. Das ginge mit einem 10G aber auch ;-). Selbst Low-Cost-Karten (Tehuti/Aquantius) schaffen etwa 5 fachen Durchsatz gegenueber 1G. Wenn man regelmaessig mit groesseren Mengen an Daten hantieren muss, ist selbst (Low-Cost-)10G schon angenehm. Beim Trunking/Channeling/Bonding ist halt von Vorteil wenn man das selber schon mal gemacht hat, und die Fallstricke kennt. Funktionieren tut es nur dann hervorragend, wenn die Clients die passenden Adressen/Hash-Merkmale haben. Sonst landet der Traffic immer auf den selben Subinterfacen. Ich betreibe selber u.a. einen HP-Server mit 4 x 1G. Die jetzt dank 10G weitgehend arbeitslos sind.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.