TCP-Fenster, Gbit-Ethernet < Netzwerke < Praktische Inform. < Hochschule < Informatik < Vorhilfe
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 15:05 Di 05.10.2004 | Autor: | miriam |
Hallo,
ich habe folgendes Problem:
Ein Punkt A ist über eine 10km-lange Gigabit-Ethernetleitung mit einem Punkt B verbunden, Punkt B über eine 100m-lange 10Mbit-Ethernetleitung mit Punkt C.
A------------------------------B-------------C
10km, Gbit 100m, 10Mbit
=> Frage: Wie groß muss das Sendefenster (für TCP) sein, damit man kontinuierlich senden kann?
Folgendes spielt dabei eine Rolle:
- Übertragungsgeschwindigkeit = 2/3 * Lichtgeschwindigkeit = 200.000 km/s
- kontinuierliches Senden mit TCP ist möglich, wenn 2*(Anzahl der auf die Leitung passenden Bits)+1 gesendet werden.
ABER:
Wenn ich 10km/(200000km/s) rechne, bekomme ich 1/20000 s heraus... wie kommt da das Gigabit-Ethernet in Spiel...
Über ein "Vorrechnen" würde ich mich freuen!
Vielen Dank Euch allen!
Gruss
Miriam
|
|
|
|
Also ich hab davon überhaupt keine Ahnung, bin nur Mathe-/Physikstudent.
Aber:
die Übertragung funktioniert doch so, dass der Sender ein Paket schickt und der Empfänger antwortet: 'Ist ok' oder 'Schick's mir noch einmal, Sam'.
Sollte das der Fall sein, dann musst du genug Bits schicken, damit ein Paket so lange 'am Sender' gesendet wird, bis wieder eine Antwort vom Empfänger beim Sender ankommt.
Sollte das stimmen dann muss die Sendedauer des Paketes 2/20000s=0,1ms betragen.
Dann sollte ein Paket 100kBit groß sein (wenn man in Zehnerpotenzen rechnet), exakt: 107374Bit wenn GBit=2^30 Bit
Bei der kurzen 10MBit-Leitung kommt natürlich genau dasselbe raus.
Kann auch sein, dass ich hier vollkommenen Schwachsinn erzählt habe...
|
|
|
|