1. Einleitung


Überall, wo Daten entstehen oder verwaltet werden, die für mehrere Personen interessant sind, sei es für Beruf, Information, Bildung oder zur Unterhaltung, kommt es zum Datenaustausch. Die Fälle bei denen die Daten auf ein Speichermedium kopiert werden und durch dritte (Post o.ä.) zugestellt werden, werden immer seltener. Durch das ständig wachsende Internet ist inzwischen nahezu jeder mit jedem vernetzt. Nicht nur im Internet findet man viele verschiedene Arten von Netzen, die man unter 3 Klassen zusammenfassen kann: Local Area Network (LAN), Metropolitan Area Network (MAN) und Wide Area Network (WAN).


1.1 Klassen von Netzwerken


Ein WAN erstreckt sich über mehrere Länder und Kontinente. Das bekannteste WAN ist das Internet. MAN wird häufig als Vernetzung einer Großstadt definiert. Sie sind eher unbekannt und kaum verbreitet und verwenden dieselben Techniken wie LANs. Ein LAN verbindet in der Regel alle Computer einer Firma oder Institution und ist daher meist auf ein Gebäude beschränkt. Das wohl am verbreitetste LAN ist das Ethernet. Es zeichnet sich durch geringe Kosten und Flexibilität aus. Das Ethernet wurde zum Standard erklärt und richtet sich in Hardware, Vernetzung und Protokoll nach der Norm IEEE 802.3


1.2 Entstehung des Namens "Ethernet"


Im 19. Jahrhundert entdeckte Maxwell, daß Licht eine elektromagnetische Welle ist. Da jede bis dahin bekannte Welle einen Wellenträger zur Ausbreitung benötigt, suchten die Physiker den des Lichtes. Luft konnte es nicht sein, weil sich Licht auch im Vakuum ausbreitet. So nahm man an, daß es einen Stoff gibt, der überall (also auch im Vakuum) vorhanden ist und Träger der Welle ist. Diesen Stoff nannte man Äther (Der Begriff Äther kommt ursprünglich aus der griechischen Sagenwelt). Erst durch die Michelson-Morley - Experimente erkannte man, daß Licht keinen Wellenträger benötigt und es somit auch keinen Äther gibt. Als 1973 ein neues Netz entwickelt wurde stellten sich die Entwickler vor, daß das Netz irgendwann einmal alles verbindet und überall ist — sozusagen ein Äther-Netz (engl. Ethernet). Die ersten beiden über Ethernet verbundenden Computer wurden daraufhin auch "Michelson" und "Morley" genannt.


2. Hardware


Will man mehrere Computer durch ein Ethernet verbinden, ergeben sich 3 Möglichkeiten, die sich hauptsächlich durch Kosten, Fehleranfälligkeit, Verbindungslänge und Kabeltyp unterscheiden:



Bei allen 3 Varianten benötigen die Rechner eine Netzwerkkarte (Ethernetkarte). Sie setzt sich aus dem Netzwerkadapter und einem Transceiver zusammen. Diese Karten zeichnen sich hauptsächlich durch ihre Geschwindigkeit aus. Heutiger Stand der Technik sind 10 MBit/s oder 100 MBit/s. Bei letzterem spricht man auch von "Fast Ethernet". Die Verbindungen werden entweder über Koaxialkabel oder durch Twisted Pair (Telefon) - Kabel hergestellt. Eine Besonderheit sämtlicher Ethernetvarianten ist, daß die Position des Servers im Netz unerheblich ist (s. Abb. 2.1 - 2.4).


2.1 Thick Ethernet














Abb. 2.1: Thick Ethernet Segement


Beim Tick Ethernet wird ein 50 Ohm Koaxialkabel verwendet, an dessen Enden sich jeweils ein Terminator in Form eines 50 Ohm Widerstandes befindet. Im Abstand von mindestens 2.5 m werden Transceiver angeschlossen, die jeweils einen Rechner (bzw. dessen Netzwerkadapterkarte) mit dem Ethernet verbinden (s. Abb. 2.1). Wird bei der Vernetzung auf den Einsatz von Routern, Repeatern u.ä. verzichtet, spricht man von einem "Ethernet Segement". Ein solches Segement sollte maximal 500 m lang sein, während die Transceiverkabel (Verbindungskabel zwischen Computer und Transceiver) nicht länger als 50 m sein dürfen.


2.2 Thin Ethernet









Abb. 2.2: Thin Ethernet Segement


Das Thin Ethernet ist die kostengünstigste Variante. Die Transceiver befinden sich "onboard" auf den Netzwerkkarten. Koaxialkabel und Terminatoren sind die gleichen, wie beim Tick Ethernet. An den Stellen, an denen ein Computer angeschlossen werden soll, wird das Koaxialkabel aufgetrennt, und über ein BNC T-Stück wieder verbunden. Die T-Stücke werden in der Regel direkt an die Ethernetkarte angeschlossen (s. Abb. 2.2). Dabei sollte beachtet werden, daß zwischen 2 T-Stücken mindestens 50 cm Kabel liegen und nicht mehr als 30 Rechner an ein Segement angeschlossen werden. Insgesamt sollte ein Thin Ethernet Segement nicht länger als 128 m sein.


2.3 Twisted-Pair Ethernet










Abb. 2.3: Twisted-Pair Ethernet Segement


Das Twisted-Pair Ethernet ist das kostenintensivste Ethernet. Durch den Einsatz von Hubs wird eine Stern-Topologie aufgebaut. An einen Hub können bis zu 8 weitere Computer angeschlossen werden (s. Abb. 2.3). Für die Verbindung wird anstelle des Koaxialkabels ein sogenanntes Twisted-Pair-Patch-Kabel verwendet, das aus 2 oder mehr verdrillten (twisted) Kupferdrahtpaaren besteht und mit RJ45 Steckern (RJ45 Stecker sind jene, die von ISDN-Geräten bekannt sind) abschließt. Deshalb muß darauf geachtet werden, daß die Netzwerkkarten entsprechende Buchsen haben. Die Anzahl der benötigten Drahtpaare richtet sich nach dem verwendeten Transceiver. Die einzelnen Kabel sollten sich in einer Ummantelung befinden und in ihr verdrillt sein, da parallel zu einander laufende Kabel wie Antennen wirken und somit störanfälliger sind. Für Twisted-Pair Verbindungen verwendet man sogenannte "T4 -" oder "X - Transceiver" (TX oder bei der Verwendung von Glasfaserkabeln FX) (s. Kap. 4). Die Stern-Topologie hat den Vorteil, daß beim Ausfall einer Netzwerkkarte die Verbindung zwischen den übrigen 7 Computern nicht unterbrochen wird. Die Patchkabel können eine Länge von bis zu 100 m haben.

2.4 Kombinationsmöglichkeiten und Varianten


Grundsätzlich können alle Arten des Ethernets miteinander kombiniert werden. So wird z.B. häufig ein Hub über ein BNC T-Stück an ein Thin Ethernet angeschlossen. Auch Rechner, die lediglich über eine Netzwerkkarte für das klassische Thick Ethernet verfügen, können problemlos mittels Transceiver an ein Thin Ethernet angeschlossen werden (s. Abb. 2.4). Ist die maximale Anzahl an Rechnern, oder die Höchstlänge eines Ethernet Segements erreicht, kann man 2 Segemente durch den Einsatz von Repeatern verbinden. Ein Repeater arbeitet auf Bit-Ebene: Er empfängt die einzelnen Bits, verstärkt sie und sendet sie weiter. Nach außen sehen die so verbundenen Segemente wie ein einziges logisches Netzwerk aus, da ein Repeater wie ein ideales Kabel (mit einer geringen Verzögerung) wirkt.

Durch den Einsatz von Lichtwellenleitern (Glasfaserkabeln) können auch bis zu 4 km entfernte Rechner miteinander vernetzt werden.


















Abb. 2.4: Kombination verschiedener Ethernetvarianten


3 Das Protokoll und Datenformat von Ethernet


Das Protokoll, welches vom Ethernet verwendet wird, ist ein sogenanntes "1-persistent CSMA/CD" - Protokoll. CSMA/CD ist aus CSMA entstanden, welches seinen Ursprung im ALOHA - Protokoll hat. Aufgrund des einfacheren Verständnis werden im folgenden alle 3 Protokolle beschrieben.


3.1 Das ALOHA - Protokoll


Das ALOHA - Protokoll wurde 1970 an der Universität von Hawaii entwickelt. Grundlage ist hierbei ein Netzwerk, bei dem alle Stationen an einen einzigen Kanal angeschlossen sind. Bei dieser Architektur treten Probleme immer dann auf, wenn 2 oder mehrere Stationen gleichzeitig senden wollen. Bei ALOHA wird das Problem sehr einfach gelöst. Jeder Kommunikationsteilnehmer sendet sofort, wenn er Daten zu senden hat. Sendet gerade ein anderer, so kommt es zur Kollision der Datenpakete (Datenpakete werden häufig auch Rahmen genannt). Diese Kollision wird an den Transceivern erkannt, die daraufhin den Rest der Rahmen abschneiden, die Rahmen also regelrecht "verstümmeln". Die sendende Hardware beschreibt den Kanal, hört ihn aber auch gleichzeitig ab, wodurch eine Kollision erkannt wird. Nach erkannter Kollision wird eine Zufallszeit gewartet bevor erneut gesendet wird. Die Wartezeit muß zufällig sein, da es ansonsten zur erneuten Kollision mit demselben Konkurrenten kommt. Dabei muß selbstverständlich darauf geachtet werden, daß jede Station einen anderen Zufallszahlengenarationsalgorithmus bzw. einen anderen Startwert verwendet. So einfach das Verfahren der Kanalzuteilung ist, so ineffizient ist es: Wenn jeder Teilnehmer ohne Rücksicht auf andere sendet, kommen Kollisionen sehr häufig vor. Der Vorteil von ALOHA ist, daß die Kanalzuteilung nicht zentral gesteuert werden muß.

Eine Verdoppelung der Kapazität dieses "pure ALOHA" (reines ALOHA) wurde durch das "slottet ALOHA" (unterteiltes ALOHA) erreicht1. Dabei wird die Zeit in Slots (Intervalle) aufgeteilt. Jeder Slot ist lang genug, daß ein Rahmen von fester Länge übertragen werden kann. Eine sendewillige Station darf nun nur noch zu Beginn eines Slots senden. Dadurch ergeben sich zwar weniger Kollisionen, jedoch wirft diese Methode das Problem der Synchronisation in Rechnernetzen auf.


3.2 Das CSMA - Protokoll


CSMA steht für "Carrier Sense Multiple Access" (Trägererkennung mit Vielfachzugriff). Vielfachzugriff bedeutet, daß mehrere Computer auf den Kanal zugreifen können. Protokolle mit Trägererkennung hören den Träger (das Kabel) ab und erkennen dadurch, ob er gerade besetzt ist. Erkennt beim CSMA - Protokoll ein Rechner, daß der Kanal belegt ist, so fängt er (im Gegensatz zum ALOHA - Protokoll) nicht sofort an zu senden, sondern wartet solange, bis er frei ist, sendet dann allerdings sofort. Hierbei gibt es noch 2 Möglichkeiten, wie Kollisionen entstehen können:

Wenn Rahmen kollidiert sind, warten die Kommunikationsteilnehmer (wie bei ALOHA) eine Zufallszeit und beginnen von vorne.

Würden sie nicht sofort senden, wenn der Kanal frei ist, dann käme es zu weniger Kollisionen. Aus dieser Überlegung sind das "non-persistent CSMA" - Protokol und das "p-persistent CSMA" - Protokoll (0 < p <= 1) entstanden.

Bei der p-persistenten Variante sendet ein Computer (nach der Erkennung eines freien Kanals) nur mit einer Wahrscheinlichkeit von p. Mit einer Wahrscheinlichkeit von q := 1 - p wartet er auf den nächsten Zeitslot. Für p = 1 erhält man wieder den oben in diesem Kapitel beschriebenen Fall, daß sofort gesendet wird.

Bei nonpersistenem CSMA wartet eine sendewillige Station nicht auf das Ende der gerade stattfindenden Übertragung, sondern überprüft den Kanal in variierenden Zeitintervallen zufälliger Länge. Das hat den Vorteil, daß nicht alle sendewilligen Stationen gleichzeitig einen freien Kanal entdecken, und diejenige, die ihn (zufällig) als erstes entdeckt, für sich in Anspruch nehmen kann.


3.3 Das CSMA/CD - Protokoll


CD bedeutet "Collision Detection" (Kollisionserkennung), was lediglich bedeutet, daß die sendenden Stationen nach einer erkannten Kollision aufhören zu senden. Bei ALOHA und CSMA senden sie auf jeden Fall ihren Rahmen zu Ende, obwohl diese sowieso "verstümmelt" werden.

Auch wenn die verschiedenen CSMA - Varianten (teilweise um ein Vielfaches) effizienter sind als ALOHA, so können immer Kollisionen auftreten. Da weder die Anzahl noch die Zeitpunkte von Kollisionen vorausgesagt werden können, und auch nach einer Kollision nicht sicher ist, ob der nächste Übertragungsversuch erfolgreich verlaufen wird, sind diese Protokolle (und somit auch Ethernet) nicht echtzeitfähig!


3.4 Das Datenformat


Alle Rahmen, die über ein Ethernet versandt werden, haben ein bestimmtes Format. Dabei kann man einen Rahmen in 8 unterschiedliche Blöcke aufteilen (s. Abb. 3.1):




Abb. 3.1: Aufbau eines Rahmens




Die Präambel ist bei jedem Rahmen gleich. Sie besteht aus 7 Bytes, wobei jedes Byte die Bitfolge 10101010 enthält. Das erzeugt eine Schwingung von 10 oder 100 Mhz (je nachdem, welche Ethernetkarten eingesetzt werden), die 28 Perioden andauert (zusammen mit dem Rahmenbegrenzer 31 Perioden, s.u.). Während dieser Zeit synchronisieren sich die Taktgeber des Senders und der Empfängers.

Anschließend wird der Begrenzer gesendet, der aus der Bitfolge 10101011 besteht. Dieser Begrenzer signalisiert den eigentlichen Start des Rahmens. Nachdem jeweils 6 Bytes für Ziel- und Quelladresse gesendet wurden, folgen 2 Bytes, die die Länge des folgenden Datenfeldes angeben. Das Datenfeld hat eine variable Länge und ist 0 bis 1500 Bytes groß (Daraus folgt natürlich, daß die 2 Bytes der Längenangabe keine Zahl, die größer als 1500 ist, darstellen dürfen).

Sobald 2 Rahmen kollidieren, werden sie abgeschnitten (s. Kap. 3.1). Das hat zur Folge, daß häufig nur Bruchteile von Rahmen an den Computern ankommen. Wird für das Datenfeld die (nicht sehr sinnvolle) Länge von 0 Bytes gewählt, gibt es Probleme einen solchen Rahmen von einem "zerstückelten" Rahmen zu unterscheiden. Daher wurde festgelegt, daß jeder gültige Rahmen eine Mindestlänge von 72 Bytes haben muß. Wird diese Länge unterschritten, füllt das Pad-Feld den Rahmen mit bis zu 46 Dummy-Bytes auf.

Abschließend wird eine 4 Bytes große Prüfsumme gebildet, die es dem Empfänger ermöglicht herauszufinden, ob während der Übertragung Bits gekippt sind.



4 Ethernetkarten im OSI-Modell


Das OSI-Modell gehört zu den bekanntesten Netzwerkarchitekturen. Es besteht aus 7 Schichten (s. Abb. 4.1) und regelt den Datenverkehr von der Hardware bis zur Anwendung. Für die Implementierung des Ethernets sind die oberen Schichten (vgl. Tanenbaum, 1992, S. 17ff.) ohne Bedeutung.



Abb. 4.1: Das OSI 7 Schichtenmodell


Zum besseren Verständnis der einzelnen Schichten, kann man sie in sogenannte Sublayer (Teil-/Unterschichten) aufteilen (s. Abb. 4.2). Die unteren Schichten sind auf der Ethernetkarte in Hardware implementiert, wobei der Media-Access-Sublayer ('h' in Abb. 4.2) auf der Adapterkarte, die Teilschichten vom Physical-Coding-Sublayer bis zum Media-Dependant-Interface ('f' - 'b') auf dem Transceiver untergebracht sind. Teilweise steht eine komplette Teilschicht lediglich für ein Kabel oder einen Steckverbinder. So ist z.B. das Media Independant Interface ('g') das Kabel, daß den Netzwerkadapter mit dem Transceiver verbindet (s. Kap. 2.1).

Nicht jeder Transceivertyp implementiert jede Schicht. So realisiert ein T4-Transceiver nur die Physical Coding-, Physical Medium Attachment- und Media Dependant Interface-Sublayer ('f', 'e' und 'b'). In den X-Transceivern kommt zusätzlich noch der Physical Medium Dependant - Sublayer ('d') vor. Auto-Negotiation ('c') ist optional und wird nur von Karten benötigt, die mit verschiedenen Geschwindigkeiten (10 und 100 Mbit/s) arbeiten können.




Abb. 4.2: Aufteilung der unteren OSI-Schichten



4.1 Media Access Control (MAC)


Die MAC-Teilschicht ist die oberste aus dem Schichtenmodell, die sich auf der Karte befindet. Sie implementiert das CSMA/CD - Protokoll (s. Kap. 3). Sie erhält über einen I/O Bus (z.B. PCI oder ISA) die Daten, sowie Empfänger- und Absenderadresse und "baut" daraus die Rahmen zusammen (s. Kap. 3.4). Diese sendet sie über das MII an die Codierungsschicht.


4.2 Media Independant Interface (MII)


Das MII verbindet den Ethernetadapter mit dem Transceiver. Dabei spielt es keine Rolle was für ein Transceivertyp und welcher Kabeltyp (Koax oder Twisted Pair) verwendet wird (daher der Begriff "Independant"). Die MII-Schicht besteht lediglich aus dem MII-Kabel, falls ein externer Transceiver verwendet wird. Ist der Transceiver "onboard", dann befindet sich die MII-Schnittstelle natürlich auf der Ethernetkarte.


4.3 Physical Coding (PCS)


Im Physical Coding Sublayer (PCS), werden die Bits zur späteren Übertragung codiert. Die Codierung hat eine höhere Übertragungsrate und eine effiziente Fehlererkennung zur Folge. Außerdem werden Informationen eingebunden, die es erlauben Sender und Empfänger mit (leicht) unterschiedlichem Takt laufen zu lassen. Durch Codierung können nur bestimmte Muster gesendet werden, so daß praktisch jeder durch Störungen verursache Fehler von der Empfänger-PCS-Schicht erkannt wird. Dadurch, daß bereits hier die Fehlererkennung behandelt wird, wird die MAC-Teilschicht entlastet. Je nach Netzwerktyp treten im Ethernet 3 verschiedene Codierungen auf. Da sich die Codierer auf dem Transceiver befinden, sieht man, daß man lediglich den Transceiver (und nicht den Netzwerkadapter) austauschen muß, wenn man den Netzwerktyp ändert. Die Codierungsarten sind:



4.3.1 Manchestercodierung


Diese Codierung wird bei Thick- und Thin- Ethernet verwendet. Hier entspricht ein Übergang, in der Mitte eines Bits, von 5 Volt auf 0 Volt einem High, und ein Übergang von 0 Volt auf 5 Volt einem Low. Würde man die herkömmliche Codierung (High: 5 Volt, Low: 0 Volt) verwenden, könnte man zum Einen einen freien Kanal nicht von einer Folge von Nullen unterscheiden, zum Anderen wäre es auch unmöglich eine Kollision zweier 0 Volt - Signale zu erkennen. Ein weiterer Vorteil ist, daß der Empfänger auch bei konstantem Signal problemlos die Anzahl der Empfangenen Bits feststellen kann (Werden 3 Einsen hintereinander empfangen gibt es 3 Übergänge von High auf Low, bei der herkömmlichen Codierung müßte der Empfänger die Anzahl der Bits anhand der Zeit bestimmen) (s. Abb. 4.3).







Abb. 4.3: Manchester-Codierung


4.3.2 8B6T - Codierung


Diese Codierung ist auf den T4 - Transceivern implementiert. Sie benötigt einen Twisted-Pair - Anschluß mit 4 Drahtpaaren. Anstatt alle 4 Verbindungen sowohl für den Empfang als auch zum Senden zu konfigurieren, wird nur eine zum Senden und eine zum Empfangen verwendet. Lediglich die anderen beiden sind bidirektional. Das bedeutet, daß der Sender über 3 Leitungen sendet und eine Leitung abhört. Über diese Leitung erfährt er, ob es zu einer Kollision kam (vgl. Johnson, 1996, S. 117f). Der Empfänger benutzt in dem Moment die beiden bidirektionalen Leitungen zum Empfangen.

Werden Daten übertragen oder (zwischen-) gespeichert, müssen sie nicht immer von binärer Form sein. Darum wird die von der MAC Teilschicht kommende Bitfolge hier in ein ternäres Signal (also mit 3 Zuständen pro Takt) umgewandelt. Es gilt

3^5 = 243 < 2^8 = 256 < 3^6 = 729.

Daher werden bei der ternären Codierung Pakete der Größe 8 zu solchen der Größe 6 verkleinert (8B6T - Codierung) (vgl. Johnson, 1996, S. 118f). Da 3^6 >> 2^8 scheint es, als ob man Kapazität verschenkt; allerdings bewirkt dies, daß nicht jedes Muster ein gültiges ist, wodurch eine sehr gute Fehlererkennung möglich ist.

Jedes 6T-Paket wird auf genau eine der drei Verbindungen gelegt. Es handelt sich also nicht um ein paralleles Senden, da die Pakete ja nacheinander generiert werden. Aufgrund dessen kommen die Pakete beim Empfänger auch nacheinander an. Für diese Art der Übertragung wäre es fatal, wenn die 3 Leitungen unterschiedliche Übertragungszeiten benötigten. Darum sollte man auch keine 4 einzelnen Drahtpaare, sondern nur 4 Paare, die ummantelt sind, verwenden. Nur so kann man sicherstellen, daß die Kabellängen nicht variieren. Trotz solcher Maßnahmen kann man nicht verhindern, daß die Pakete in nicht äquidistanten Zeitabständen beim Empfänger eintreffen. Eine solche Zeitverschiebung wird als "Skew" (Verdrehung) bezeichnet. Um einen Skew zu beheben, gibt es in der nächsten Schicht (PMA) einen "Align" (Begradigungs) - Schaltkreis.


4.3.3 4B5B - Codierung


Diese Codierung findet man auf den X - Transceivern implementiert. Hier werden Pakete von 4 Bit auf 5 Bit Pakete gemappt. Auch hier wird die Redundanz zur Fehlererkennung verwendet. X - Transceiver sind mit Twisted-Pair Kabeln verbunden, die aus nur 2 Unidirektionalen Drahtpaaren bestehen (eins zum Senden und eins zum Empfangen).


4.4 Physical Medium Attachment (PMA)


Diese Teilschicht realisiert folgende Aufgaben:



Die Verbindungsüberprüfung testet automatisch die Verbindung und kann feststellen, ob Drähte unterbrochen sind oder nicht. Jeder Transceiver sendet, in den Lücken zwischen 2 Slots, einen Impuls. Stellt ein Teilnehmer fest, daß er keine solchen Impulse mehr empfängt, folgert er, daß seine Verbindung mit dem Hub unterbrochen ist und schaltet ab. Die Trägererkennung bewirkt, daß ein Transceiver nicht bei jedem beliebigem eintreffenden Signal auf Empfang schaltet. Er reagiert nur, wenn das Signal bestimmte Werte in bestimmter Reihenfolge annimmt. Der Algorithmus zur Trägererkennung ist einfach, aber bewirkt, daß ein Transceiver nicht auf Störungen oder die Signale zur Verbindungsüberprüfung reagiert (vgl. Johnson, 1996, S. 120). Desweiteren befinden sich in der PMA-Schicht Schaltkreise zur Begradiegung von eintreffenden Skews (s. Kap. 4.3.1) und zur Taktabstimmung. Da ein Skew nur auftreten kann, wenn über mehrere Verbindungen gesendet wird, macht diese Eigenschaft nur bei T4 - Transceivern Sinn. Da diese keine PMD - Schicht (s. Kap. 4.5) haben, zählt man bei ihnen die Taktabstimmung zur PMA - Schicht.


4.5 Physical Medium Dependant (PMD)


Bevor die Daten auf den Kanal geschickt werden, müssen sie, als letzten Schritt, in ein analoges Signal moduliert werden. Dies geschieht in der PMD-Teilschicht. Empfängt ein Transceiver ein Signal, so verstärkt er es und demoduliert es in dieser Schicht. Die hohe Übertragungsrate von 100 Mbit/s kommt durch den Einsatz eines Frequenzbandes hoher Bandbreite zu stande. Der De-/Modulierungsvorganges wird ausführlich auf http://grouper.ieee.org/groups/802/3/index.html beschrieben.


4.6 AUTO-NEG, MDI und Medium


Es gibt Transceiver, die mit verschiedenen Geschwindigkeiten arbeiten können (10 Mbit/s oder 100 Mbit/s). Wenn man diese an ein Netzwerk anschließt können sie selbst bestimmen mit welcher Geschwindigkeit sie arbeiten müssen, wenn sie die Auto-Negation-Teilschicht implementiert haben. Auch wenn man einige Rechner von 10 auf 100 Mbit/s aufrüstet, so braucht man die Computer, die mit einer 10/100 AUTO-NEG - Karte ausgestattet sind, nicht umzukonfigurieren.

Das Media Dependant Interface ist lediglich der Stecker zwischen Transceiver und Übertragungskanal. Das MDI ist also entweder eine BNC- oder eine RJ45 Schnittstelle. Ebenso einfach ist die Mediums-Schicht zu beschreiben. Als Medium wird entweder Koax- oder Twisted-Pair-Kabel verwendet.


4.7 Zusammenfassung und Übersicht


Eine Anwendung erzeugt Daten, die über das Netz verschickt werden sollen. Diese werden zusammen mit Quell- und Zieladresse über einen I/O-Bus an den Netzwerkadapter gegeben, dort werden die Rahmen zusammengesetzt und an den Transceiver geschickt. Dieser codiert und moduliert sie, und gibt sie auf das Verbindungsmedium (s. Abb. 4.4). Ein anderer Computer empfängt die an ihn adressierten Daten und arbeitet diese Schritte in umgekehrter Reihenfolge ab.



Abb. 4.4: OSI-Modell und Datenfluß durch die Hardware


5 Ausblick


Momentan wird Hardware am häufigsten genutzt, die 100 Mbit/s übertragen kann. In naher Zukunft werden sich jedoch Gigabit-Ethernets verbreiten. Neben der Übertragungsrate ist für die Geschwindigkeit auch ausschlaggebend, ob die verwendete Hardware Full-Duplex-fähig ist. Wenn beide (!) Enden einer Verbindung (Transceiver und Hub) Full-Duplex-fähig sind, dann bedeutet das, daß jede Station gleichzeitig senden und empfangen kann. Dabei wird dann ein anderes Protokoll als CSMA/CD verwendet, bei dem keine Kollisionen mehr auftreten können. T4 - Transceiver sind z.B. nicht Full-Duplex fähig, da sie von ihren 4 Drahtpaaren nie gleichzeitig 3 zum Senden und 3 zum Empfangen verwenden können.

Einen weiteren Geschwindigkeitsgewinn kann man durch die Verwendung von Glasfaserkabeln und den dazugehörigen FX-Transceivern erreichen. Glasfaserkabel haben nicht nur den Geschwindigkeitsvorteil, sondern sind auch sehr platzsparend. Nachteilig sind die hohen Kosten und die Unflexibilität/Steifheit der Kabel.



Literaturverzeichnis







Gripp T., g. Klappheck, P. Glinsky, F. Gehrke, Linux - Das Buch, 1. Auflage, 1999


Heitlinger, P., K. Brotz, S. Wolf, Novell Band I, 1990



Johnson, Howard W., Fast Ethernet - Dawn Of A New Network, 1996



Tanenbaum, Andrew S., Computer-Netzwerke, 2. Auflage, 1992




1Der genaue Wert '2' des Quotienten aus der Slotted-ALOHA-Kapazität und der Pure-ALOHA-Kapazität ergibt sich nicht experimentell, sondern mathematisch unter verschiedenen Annahmen (z.B., daß neue Rahmen nach einer Poissonverteilung generiert werden). Auf die Herleitung (vgl. Tanenbauch, 1992, S. 145ff.) wird in diesem Dokument verzichtet.

- -