Next: 3 VLANs - Virtuelle
Up: Management von ATM-Netzen und
Previous: 1 Einleitung
Subsections
Folie 7:
Globaler Überblick über ATM
|
ATM ist eine Netztechnologie, die alle oben genannten
Anforderungen erfüllen will. ATM geht insbesondere
von zwei Grundannahmen aus:
- Bandbreite ist durch Glasfaser billig.
Bei ATM werden bewußt erhebliche Overheads in Kauf genommen,
um die oben beschriebenen Anforderungen erfüllen zu können.
- Das Betreiben von mehreren Netzen ist teuer.
In heutigen Netzen ist das Betreiben der Netze (Personal,
etc.) einer der wichtigsten Kostenfaktoren. Die Integration
mehrerer Dienste führt unter dieser Annahme zu erheblichen
Einsparungen.
Diese Überlegungen haben zur Entwicklung von ATM geführt.
ATM hat die oben angegebenen Eckdaten.
Bedeutung für das Management:
- Verwendung von Glasfaser:
ATM verzichtet auf Verbindungsebene (OSI-Schicht 1)
weitgehend auf Fehlerprüfverfahren. Die
Sicherung eines fehlerfreien Datenstromes wird den
höheren Schichten und der Applikation
überlassen. Dieser Verzicht ist möglich,
da die ATM-Normierung von Verbindungsleitungen hoher Güte
(meiste Glasfaser) ausgeht. Die Reduktion von
Fehler-Sicherungsroutinen ermöglicht sehr viel
geringere Verarbeitungszeiten in den Verbindungsknoten.
- Dienstintegration mit QoS-Garantien: da die Telefonie
und die Datenübertragung
zwei recht unterschiedliche Welten (unterschiedliche
Interessenlagen) sind, ist eine
Zusammenarbeit und Standardisierung schwierig.
ATM unterstützt Quality-of-Service-Anforderungen,
was für die Dienstintegration eine wesentliche Voraussetzung
ist.
- Variable Datenraten: die Unterstützung variabler Datenraten
macht die Synchronisation mit einer globalen Uhr wie bei der
Telefonie bzw. SDH/SONET nicht sinnvoll. Aus diesem
Grund hat ATM keine globale Synchronisation, und heißt
daher Asynchronous Transfer Mode, im Gegensatz zu
SDH (Synchronous Transfer Mode).
- Hohe Übertragungsleistung: Es wird nicht mehr ein
shared Medium für die Anbindung von Endgeräten benutzt,
sondern es wird so viel wie möglich und sinnvoll
parallelisiert; jedes Gerät kann gleichzeitig mit der
vollen Netzwerkbandbreite (bis zu limitierenden Geräten)
arbeiten. ATM setzt bei der Übertragung
auf starke Hardwareunterstützung, die entsprechende
Übertragungsleistungen ermöglicht.
- Sender-Empfänger-Synchronisation: ATM ist
verbindungsorientiert, kein Endgerät muß ohne dessen
Einwilligung Daten von einem anderen Endgerät annehmen.
Dies hat mehrere Ursachen: Unterstützung der Telefonie
sowie QoS.
- Skalierbarkeit: ATM stellt den Anspruch, alle Netzwerktypen
vom LAN- bis zum WAN-Bereich als eine eine durchgehende
Technologie zu unterstützen. Gateways oder ähnliches sind
aufgrund der Homogenität der beteiligten Komponenten
nicht mehr nötig. Dies führt u.a. natürlich zu
einer hohen Komplexität der Protokolle.
- Integration bestehender Netze: Die Entwickler von ATM
haben natürlich auch erkannt, daß in einer Übergangszeit
die bestehenden Protokolle vie IP, IPX, AppleTalk, SNA
etc. unterstützt werden müssen und entwickeln entsprechende
Standards.
Weitergehende Literatur: Es gibt sehr viel einführende Literatur in ATM.
Einige empfehlenswerte Dokumente sind:
Natürlich finden sich auch in der
Standard-Netzwerke-Literatur wie [Tan96],
[Sie96] oder [Hal95] entsprechende
ATM-Kapitel.
Folie 8:
Technischer Überblick über ATM
|
Bedeutung für das Management:
- Asynchronous Transfer Mode:
ATM verwendet asynchrones Zeit-Multiplexing.
Die Zeitschlitze im Übertragungsrahmen können damit
dynamisch zugeordnet werden. Feste, definierte Zeiteinheiten
wie sie beim bisherigen synchronen Zeit-Multiplexing
Verwendung finden, existieren nicht.
Ressourcen-Verschwendung durch Übertragung
leerer Pakete wird dadurch vermieden.
Bei isochronen Übertragungen muß wieder eine
Synchronisation zwischen Sender und Empfänger
durchgeführt werden. Dies ist aufwendig.
- Switching von kleinen Paketen fester Länge: die
Grundlage von ATM ist die Benutzung kleiner, 53-Byte
langer Zellen, wobei 5 Byte für den Kopf verwendet werden.
Dies ist ein Overhead pro Paket von über 9%!
Die Wahl von 53 Bytes ist ein Kompromiß zwischen der
isochronen Übertragung (z.B. Telefonie) und der Datenübertragung;
die Telefonie wünscht sich eine nicht bemerkbare
Verzögerungszeit sowie geringen Jitter, und die
Datenübertragung gute Ausnutzung der verfügbaren Bandbreite.
Je nach Protokoll gehen weitere Bytes für die Übertragung
der eigentlichen Daten verloren.
Positiv bei kleinen Zellen ist die Möglichkeit des
Switchings durch ATM-Switches, die auf
Hardware-Ebene arbeiten und dadurch sehr schnell sind.
Endgeräte sind jeweils direkt mit den ATM-Switchen verbunden
(sternförmige Verkabelung), die Parallelisierung ist einfach
und erlaubt erheblich höhere Geschwindigkeiten als
``shared medium''-Netze.
Gängige ATM-Geschwindigkeiten innerhalb von Switchen sind heute
bis 2,48 GBit/s (z.B. 16x155 MBit/s), im Labor erreicht man schon
deutlich höhere Werte.
Übliche Geschwindigkeiten zwischen Switches sind 655 MBit/s, gehen
aber durchaus schon bis 2.48 GBit/s.
- Verbindungsorientiert: expliziter Aufbau einer
``virtuellen'' Verbindung, langsamer Verbindungsaufbau,
komplexe Signalisierung, keine Broadcasts, jedoch
immer Zusicherung von QoS möglich.
Problematisch: keine Vertauschung von Zellen erlaubt,
daher wird Hardware-Aufwand erheblich höher.
Routing-Entscheidung wird bei Aufbau der Verbindung
getroffen, d.h. es müssen Status-Informationen in jedem
beteiligten Zwischengerät gehalten werden. Dadurch sind
allerdings erheblich höhere Geschwindigkeiten möglich,
da Pakete nicht mehr geroutet werden müssen.
- Unterstützung von QoS-Parametern: jede Verbindung kann beim
Verbindungsaufbau genau bestimmen, welche QoS-Parameter benötigt
werden. Verschiedene Dienstklassen stehen zur Verfügung, um
verschiedene Anforderungen erfüllen zu können.
- Unabhängigkeit vom physikalischen Übertragungsmedium:
ATM ist auf keine speziellen physikalischen
Übertragungsmedien angewiesen, ATM kann über alle
gängigen Übertragungsmedien benutzt werden.
Folie 9:
Die ATM Vision
|
Die ATM-Vision sieht so aus, daß alle Endgeräte direkt
ATM unterstützen, und ATM durchgängig bis zu jedem
anderen Endgerät benutzt wird. Dabei werden verschiedenste
Dienste wie Sprache, Daten oder Videodaten unterstützt.
Folie 10:
Netztechnologien im Vergleich
|
Diese Folie zeigt ATM im Vergleich mit verschiedenen anderen Netztechnologien.
Auffällig ist, daß ATM ein sehr breites Spektrum abdeckt, es kann vom
lokalen Bereich bis zum Weitverkehrsbereich eingesetzt werden. ATM ist, anders
als alle anderen üblichen Übertragungstechniken, sowohl für die Übertragung
von Audio, als auch für Video geeignet. Nachteilig für
ATM sind die noch immer recht hohen Kosten im Vergleich mit anderen
Netztechnologien.
Weitergehende Literatur: [SHK+97, Seite 12]
Folie 11:
ATM Standardisierungs-Gremien
|
Standards sind der ``Kleber'', der es ermöglicht, daß Geräte verschiedener
Hersteller miteinander benutzt werden können.
Ursprünglich wurde ATM aufgrund einer Initiative verschiedener
Telefongesellschaften entwickelt. Inzwischen ist der weitaus
dynamischere LAN-Bereich in vielen Gebieten federführend. Insbesondere
das ATM-Forum (1991 gegründet), ein Konsortium aus Rechner- und
Netzherstellern, Anwendern und Forschungsinstituten, ist im Bereich
der lokalen Netze aktiv. Es hat sich zum Ziel gesetzt, die Akzeptanz
von ATM-Produkten sowohl im LAN-, als auch WAN-Bereich zu
beschleunigen.
Folgende Gremien sind an der Standardisierung von ATM beteiligt:
- ITU-T (=International Telecommunications Union - Telecommunication Sector ), ehemals CCITT),
im Bereich der öffentlichen Netze
- ETSI (=European Telecommunication Standards Institute ),
ANSI (=American National Standards Institute )
- ATM Forum, im Bereich lokaler Netze
- IETF (=Internet Engineering Task Force ), insbesondere die
Arbeitsgruppe
Internetworking Over NBMA (=Non-Broadcast Medium Access )
(ION) im Bereich Internet-Protokolle
Die Entwicklung von ATM wurde Anfang der 80er Jahre begonnen,
1988 wurde ATM als Grundlage für das B(reitband)-ISDN gewählt.
Viele der ATM-Eigenschaften stammen aus Standards des
Telekommunikationsbereiches, wie auch oft an der Terminologie
klar wird. Beispiele:
- ATM ist verbindungsorientiert
- das ``Virtuelle Kanäle''-Konzept stammt aus X.25 (es gibt nur mehr davon)
- es wird von Interfaces anstatt von Protokollen gesprochen
- es wird die ISDN-Signalisierung verwendet (Q.2931)
Im produktiven Einsatz in kleinen Netzen ist ATM erst seit 1994,
in größeren Netzen wird ATM erst seit ungefähr 1996 eingesetzt.
Ein Beispiel für ein größeres Netz, welches auf ATM-Technologie
aufbaut, ist das DFN, das Deutsche Forschungs-Netz.
Bedeutung für das Management:
- Standards verschiedener Organisationen widersprechen sich zum Teil
- Viele Organisationen, insbesondere ``offizielle'' = dauert EWIG,
bis was vernünftiges herauskommt
- Datenkommunikation und Sprachkommunikation haben deutlich verschiedene
Anforderungen und Ziele == Einigung nicht immer einfach. Beispiel:
53/48 Byte: keine Zweierpotenz...
Weitergehende Literatur:
- [SHK+97, Seite 158],
- [WWW97b] (Homepage des ATM Forums),
- [WWW97g] (Homepage der International Standards Organization ISO),
- [WWW97h] (Homepage der International Telecommunications Union ITU),
- [WWW97i] (Homepage der Internet Engineering Task Force IETF),
- [HJRS97]
Folie 12:
Das ATM-Referenzmodell
|
Die konzeptionelle Grundlage für ATM ist das oben angegebene Referenzmodell
von Breitband-ISDN. Der ``ATM-Referenz-Würfel'' besteht aus drei Ebenen,
der Nutzerebene, der Steuerungsebene und der Managementebene, sowie drei
Schichten, der physikalischen Schicht, der ATM-Schicht und der
ATM-Adaptionsschicht.
Die Daten der höheren Schichten (Anwendungen oder Steuerungsinformationen, wie
z.B. Signalisierungsinformationen) werden über eine Adaptionsschicht auf
ATM-Zellen abgebildet. Für verschiedene Anforderungen, die in Klassen
eingeteilt werden (s.u.) wurden verschiedene Diensttypen definiert
(ATM Adaption Layer).
Der Transport von Zellen kann über verschiedene physikalische Medien geschehen.
Die Aufgaben der Schichten im einzelnen:
- AAL-Schicht:
- Aufgeteilt in Convergence Sublayer , CS (Konvergenzschicht),
sowie Segmentation and Reassembly , SAR, sorgt für die
Aufteilung der Daten aus den höheren Schichten auf ATM-Zellen,
bzw. baut diese wieder zusammen, und achtet ggf. auf Fehler,
Zeitanforderungen, etc.
- ATM-Schicht:
- Die ATM-Schicht sorgt für die Generierung der Zellen,
das Zellen-Multiplexing bzw. De-Multiplexing,
die korrekte Weiterleitung der ATM-Zellen (das eigentliche switchen),
und führt eine allgemeine Flußsteuerung durch.
Die Reihenfolge von Zellen wird garantiert eingehalten.
- Physikalische Schicht:
- Die physikalische Schicht ist aufgeteilt in zwei Unterschichten,
transmission convergence , TC,
und physical media dependent , PMD.
Erstere sorgt für die Zellratenentkopplung (ggf. durch das Einfügen
von Leerzellen), die Generierung/Überprüfung des Prüfsummenteils
des Kopfes einer ATM-Zelle, die Zellgrenzenerkennung, sowie ggf.
die Anpassung bzw. Erstellung der Übertragungsrahmen.
Die PMD sorgt für das Bit-timing und definiert das physische Medium.
Es sind eine Vielzahl verschiedener physikalischer Übertragungsmedien
definiert. Wichtig dabei ist, das Standards für das Transportieren
von ATM-Zellen über die Übertragungsrahmen bestehender
Netzwerkübertragungstechniken wie SDH/SONET, aber auch über andere
Protokolle, z.B. DQDB-Netze und DATEX-M definiert sind.
Zu den drei oben beschriebenen Schichten liegen orthogonal verschiedene Ebenen.
Diese definieren unterschiedliche Funktionsbereiche:
- Benutzerebene:
- zuständig für den normalen Datentransfer, realisiert
die eigentlichen ATM-Kommunikationsdienste. Beinhaltet
anwendungsbezogene Funktionen wie Flow Control und
Recovery
- Steuerungsebene:
- umfaßt Mechanismen zur Verwaltung von
ATM-Kommunikationsverbindungen zwischen Sender und
Empfänger
- Managementebene:
- ist unterteilt in das Ebenen-Management (plane management )
und das Schichten-Management (layer management ).
Das Ebenen-Management beinhaltet alle Funktionen, die das gesamte System
betreffen. Das Schichten-Management beinhaltet die Operation, Administration
and Maintenance (OAM) - Funktionen je Schicht (dazu mehr im Management-Abschnitt).
Durch die Trennung in die oben genannten drei Ebenen wird eine
konzeptionelle Trennung der Funktionsbereiche möglich, welches hoffentlich irgendwann
eine deutliche Vereinfachung von Managementwerkzeugen etc. ermöglichen wird.
Die Zuordnung der verschiedenen ATM-Schichten in das OSI-Referenzmodell
ist nur sehr begrenzt möglich. Die drei ATM-Schichten führen in etwa
die Aufgaben durch, die im OSI-Referenzmodell in den untersten vier
Schichten abgedeckt werden. Relativ eindeutig ist auch die Zuordnung der
physikalischen Schicht. Über die andere Zuordnung können Glaubenskämpfe
geführt werden.
Bedeutung für das Management:
- Berücksichtigung von Management von Anfang an
- Management von ATM bisher noch nicht vollständig genormt
- Vergleich mit OSI-Schichtenmodell sehr schwer
Weitergehende Literatur:
Folie 13:
Das ATM-Schichtenmodell
|
Bedeutung für das Management:
- Segmentation und Reassembly im Endsystem ist relativ aufwendig
Folie 14:
ATM-Adaptionsschicht und ATM-Diensteklassen
|
Die Aufgabe der Adaptionsschicht ist, wie schon oben erwähnt, die
Segmentierung der Daten der höheren Schichten in ATM-Zellen sowie deren
Reassemblierung, wobei gegebenenfalls zeitliche und andere Anpassungen
vorzunehmen sind.
Bei der Definition von Diensteklassen wird sehr deutlich, daß mehrere
Organisationen an der Standardisierung von ATM beteiligt sind.
So unterscheidet die ITU-T auf der Anwendungsebene vier verschiedene
Diensteklassen, Klasse A bis Klasse D, während das ATM-Forum für die
ATM-Schicht zwischen folgenden vier Serviceklassen unterscheidet:
- constant bit rate CBR:
- Es wird die notwendige Bitrate angegeben,
Durchsatz, Verzögerung und Verzögerungsvarianz werden garantiert
- variable bit rate VBR:
- Durchschnittliche und maximale Rate werden
angegeben. Wird unterteilt zwischen
- real time VBR rt-VBR:
- Maximale Verzögerung und Verzögerungsvarianz
werden garantiert
- non realtime VBR nrt-VBR:
- keine Garantien
- available bit rate ABR:
- Das Netzwerk stellt maximalen Durchsatz bei
minimalen Zellverlustraten zur Verfügung, erreicht durch Flußkontrolle.
- unspecified bit rate UBR:
- Es wird gesendet, was zum Senden ansteht.
Keine Flußkontrolle, keine Garantien, Zellen können ohne Vorwarnung
verworfen werden.
unterscheidet.
Die Dienstklassen A bis D im Überblick:
- Klasse A:
- für zeitkontinuierliche verbindungsorientierte
Übertragungsvorgänge mit konstanter Bitrate
- Klasse B:
- für zeitkontinuierliche verbindungsorientierte
Übertragungsvorgänge mit variabler Bitrate
- Klasse C:
- für nicht zeitkontinuierliche verbindungsorientierte
Übertragungsvorgänge mit variabler Bitrate
- Klasse D:
- für nicht zeitkontinuierliche verbindungslose
Übertragungsvorgänge mit variabler Bitrate
Zur Abbildung dieser Dienstklassen auf Zellen stehen verschiedene
ATM-Adaption-Layers (AALs) mit verschiedenen Eigenschaften zur Verfügung:
Folie 14:
ATM-Adaptionsschicht und ATM-Diensteklassen
Eigenschaft |
AAL 1 |
AAL 2 |
AAL 3 |
AAL 4 |
AAL 5 |
Synchronisation |
Ja |
Ja |
Nein |
Nein |
Nein |
Bitrate |
Konstant |
Variabel |
Variabel |
Variabel |
Variabel |
Übertragungs- |
Verbindungs- |
Verbindungs- |
Verbindungs- |
Verbindungs- |
Verbindungs- |
modus |
orientiert |
orientiert |
orientiert |
los |
orientiert |
Steuer- |
1 Byte |
1 Byte |
4 Byte |
0 Byte |
0 Byte |
Informationen |
|
|
|
|
|
pro ATM-Zelle |
|
|
|
|
|
Fehlersicherung |
Nein |
Nein |
Ja |
Ja |
Ja |
der Nutzdaten |
|
|
|
|
|
durch CRC |
|
|
|
|
|
Beispiel |
Leitungs- |
kompr. |
Daten- |
Daten- |
Daten- |
|
emulation |
Video- |
übertragung |
übertragung |
übertragung |
|
|
übertragung |
|
|
|
Aus [
SHK+97, Seite 144]
Ursprünglich wurden vier verschiedene AAL-Typen durch CCITT (heute ITU)
vorgeschlagen, AAL 1 bis AAL 4. Zwei der Klassen, AAL 3 und AAL 4 sind
heute zusammengefaßt zu AAL 3/4. Da sich die Implementierung von AAL3/4
als sehr schwierig herausstellte, wurde ein weiterer ``simple and efficient
adaption layer'' (SEAL), AAL 5, spezifiziert. Diese hat weniger Overhead,
ist einfach zu implementieren, jedoch fehlen ihr auch einige der Möglichkeiten,
die AAL 3/4 bieten, wie z.B. Zellen-Multiplexing.
Desweiteren gibt es noch eine Möglichkeit, Daten, die schon das bereits benötigte
Zellenformat, haben, über die ``zero AAL'', AAL 0, zu versenden.
Die Spezifikation von AAL 2 ist bis heute noch nicht abgeschlossen. In der
Praxis verwenden die meisten Applikationen AAL 5, jedoch nimmt die Verwendung
von AAL 1 zu.
Klasse A wird durch AAL 1, Klasse B durch AAL 2 realisiert.
Die Klassen C und D können sowohl durch AAL 3/4, als auch durch AAL 5
realisiert werden.
Bedeutung für das Management:
- In der Praxis wird bisher üblicherweise nur AAL 5 verwendet
- In ATM-Karten in Workstations wird üblicherweise nur AAL 5
unterstützt
- Es gibt noch kein standardisiertes ATM-API!
- QoS-Parameter können bisher nur beim Verbindungsaufbau spezifiziert
werden, dynamische Änderungen sind bisher nicht vorgesehen
Weitergehende Literatur:
Folie 15:
Die ATM-Zelle und Virtuelle Pfade/Kanäle
|
Eine ATM-Zelle besteht aus zwei Teilen, einem 5 Byte langem Kopf, sowie
einem 48 Byte langem Nutzdatenbereich.
Die Elemente eines Kopfes einer ATM-Zelle im einzelnen:
- GFC
- (nur UNI) = Generic Flow Control, für Benutzer-Flußkontrolle.
Bisher nicht spezifiziert
- VPI
- = Virtual Path Identifier
- VCI
- = Virtual Channel Identifier
- PTI
- = Payload Type Identifier, gibt die Art der Zelle an:
- Leerzellen
- OAM Zellen
- Ressourcenverwaltung
- Benutzerzellen
- CLP
- = Cell Loss Proiority, gibt an, welche Zellen bevorzugt weggeworfen werden können
- HEC
- = Header Error Checksum, überprüft NUR den Zellenkopf (Fehlleitung),
kann Ein-Bit-Fehler korrigieren und verschiedene Mehrbitfehler
erkennen (Zelle wird dann verworfen)
Da es nicht möglich ist, die 20 Byte langen ATM-Adressen (siehe weiter
unten) in jeder Zelle zu transportieren, wurde eine andere Methode
verwendet, um ATM-Zellen die Wegfindung durch ein ATM-Netz zu
ermöglichen. Die Übertragung der Zellen erfolgt über ``Virtuelle
Kanäle'' und ``Virtuelle Pfade''. Ein Virtueller Kanal
(Virtual Channel , VC) wird im Rahmen der Signalisierung
aufgebaut und besteht bis zum Verbindungsabbau.
Jedem VC sind verschiedene QoS-Parameter zugeordnet, die beim
Verbindungsaufbau ausgehandelt werden. Innerhalb eines VCs bleibt
die Reihenfolge der Zellen stets erhalten.
Ein Virtueller Pfad (Virtual Path , VP) faßt verschiedene
VCs zusammen. Damit können VCs effizient vermittelt werden, indem
für gemeinsame Wegstrecken im Gesamtsystem ein VP eingerichtet wird.
Bedeutung für das Management:
- Overhead hoch
- Segmentation & Reassembly im Endgerät teuer & aufwendig
- ATM-Zellenlänge ist ungünstig, eine Zweierpotenz, wie z.B.
64 Byte, wäre besser gewesen
- Fraglich, ob feste Zellenlänge unbedingt notwendig ist
Folie 16:
Beispiel einer ATM-Verbindung
|
Anhand dieser Folie wird verdeutlicht, wie die Virtuellen Pfade
und Kanäle verwendet werden.
Folie 17:
ATM-Adressen
|
ATM-Adressen sind 20 Byte lang, sie skalieren auch für sehr große
Netzwerke. Die Adressierung ist hierarchisch wie im Telefonnetz,
es werden Präfixe (ähnlich zu Vorwahlen) verwendet. ATM-Switche haben
den vorderen Teil ihrer Adressen mit denen an sie angeschlossenen Endgeräte
gemeinsam und verwalten die Endgeräteadressen in Routing-Tabellen.
Es sind vier ATM-Adreßformate spezifiziert:
- DCC ATM Format: Data Country Code gemäß ISO 3166
- ICD ATM Format: International Code Designator gemäß ISO 6523
- E.164 ATM Format: Network Service Access Point nach ITU-T E.164, ISDN-Nummer
(OSI-Adressen), wobei zwischen privatem und öffentlichem Gebrauch unterschieden wird
- AFI:
- Authority and Format Identifier, legt das Format der nachfolgenden Adresse fest
- IDI:
- Initial Domain Identifier, bestimmt die Adreßbelegung und die administrative Autorität,
also die Instanz, die über die Adreßvergabe wacht
- DSP:
- Domain Specific Part, enthält die Routing-Information. Ist aus zwei
Teilen zusammengesetzt, dem HO-DSP und dem Low Order Part. Der Low Order Part ist aus dem End System Identifier und dem Selector (SEL) zusammengesetzt
- ESI:
- 48-Bit MAC-Adresse, die zur eindeutigen Kennzeichnung des Endsystems dient (vgl. Ethernet-MAC-Adresse)
- HO-DSP:
- High Order DSP
- IDP:
- Initial Domain Part
- SEL:
- Selection Byte, nicht benutzt
Bedeutung für das Management:
- Kein gemeinsamer Adreßraum
- Sehr großer, hierarchischer Adreßraum
- Adressen zu lang, um sie in jede Zelle transportieren zu können
- ISDN-Nummern sind geographisch hierarchisch, nicht gut für
mehrere Provider
Weitergehende Literatur:
- [SHK+97, Seite 151f],
- [HvdL97, Seiten 110-113],
- [CGC91] (ergänzendes Tutorial zur Adressenvergabe),
Folie 18:
Der ATM-Verbindungsaufbau
|
Da ATM ein verbindungsorientierter Dienst ist, muß vor dem
eigentlichen Datenverkehr eine Verbindung auf- und danach wieder
abgebaut werden. Dies geschieht durch Signalisierung.
Die Signalisierung geschieht nicht nur zwischen den Endgeräten, wie
es z.B. bei IP der Fall ist, sondern zwischen dem Netz und dem Anwender.
Die Basis für die Signalisierung bilden Signalisierungskanäle, die
mittels der Protokolle der sogenannten ``Meta-Signalisierung'' aufgebaut
und über die Signalisierungs-AAL (SAAL) realisiert werden. Hierzu werden
vordefinierte VP/VC-Kombinationen genutzt.
PVCs und SVCs
Verbindungen (Virtual Channels) zwischen zwei Endgeräten können
entweder über Managementmöglichkeiten fest geschaltet werden
(Permanent Virtual Channel, PVC), oder dynamisch bei Bedarf (Switched
Virtual Channel, SVC).
ATM unterstützt zwei Verbindungsarten:
- Punkt-zu-Punkt-Verbindungen: Verbindungen diesen Types können
unidirektional oder bidirektional sein
- Punkt-zu-Mehrpunkt-Verbindungen: Verbindungen dieses Types können
nur unidirektional sein
Wünschenswert wären weiterhin Mehrpunkt-zu-Mehrpunkt-Verbindungen,
z.B. für Broadcasts. Diese werden von AAL 5, dem am häufigsten
verwendeten AAL, nicht unterstützt, da Empfänger von Zellen nicht
feststellen können, von welcher Quelle die Zellen gesendet worden
sind, wenn mehrere Sender gleichzeitig senden; und damit ist kein
funktionierendes Zusammensetzen in Frames möglich. Ein möglicher
Ansatz, dieses Problem zu lösen, ist die Benutzung eines
Multicast-Servers. Jede Station baut eine Punkt-zu-Punkt-Verbindung
zum Multicast-Server auf, der mittels einer
Punkt-zu-Mehrpunkt-Verbindung zu allen Teilnehmern die von den
einzelnen Stationen gesendeten Daten serialisiert und an alle
Teilnehmer versendet. Gut unterstützt kann bei diesem Vorgehen das
dynamische Hinzufügen und Löschen von Teilnehmern.
Ein ganz wesentlicher Vorteil bei der ATM-Signalisierung ist, daß
bei dem Verbindungsaufbau die gewünschten QoS-Eigenschaften
der Verbindung angegeben werden können, der sogenannte
``Traffic Contract''. Dieser kann sowohl qualitative als auch
quantitative Angaben enthalten.
Der Traffic Contract besteht aus
- der gewählen QoS-Klasse,
- den Dienstgüteparametern, sowie den
- Verkehrsparametern.
Das Netz garantiert dabei die gewählte Dienstgüte, und der Benutzer
die Einhaltung der Verkehrsparameter.
Die QoS-Klasse sind die Serviceklassen, die durch das ATM-Forum
spezifizert sind. Bei den Dienstgüte-Parametern können folgende
Angaben spezifiziert werden:
- Cell Delay Variation, CDV , die Schwankung der Zeit zwischen
dem Eintreffen zweier Zellen, die zu einer Verbindung gehören
- Maximum Cell Transfer Delay, Max CTD , die maximale Übertragungsverzögerung
- Mean Cell Transfer Delay, Mean CTD , die mittlere Übertragungsverzögerung, sowie
- Cell Loss Ration, CLR , das Verhältnis der verlorenen Zellen zur Gesamtheit aller
übertragenen Zellen.
Bei den Verkehrsparamtern müssen vom Benutzer folgende ausgehandelte Werte, die eine Vorhersage
über seinen geplanten Datenverkehr zulassen, beachtet werden:
- Peak Cell Rate, PCR , die maximale Datenrate, mit der Zellen versendet werden,
- Sustainable Cell Rate, SCR , die Rate, die das Netz bei VBR bereitstellen muß,
- Burst Tolerance, BT , die bei VBR angibt, wie die SCR kurzfristig überschritten
werden kann, ohne daß gleich Zellverluste drohen, sowie
- Minumum Cell Rate, MCR , welche für ABR-Verbindungen die minimale Zellenrate
definiert, die auch 0 sein kann.
Diese Werte werden dann durch das Traffic Management überwacht.
Bedeutung für das Management:
- QoS wird vom Netz unterstützt
- Verbindungsdaten werden verteilt gehalten,
extrem komplexe verteilte Anwendung, was tun bei Ausfall einzelner
Komponenten?
Weitergehende Literatur:
Folie 19:
private UNI/private NNI/public UNI/public NNI
|
ATM definiert mehrere Schnittstellen, die den Austausch von
Signalisierungsinformationen zwischen Geräten bzw. Netzen regeln:
User-to-Network Interface (UNI) definiert die Interaktion
zwischen ``dem Netz'' und dem Anwender, während
Network-to-Network Interface (NNI), manchmal auch
Network-to-Node Interface genannt, Interoperabilitätsmechanismen
zwischen verschiedenen Switches zur Verfügung stellt.
Folgende Standards exisitieren:
- P-NNI:
- Private Network-to-Network Interface ,
aktuell ist die Version 1, definiert, wie verschiedene Switches
in privaten Netzen miteinander kommunizieren.
- UNI:
- User-to-Network Interface , wird unterschieden in
private UNI und public UNI, regelt den Zugang von Endstationen
zu ATM-Netzen.
- B-ICI:
- B-ISDN Inter Carrier Interface , Schnittstelle zwischen
öffentlichen ATM-Netzen, regelt Dienstspezifikationen oberhalb
von ATM, wie z.B. Abrechnungsfragen. Bisher werden nur
PVCs unterstützt.
PNNI ist ein Routing-Protokoll, welches es erlaubt, die ATM-Switche
verschiedener Hersteller in einem gemeinsamen Netz zu benutzen. PNNI
verteilt automatisch und dynamisch Routing-Informationen (ähnlich OSPF)
und erlaubt jedem Switch, einen Weg zu jedem anderen Switch zu finden.
Die Kenndaten von PNNI Phase 1 im Überblick:
- verabschiedet im Juli 96, erste Implementierungen gerade verfügbar
- unterstützt
- Routing-Hierarchien; auch für sehr große Netze geeignet
- Quality of Service (QoS)-basiertes Routing
- basiert auf Source-Routing, integrierter ``Crankback''-Mechanismus
- definiert 2 Protokolle
- Signalisierungsprotokoll
- Protokoll zur Verteilung von Topologie-Informationen
Das User-to-Network Interface regelt den Zugang von Endgeräten zu
ATM-Netzen. Das verwendete von der ITU spezifizierte
Signalisierungsverfahren Q.2931 geht auf die Signalisierung in der
Schmalband-ISDN-Umgebung zurück. Die Standardisierung ist mit UNI 4.0
vom ATM-Forum weitgehend abgeschlossen.
Bedeutung für das Management:
- Ist die Trennung von UNI und NNI wirklich sinnvoll?
Zwei Protokolle statt einem...
Weitergehende Literatur:
- UNI: [Hel97, Kapitel 5.1, Seite 97-113]
- P-NNI: [Hel97, Kapitel 5.2, Seite 113-123]
Schon früh hat man bei der Entwicklung von ATM erkannt, daß
zumindest für eine Übergangszeit die Koexistenz verschiedener anderer
Protokolle wie z.B. IP oder IPX mit ATM notwendig ist. Im Zeitalter des
Internets ist die Vision von einer reinen ATM-Welt nicht mehr
wahrscheinlich.
Zwei besondere Probleme müssen bei der Übertragung anderer Protokolle
über ATM gelöst werden:
- ATM ist verbindungsorientiert, jedoch so ziemlich alle Protokolle
aus der Datenübertragungswelt verbindungslos. Die Umsetzung
ist recht aufwendig
- Die Einbettung von ATM-Adressen in bestehende Protokollarchitekturen
Ursprünglich gab es zwei Ansätze, um ATM in bestehende Protokollarchitekturen
einzubinden (bezüglich der Adressen und des Routings):
- das Peer model , bei der IP- (IPX, etc.) Adressierungs-
und Routing-Modelle benutzt werden. Es arbeiten also die
Netzwerkschicht (z.B. IP) mit der ATM-Signalisierung zusammen.
- das Overlay model , welches ATM von existierenden
Protokollarchitekturen entkoppelt. Für höhere Protokolle wie IP
sieht ATM dann aus wie eine übliche Layer-2-Verbindung.
Das ATM-Forum wählte das Overlay model . Die Wahl des Overlay
Modells ist nicht unumstritten, da es neben dem Vorteil der Protokollunabhängigkeit erhebliche Nachteile besitzt:
- eventuell nicht optimales End-zu-End-Routing
- benötigt eigene Adreß-Struktur
- benötigt eigenes Routing-Protokoll
- alle ATM-Endsysteme benötigen sowohl ATM-Adresse als auch eine Adresse
für die höheren Protokolle, wie z.B. eine IP-Adresse
- daher benötigen alle Protokolle, die über ATM benutzt werden sollen,
eine Adreßauflösung von z.B. IP-Adressen auf ATM-Adressen, was
ein nicht unerheblicher zusätzlicher Aufwand ist.
Andere Vorteile neben der Protollunabhängigkeit des Overlay Models sind
die deutlich geringere Komplexität von ATM-Switchen im Vergleich zum Peer
Model sowie die leichtere Weiterentwicklungsmöglichkeit von allen
Protokollen, da sie weniger miteinander verknüpft sind.
Derzeit gibt es vier verschiedene Ansätze zur Übermittlung von
existierenden Protokollen über ATM:
- Multiprotocol Encapsulation over ATM Adaption Layer 5
- Classical IP over ATM
- LAN Emulation (LANE)
- Multiprotocol over ATM (MPoA)
Genauer betrachtet werden nun Classical IP over ATM und
LAN Emulation, da diese den höchsten Verbreitungsgrad haben.
Die MPoA-Spezifikation wurde gerade erst verabschiedet, deswegen
wird diese im Ausblick behandelt, falls genügend Zeit vorhanden ist.
Weitergehende Literatur:
- [Hei93] (RFC 1483: Multiprotocol Encapsulation over ATM Adaption Layer 5)
Folie 20:
Classical IP over ATM Protokollstack
|
Classical IP ist ein Standard der IETF, um IP über ATM benutzen
zu können. Zur Übertragung wird AAL 5 verwendet.
Damit IP in ATM-Netzen betrieben werden kann, ist eine Abbildung von
IP-Adressen auf ATM-Adressen nötig. Hierzu wird eine Gruppe von Rechnern
(IP-Knoten, LIS-Clients) zu einem logical IP subnet (LIS)
zusammengefaßt, wobei ein ATMARP-Server für die Adreßumsetzung
zuständig ist. Innerhalb eines LIS werden zwischen den Endgeräten bei
Bedarf VCs aufgebaut, falls nicht schon PVCs vorkonfiguriert sind.
Die Classical-IP-Eckwerte:
- definiert durch IETF, RFC 1577
- ARP Server bildet IP-Adressen auf ATM-Adressen ab (und umgekehrt)
(ein ARP-Server pro LIS)
- kein MAC-Overhead
- IP-Pakete werden defaultmäßig über LLC/SNAP-Encapsulation über
ATM verschickt
- spezielle Lösung, nur für IP geeignet, dadurch sehr effizient
- einfache Implementierung
- keine IP Broad-/Multicast-Unterstützung (Erweiterung über
Multicast Adress Resolution Server , MARS, angedacht)
- Zwischen zwei IP-Partnern innerhalb eines LIS wird immer
ein direkter VC aufgebaut
- realisiert durch Software auf ATM-Endsystemen
Die Eckwerte der Classical IP Adreßumsetzung:
- Ein ARP Server pro LIS
- ATM-Adresse des ARP Servers ist jedem Rechner bekannt
- Jeder Rechner registriert am ATMARP Server seine IP-Adresse,
sowie seine ATM-Adresse
- Ein ARP Request des TCP/IP Protokollstacks wird auf einen
ATM-ARP Request an den ARP Server ``gemapped''
- Der ARP Server übermittelt Zuordnung IP / ATM Adresse,
somit kann ein direkter SVC zwischen den beteiligten Stationen
aufgebaut werden
Bedeutung für das Management:
- gleiche MTU für alle VCs
- Starker Verbrauch an VCs (meist SVCs) für Kommunikation
zweier Rechner innerhalb eines LIS
- Zum Teil hohe Setup-Zeiten für SVCs. Lösung: Connectionless-Server
- Gute Integrationsmöglichkeiten für alle über IP betriebene Netze,
Subnetze nicht auf eine Technologie beschränkt
- Im Gegensatz zu LANE (s.u.) werden die Vorteile von ATM nicht
völlig verdeckt.
- Sehr effizient
- Alle Ressourcen außerhalb eines LIS sind nur über IP-Router zu
erreichen, was eventuell zu unnötigen Performance-Einbußen führt.
Lösung: Next Hop Resolution Protocol (in der Entwicklung)
- Ein LIS verfügt nur über einen ATMARP-Server, Ausfall führt
zu einem Ausfall des gesamten LIS (single point of failure! )
- Kaum Sicherheitsmechanismen
Weitergehende Literatur:
- [SHK+97, Seiten 27f,182-186]
- [HvdL97, Seiten 188-207]
- [Lau94] (RFC 1577: Classical IP and ARP over ATM)
- [Atk94] (RFC 1626: Default IP MTU for use over ATM AAL5)
Bei der Benutzung von TCP über ATM müssen die TCP-Parameter deutlich
ändern, um vernünftige Durchsatzraten zu erhalten. Die Probleme sind:
- Die Puffergrößen müssen deutlich vergrößert werden
- Das verwerfen einzelner ATM-Zellen führt zum Unbrauchbarwerden
ganzer TCP-Frames
Insgesamt kann gesagt werden, daß es nicht einfach ist, die TCP-Parameter
für ATM-Netze gut zu konfigurieren.
Weitergehende Literatur:
Folie 21:
LAN Emulation Protokollstack
|
Das Verfahren des ATM Forums zum Benutzen von anderen Protokollen über
ATM ist LAN Emulation , wobei die Eigenschaften eines
konventionellen, verbindungslosen LANs auf MAC-Ebene nachgebildet
werden. Die Eigenschaften des ATM-Netzes werden vollständig verdeckt,
die Nutzung der Vorteile von ATM wie QoS können nicht genutzt werden.
Die Eckwerte von LAN Emulation sind folgende:
- allgemeine Lösung für verschiedene Protokolle
- Verbindungen zum LANE-Server, BUS-Server
- IP Broad/Multicast möglich (BUS)
- Ermöglicht ``virtuelle LANs''
Folie 22:
Beispiel LAN Emulation
|
- bietet MAC-Layer-Funktionalität wie in Legacy LANs
- realisiert durch Software auf den ATM-Endsystemen
- Ein LANE Besteht aus folgenden Komponenten:
- LAN Emulation Client (LEC): Eine Endstation eines
emulierten LANs, ein LEC kann Mitglied mehrerer ELANs
sein
- LAN Emulation Server (LES): Verrichtet
Kontrollfunktionen eines ELANs, Zuordnung LEC-MAC
zu LEC-ATM Adresse
- LAN Emulation Configuration Server (LECS):
Verwaltet die Konfigurationsdateien, ordnet
ELAN zu LES (LES zu ATM-Adresse) zu,
wird nur während der Initialisierungsphase benötigt
- Broadcast and Unknown Server (BUS): Flutet Daten
mit unbekannten Ziel-MAC-Adressen (z.B. Broadcasts)
Gerade verabschiedet wurde der Standard LANE 2.0 (Erweiterung gegenüber
1.0: vor allem redundante Server), der jedoch erst allmählich in Produkte
umgesetzt wird.
Bedeutung für das Management:
- Alle Ebene-3-Protokolle werden unterstützt
- Zur Verbindung von ELANs sind Router nötig
- Performance-Einbußen gegenüber Classical IP
- Keine ATM-Vorteile sichtbar
- Keine effiziente Unterstützung von Multicasts
- Server (LES, LECS) sind single points of failure
- Skalierbarkeit begrenzt durch einen Server
- Begrenzung eines ELANs auf einen Medientyp (Ethernet oder Token Ring)
Weitergehende Literatur:
Folie 23:
Überblick über das ATM-Management
|
Eine der wesentlichsten Grundlagen für das Betreiben von Netzen ist
funktionierendes Netzwerkmanagement.
ATM hat dabei mit besonderen Problemen zu kämpfen:
- 1.
- ATM ist eine Technik, die von sich in Anspruch nimmt, sowohl den
WAN-Bereich mit seinem statischen Management abzudecken, als auch
den LAN-Bereich mit seinem sehr dynamischen Management.
- 2.
- Die Standardisierung, auch im Management-Bereich,
geht zum Teil nur zögerlich voran, doch
heutige Probleme wollen auch gelöst sein
- 3.
- Durch die Verbindungsorientierung von ATM wird die bisher aus der
LAN-Welt gewohnte Überwachung eines Netzes deutlich komplizierter,
spezielle Mechanismen mußten entwickelt werden um dieses Problem
zu lösen.
- 4.
- ATM ist die erste Netztechnologie, die QoS-Parameter in großem
Umfang unterstützt. Diesem muß besondere Rechnung getragen werden.
Diese Problemfelder geben schon die Gliederung für die folgenden Abschnitte vor.
Das Management von ATM-Netzen steht noch sehr am Anfang, und dies,
obwohl das Management von Anfang an bei der Entwicklung von ATM berücksichtigt
wurde. Grund ist hier die zögerliche Standardisierung durch die offiziellen
Standardisierungsgremien.
Folgende Teilgebiete wollen eine Antwort auf die oben genannten Probleme geben:
- Das ATM-Management-Modell (behandelt Punkt 1)
bisher nur teilweise spezifiziert
- Integrated Local Management Interface - ILMI (behandelt Punkt 2)
definiert ein Managementprotokoll, eine Programmierschnittstelle
und eine Management Information Base, Grundlage ist SNMP
- Operations, Administration and Management - OAM (behandelt Punkt 3)
für die Überwachung der physikalischen und der ATM-Schicht
- Traffic Management (behandelt Punkt 4)
Verhinderung von und Reaktion auf Überlastsituationen
Die Teilgebiete werden nun einzeln genauer betrachtet.
Weitergehende Literatur:
Folie 24:
ATM Managementschnittstellen
|
Das ATM-Management-Modell ist derzeit noch in der Entwicklung. Grundlage
sind im wesentlichen die Management-Schnittstellen M1 bis M5.
Unterschieden werden insbesondere der private Bereich (M1 und M2), der
öffentliche Bereich von ``Netzprovidern'' (M4 und M5), sowie eine Schnittstelle
zwischen dem privaten und öffentlichen Bereich, M3.
Die Schnittstellen im einzelnen:
- M1:
- definiert Schnittstelle zwischen dem Netzwerkmanagementsystem
des privaten Benutzers und einem ATM-Endsystem; bisher
noch nicht spezifiziert
- M2:
- definiert Schnittstelle zwischen dem Netzwerkmanagementsystem
des privaten Benutzers und einem ATM-Netzwerk oder
einem ATM-Switch; bisher noch nicht spezifiziert
- M3:
- Customer-Network-Management(CNM)-Schnittstelle,
Schnittstelle zwischen dem Managementsystem des Kunden (im privatem
Bereich, meist SNMP) und dem Managementsystem des Betreibers
(öffentlichem Bereich, meist CMIP); gewährt dem Kunden Einblick
in das Netz des Betreibers.
- M4:
- definiert Schnittstelle zwischen dem
Netzwerkmanagementsystem eines Betreibers und dessen
ATM-Netzwerkkomponenten. Bisher werden bei M4 nur PVCs, noch keine
SVCs, unterstützt.
- M5:
- definiert die Schnittstelle zwischen den Managementstationen des
Betreibers, also den öffentlichen Netzen;
bisher noch nicht spezifiziert
Weitergehende Literatur:
Folie 25:
Integrated Local Management Interface
|
Da sich die Standardisierung des ATM-Management-Modells sich noch
sehr am Anfang befindet, wurde ILMI durch das ATM-Forum standardisiert,
um bereits heute die wichtigsten Managementaufgaben zu unterstützen.
ILMI umfaßt folgende Bereiche:
- Managementprotokoll:
- auf der Basis von SNMP wird ein Managementprotokoll
zwischen ATM-Switchen und zwischen Endsystemen
und einem ATM-Switch festgelegt. Damit ist
durch den Zugriff auf ATM-Managementinformationen
von Managementstationen eine Steuerung und
Beobachtung möglich.
- Programmierschnittstelle:
- ATM-Management-Anwendungen können auf der
Basis eines standardisiertes API entwickelt werden.
- Management Information Base:
- Durch die Spezifizierung einer ATM-MIB
mit Status-, Konfigurations- und
Kontrollinformationen können Management-Daten
verwaltet werden. Bisher werden die physikalische
Schicht und die ATM-Schicht unterstützt, jedoch
noch nicht die AALs.
Das ILMI-Protokoll unterstützt die automatische ATM-Adreßkonfiguration
von ATM-Endsystemen an ATM-Switchen:
- das Endsystem sendet seine End System ID an den Switch, z.B.
beim Neustart
- Der Switch bildet aus der eigenen Präfix-Adresse und ESI des Endsystems
die ATM-Adresse des Endsystems und sendet diese zurück.
Bedeutung für das Management:
- ATM-MIB hat nur beschränkte Funktionalität (wie jede SNMP-MIB)
- Massive Sicherheitsprobleme
- Integration in bestehende Management-Plattformen relativ
unproblematisch (ATM MIB entspricht der MIB-II)
- Auto-Adreßkonfiguration angenehm
Weitergehende Literatur:
- [SHK+97, Seite 77],
- [AT94] (RFC 1695: Definitions of Managed Objects
for ATM Management Version 8.0 using SMIv2)
Folie 26:
ILMI ATM MIB
|
Folie 27:
Operations, Administration and Maintenance
|
Unter Operations, Administration and Maintenanace (OAM) werden
verschiedene Netzwerk-Management-Funktionen zusammengefaßt, die durch
dedizierte ATM-Zellen erbracht werden. Sie dienen unter anderem zur
Unterstützung des Fehler- und Performace-Managements (Operations);
Adressierung, Datensammlung und Benutzung von Ressourcen (Administration);
sowie der Analyse, Diagnose und Reparatur von Netzwerkfehlern (Maintenance).
Das OAM Flow Referenz-Modell definiert die Aspekte einer
ATM-Punkt-zu-Punkt-Verbindung (Virtual Channel), die mittels
spezieller OAM-Zellen beobachtet und gesteuert werden kann. Das
Referenz-Modell teilt einen VC in fünf verschiedene Schichten ein, die
mit F1 bis F5 bezeichnet werden. Des weiteren definiert es den Fluß von
ATM-Zellen durch diese Schichten. Die Schichten F1 bis F3 gehören der
physikalischen Schicht an, während die Schichten F4 und F5 der ATM-Schicht
zugeordnet sind.
Die Schichten F1 bis F3 haben im wesentlichen die Aufgabe, Rahmenverluste,
Leistungsprobleme, Synchronisationsfehler sowie Übertragungsfehler der
Header-Informationen auf der physikalischen Schicht zu erkennen, während
die Bereiche F4 und F5 der Überwachung der Verfügbarkeit und der
Leistungsfähigkeit virtueller Pfade und virtueller Verbindungen dienen.
Die Schichten im einzelnen:
- F1:
- Regeneration Section Level
- F2:
- Digital Section Level
- F3:
- Transmission Path Level
- F4:
- Verfügbarkeit und Leistungsfähigkeit virtueller Pfade (VPs)
- F5:
- Verfügbarkeit und Leistungsfähigkeit virtueller Verbindungen (VCs)
Mittels OAM-Zellen können sowohl Ende-zu-Ende-Überwachungen, als auch
segmentbezogene Überwachungen durchgeführt werden. Der OAM-Bereich
ist im wesentlichen genormt, lediglich die Reaktion auf Fehler ist zum
Teil noch nicht genau spezifiziert.
Weitergehende Literatur:
Folie 28:
Traffic Management: Traffic Control
|
Das Management von Bandbreiten ist einer der wesentlichen Erfolgsfaktoren
von ATM. Keine andere Technik bietet in diesem Bereich so viel wie ATM.
ATM garantiert QoS für jeden VC (Traffic Contract). Der versprochende
QoS muß sowohl vom Netz eingehalten werden, als auch die Senderaten der Benutzer
auf ihre Konformität mit den Verkehrsparametern.
Eine besondere Bedeutung erhält das Bandbreitenmanagement dadurch, daß
verschiedene Dienste (in Form von CBR, VBR, et.c) über ein Medium laufen.
Es ist nicht immer wünschenswert, daß z.B. die gesamte verfügbare Bandbreite für Telefongespräche (CBR)
verwendet wird, so daß keine E-Mails mehr verschickt werden können (ABR/UBR).
Eine vernünftige Priorisierung ist nötig, die über das Netzmanagement durch
z.B. Beschränkung von verbindungsorientierten Diensten auf einen gewissen
Prozentsatz des Gesamtdurchsatzes geschehen kann.
Das eigentliche Traffic Management umfaßt zwei Kernbereiche,
Traffic Control , Maßnahmen zur Verhinderung von
Überlastsituationen, und
Congestion Control , Maßnahmen, die bei einer eingetretenen
Überlastsituation ergriffen werden, um diese zu beseitigen.
ATM stellt folgende Steuerungsmöglichkeiten zur Verfügung:
Folie 28:
Traffic Management: Traffic Control
2cTraffic Management Funktionen |
|
Connection Admission Control (CAC) |
Zugangskontrolle (Bandbreite, QOS) |
Network Resource Management |
Zuteilung von Datenströmen zu Pfaden |
Usage Parameter Control (UPC) |
Überwachung des Verkehrsvertrages |
Resource Management |
Verkehrsbeeinflussung gemäß Netzzustand |
Traffic Shaping |
Beschränkung der Burst-Länge und Zelldichte, Zellpufferung |
Priority Control |
Priorisierung von Zellströmen (CLP) |
Selective Cell Discarding |
Verwerfen ganzer Rahmen |
Zuerst werden die Maßnahmen zur Verhinderung einer Überlastsituation
(Traffic Control) beschrieben:
- Connection Admission Control:
- Eine neue Verbindung wird nur zugelassen,
wenn die beteiligten Geräte überhaupt dazu in der Lage sind. Dazu werden
die QoS-Anforderungen überprüft.
- Zuordnung geeigneter Virtueller Pfade:
- Für den Virtuellen Kanal wird
durch das Netz ein geeigneter Virtueller Pfad gesucht, der den virtuellen
Kanal aufnehmen kann.
- Usage Parameter Control:
- Anhand der ausgehandelten QoS-Parameter wird
überprüft, ob ein Sender versucht, das Netz mehr als ausgehandelt zu belasten.
Bei der Überschreitung maximaler Zellraten können Zellen als verwerfbar markiert
werden bzw. verworfen werden. Grundlage hierfür ist der
- Leaky Bucket Algorithmus:
- der bildlich wie folgt arbeitet:
Jede konform ankommende Zelle füllt einen Eimer um einen gewissen ``Wasserbetrag''
auf. Der Eimer leckt mit einer gewissen konstanten Rate, so daß das Wasser, was einer
Zelle entspricht, nach einer Zeit herausgeflossen ist. Wenn jede Zelle präzise
zur vorgesehenen Zeit kommt, fließt sie jeweils in einen gerade leer gewordenen Eimer.
Kommen jedoch mehr Zellen pro Zeiteinheit als ausgehandelt, so füllt sich der
Eimer. Dies kann z.B. bei einem Zellen-Burst passieren. Da der Eimer nur eine gewisse
Menge ``Wasser'' (zu früh eingetroffene Zellen) verkraftet, ``fließt'' er über (Zellen
werden entweder verworfen, oder das Cell Loss Priority-Feld wird auf 1 gesetzte, d.h.
die Zelle ist ein Kandidat für Verwerfung in Überlastsituationen).
Bei dem Beispiel wurde davon ausgegangen, daß die Zellen in regelmäßigen Abständen
ankommen. Dies entspricht selten der Wirklichkeit. Trotzdem kann der Leaky Bucket
Algorithmus hier verwendet werden, wobei natürlich der ``Eimer'' groß genug sein muß.
Folie 29:
Traffic Management: Congestion Control
|
Nicht für alle Verkehrsarten ist es für einen Sender überhaupt möglich, weniger zu senden.
Beispielsweise ist es einem Telefonteilnehmer wohl nicht zuzumuten, auf einmal um 25%
langsamer zu sprechen. Daher konzentriert sich Congestion Control in ATM-Netzwerke auf
die dynamisch verändernden Übertragungsraten. Bei CBR, VBR und UBR-Verkehr wird kein
dynamisches Verfahren zur Behebung von Überlastsituationen verwendet (UBR-Zellen werden
bei Überlast einfach verworfen).
Folgende Verfahren ermöglichen Maßnahmen zur Behebung von Überlastsituationen:
- Resource Management:
- Spezielle Resource-Management-Zellen werden bei ABR
in den Datenstrom eingefügt. Diese RM-Zellen beinhalten einen Vorschlag des
Senders über die gewünschte Senderate. Diese RM-Zellen werden in Richtung des
Empfängers gesendet. Switche auf dem Weg zum Empfänger können bei Bedarf den
Sendewunsch nach unten korrigieren. Der Empfänger akzeptiert entweder den eventuell
modifizierten Senderatewunsch, oder korrigiert ihn ggf. nach unten und schickt
ihn zurück. So kann die Senderate an das ``schwächste Glied der Kette'' angepaßt werden.
- Traffic Shaping:
- Falls ein Sender zu viele Zellen senden will, können ggf. kurzzeitig
Teile davon in Puffern gehalten werden (ggf. in Verbindung mit dem Leaky Bucket Algorithmus),
- Priority Control:
- Nicht konforme Zellen werden ggf. mit dem CLP-Bit gekennzeichnet. In Überlastsituationen
werden die so gekennzeichneten Zellen als erstes verworfen.
- Frame Discard:
- ein Verfahren, wo an Stelle von einzelnen Zellen gleich ganze Frames verworfen bzw.
erst gar nicht übertragen werden.
Weitergehende Literatur:
Folie 30:
Aktuelle Standards im ATM-Bereich
|
Die Entwicklung im ATM-Umfeld wird im Moment vor allem vom ATM-Forum
vorangetrieben. Einige aktuelle und kommende Standards (fast alle vom ATM-Forum)
sind auf der Folie zu sehen.
Die wohl am weitesten verbreitete Programmierschnittstelle für
Netzwerkapplikationen ist das Socket-Interface aus UNIX. Diese
Schnittstelle bietet jedoch kaum Möglichkeiten, QoS-Parameter
für Verbindungen zu spezifizieren, wie sie z.B. durch ATM möglich
werden.
Eine Erweiterung des Socket-Interfaces wurde von Microsoft, Intel
und Sun seit 1994 erweitert, und ist heute z.B. im ``Winsock 2.0''-Standard
in Microsoft NT realisiert. Durch die Dominanz von Microsoft ist es nicht
unwahrscheinlich, daß Winsock 2.0 auch von anderen Betriebssystemen
realisiert wird, so daß ein Standard für die Ausnutzung der Möglichkeiten
von ATM zur Verfügung steht.
Weitergehende Literatur:
- [WWW97b] (Homepage des ATM Forums),
- [WWW97e] (ATM Forum: aktueller Status verschiedener Spezifikationen),
- [WWW97a] (ATM Forum: ratifizierte Spezifikationen),
- [WWW97g] (Homepage der International Standards Organization ISO),
- [WWW97h] (Homepage der International Telecommunications Union ITU),
- [WWW97i] (Homepage der Internet Engineering Task Force IETF),
- [Hor95] (Überblick über Windows-Sockets-Spezifikation 2.0),
- [HJRS97] (Ein kritischer Blick auf die Entwicklung von Standards)
Folie 31:
Zusammenfassung ATM
|
Was ist nun von der ATM-Vision übriggeblieben?
- ATM stellt eine Möglichkeit zur Verfügung, verschiedene
Dienste über ein Netz (sowohl im lokalen als auch im WAN-Bereich)
zu betreiben.
- ATM ist eine skalierbare Technologie. ATM stellt insbesondere
eine skalierte Bandbreite zur Verfügung, die
deutlich über andere gängige Technologien hinausgeht
- ATM kann über eine Vielzahl von physischen Medien betrieben werden
- Die Benutzung von kleinen Zellen führt zu geringen
Verzögerungen bei der Übertragung von Daten, was
Realzeit-Multimedia-Anwendungen ermöglicht.
- ATM ist verbindungsorientiert, was aus dem Ursprung der
Telefonie zu begründen ist und für den Datenverkehr nicht
immer günstig ist
- ATM ist eine äußerst komplexe Technologie und noch
recht teuer
- Durch die Komplexität, sowie mehrerer an der Standardisierung
beteiligter Gremien, kommt die Standardisierung nur langsam
voran
- Das Management ist, sowohl wegen der langsamen Standardisierung,
als auch der geringen Erfahrung und der Komplexität der Technologie,
noch in den Anfängen.
Next: 3 VLANs - Virtuelle
Up: Management von ATM-Netzen und
Previous: 1 Einleitung
Gerhard Müller, Fri Sep 19 22:12:34 CET 1997