Einstieg in die

March 8, 2018 | Author: Anonymous | Category: N/A
Share Embed


Short Description

Download Einstieg in die...

Description

I/2000

Großes Gewinnspiel auf Seite 96 DM 9,80 ÖS 75,-

Sfr. 9,80

Dezember 1999/ Januar, Februar 2000

Dez. 1999/Jan., Feb. 2000

Highlights der Netzwerktechnik

Highlights der Netzwerktechnik

www.lanline.de

Einstieg in die Netzwerktechnik Das kleine Switch-Einmaleins Wieviel Layer braucht der

Drahtlose Datenübertragung Transferraten bis 24 MBit/s

Fragebogenaktion: Marktübersicht Netzwerkhersteller und Distributoren 01 4 3 94 2 02 8 09 8 03

B 30673

ISSN 0942-4172

EDITORIAL NETZWERKMARKT

139. AUSGABE

Rainer Huttenloher

ALLER EINSTIEG IST SCHWER

Das Titelbild dieses Sonderhefts zeigt ein typisches Szenario: Vernetzung ist angesagt, doch es bleibt die Frage nach der richtigen oder zumindest adäquaten Vorgehensweise. Dabei umfaßt die Netzwerktechnik ein großes Feld, das laut den Aussagen auf vielen Marketing-Hilfsmitteln immer einfachere Lösungen hervorbringt. Doch die Anforderungen der Anwender steigen wesentlich schneller: War gestern noch der Zugang zum Internet generell das Thema in vielen kleinen und mittleren Unternehmen, so stehen heute Sicherheitskonzeptionen oder High-Speed-Zugänge beziehungsweise die WAPTechnik im Mittelpunkt des Interesses. Vor diesem Hintergrund erscheint es geradezu als logische Konsequenz, daß die Netzwerkbranche “neues Blut” anzieht. Viele Computer-Kenner sehen sich mit der Forderung ihrer Auftraggeber nach einer optimalen Vernetzung konfrontiert. Doch das Wissen um diese Technik fällt einem nicht in den Schoß. Mit diesem Sonderheft der LANline-Redaktion wollen wir den Einstieg in diese Welt leichter machen. Grundlagenwissen, beste Vorgehensweisen und die Vorstellung der wichtigen Technologien sind hier zusammengefaßt. “Garniert” wird diese Basisinformation noch von zwei aktuellen Übersichten, in denen wir zum einen die Hersteller von Netzwerkprodukten und zum anderen die entsprechenden Distributoren abgefragt haben. Damit soll Ihnen, lieber Leser, der Zugriff auf die entsprechenden Produkte erleichtert werden. Neben dieser geballten Information möchte ich Ihnen aber auch noch unser Gewinnspiel ans Herz legen. Auf Seite 96 sind die Preise und Details aufgeführt. Unter der Web-Adresse http://www. lanline.de/gewinnspiel brauchen Sie nur die wenigen Fragen beantworten, ihre Adresse angeben, und schon nehmen Sie an der Verlosung teil. Aber bitte beachten Sie: Nur wer bis zum 28. Februar 2000 das Formular ausfüllt, kann gewinnen. Ich hoffe, daß Ihnen dieses Sonderheft helfen kann und Ihnen den Einstieg in die Netzwerktechnik erleichtert. Vielleicht haben Sie ja auch noch weitergehenden Informationsbedarf. Der läßt sich mit einem Abonnement der LANline stillen. Unentschlossene können erst noch auf unserer Website etwas stöbern. Dazu noch ein Tip: Eine erste Hilfe gegen das Fachchinesisch der Netzwerkbranche – online versteht sich – bietet Ihnen unser LANline-Lexikon unter http://www.lanline.de/ framed/lexikon/lex/index.htm.

Ihr Rainer Huttenloher (Chefredakteur LANline)

INHALT

Mit Hilfe des Kabelmodems wird das breitbandige CATV-Netz IP-tauglich (Seite 68)

Erst kommt der Klick zum Browser – und schon sprudeln die Informationen auf den Bildschirm (Seite 56)

ATM und Gigabit Ethernet im Mischbetrieb Geteilte Dominanz..............................14 Ethernet verabschiedet Legacy Wieviel Layer braucht der Switch?....18 Verkabelung für Gigabit-Anwendungen Jahrtausendstandards in zweiter Auflage...............................24

DRAHTLOSE KOMMUNIKATION Funkübertragung mit High-Speed Drahtlos und lokal zugleich................28 Kabellos mit 16 MBit/s Push für Infrarot..................................33 Von GPRS zu UMTS Mobile Datenautobahn....................... 34

Ausfallsicherungen für Server-Systeme Hochverfügbarkeit à la Carte............. 38

Einstieg in die automatische Datensicherung Achtung: Hier lädt der Automat.........48 Unterbrechungsfreie Stromversorgung Der Granat im Hintergrund................ 52

Impressum...........................................41 Inserentenverzeichnis......................... 97 Fax-Leser-Service...............................98

4

L AN line Spezial Highlights I/2000

Switches haben sich im Zuge der immer feineren Segmentierung klassischer Legacy-LAN-Segmente aus den auf der Schicht 2 arbeitenden Bridge-Techniken entwickelt. Im Laufe der Marktentwicklung wurden immer weitere Funktionen in die Switches integriert. Heute spricht man vom Layer-2-, Layer-3- und Layer-4-Switching. Was sich dahinter verbirgt und wie man die jeweiligen Funktionen für das Netzdesign nutzt, beschreibt der folgende Beitrag.

E

18

ine Bridge verwendet zum Datentransport die Store-and-Forward-Technologie. Dabei überprüft die Bridge die Zieladresse jedes empfangenen Pakets. Anhand dieser Information trifft die Bridge die Entscheidung, ob dieses Datenpaket an ein anderes angeschlossenes LAN-Segment weitergeleitet werden muß oder ob es sich um lokalen Datenverkehr handelt. Vor dem Weiterleiten auf das andere Segment wird das gesamte Datenpaket in einen Zwischenspeicher kopiert. Diese Information wird anschließend an den Netzcontroller weitergereicht, an dem das Zielgerät angeschlossen ist. Diese Vorgänge benötigen Zeit und begrenzen den Durchsatz. In modernen Netzen kommt es auf eine hohe Verarbeitungsgeschwindigkeit an. Die Weiterentwicklung der Bridges zu Multiport-Bridges mündete schließlich in der ersten Switch-Generation. EthernetSwitches unterschieden sich grundsätzlich in ihrer Transporttechnologie:

and-Forward-Switches ermöglichen den direkten Übergang zwischen verschiedenen Übertragungstechniken. Der Übergang bei den unterschiedlichen Übertragungsgeschwindigkeiten (10/100/1000 MBit/s) wird beim Ethernet mit Hilfe der Store-and-Forward-Technik auf der Schicht 2 realisiert. CUT-THROUGH-FORWARDING-SWITCHING Beim Cut-Through-SwitchingVerfahren wird der Forwarding-Prozeß

sofort gestartet, wenn die 6 Byte der Destination-Adresse des zu transportierenden Datenpakets vom jeweiligen Empfänger-Port erkannt wurden. Diese Switching-Methode reduziert die Verzögerungszeit zwischen dem Empfangsund dem Sende-Port, weil niemals der gesamte Datenrahmen vom Switch zwischengespeichert werden muß. Der Vorteil des Cut-Through-Switchings besteht deshalb in der Geschwindigkeit des Verfahrens. Da ein Cut-Through-Switch die Daten niemals vollständig zwischenspeichert, hat dieser jedoch nicht die Möglichkeit, die Gültigkeit des jeweiligen Datenpakets zu überprüfen. Dies bedeutet, daß jedes Paket, egal, ob es sich um ein zu kurzes, zu langes, oder defektes Paket handelt, sofort nach dem Erkennen der Destination-Adresse weitergeleitet wird. Cut-Through-Switches sind außerdem nicht in der Lage, bestimmte Datenpakete aus dem Datenstrom auszufiltern. Um diese Defizite zu beheben, wurde von einigen Herstellern ein AdaptiveCut-Through-Switching-Verfahren entwickelt. Hier wird bei der Übertragung der Pakete kontinuierlich deren Gültigkeit untersucht. Im Fall einer hohen Anzahl (Schwellwert einstellbar) an ungültigen Datenpaketen schaltet der Switch in den Store-and-Forward-Modus um.

Store-andForwardSwitch-Logik Puffer 2 Puffer 3

Port 1

Port 2

Port 3

PC1

PC2

PC3

Port 4

STORE-AND-FORWARD-SWITCHING

Wie bei den Bridges wird bei der Storeand-Forward-Technik ein ankommendes Paket erst vollständig zwischengespeichert, bevor es an den Ausgangs-Port vermittelt wird. Da diese Switches das gesamte Paket bearbeiten, können die Geräte zur Filterung von Ereignissen und bestimmten Adressen verwendet werden. Die Store-

18

File Server virtuelle Verbindung zwischen PC1 über Switch-Logik und File Server

Switching auf der Schicht 2 des OSI-Modells

L AN line Spezial Highlights I/2000

INTERNET-TECHNIK Internet-Kommunikation unter der Lupe Vom Klick zur Site.............................56 XML als Schnittstelle Warum kompliziert, wenn’s auch einfach geht?................. 60

Grundlagen der Firewalls Erweiterungen gefragt........................ 66 RUBRIKEN

Wieviel Layer braucht der Switch?

Trends bei Bandlaufwerken und -bibliotheken Für die goldene Mitte......................... 44

Proxy-Technik für Einsteiger Proxy-Server als “All-in-one-Lösung”...........................64

Editorial.................................................3

LAN-BACKBONE UND INFRASTRUKTUR

ETHERNET VERABSCHIEDET LEGACY

Puffer 1

Gigabit-Ethernet-Spezifikationen Maximum Speed im Backbone............6

SERVER-TECHNIK

Puffer 4

LAN-BACKBONE UND INFRASTRUKTUR

ZUGANGSTECHNOLOGIE Modems fürs Breitbandkabel CATV-Netz wird IP-fähig..................68 Einführung von XDSL-Diensten Das Netz muß dafür vorbereitet sein..71 Schnelle Netzzugänge im Wettbewerb ADSL auf der Überholspur................ 73

MESSAGING Unified Messaging Vereinigte Nachrichten.......................76 Trends bei Faxlösungen Integration und Erweiterung...............80

Großes Gewinnspiel auf Seite 96

I/2000

DM 9,80 ÖS 75,-

Sfr. 9,80

Dezember 1999/ Januar, Februar 2000

Dez. 1999/Jan., Feb. 2000

Highlights der Netzwerktechnik

Highlights der Netzwerktechnik

www.lanline.de

Einstieg in die Netzwerktechnik Das kleine Switch-Einmaleins Wieviel Layer braucht der Switch?

Drahtlose Datenübertragung Transferraten bis 24 MBit/s

Fragebogenaktion: Marktübersicht Netzwerkhersteller und Distributoren

85

01 4 3 9 42 02 80 9 80 3

B 30673

ISSN 0942-4172

ÜBERSICHT: NETZWERK-HERSTELLER

Marktübersicht: Netzwerk-Hersteller

FUNKÜBERTRAGUNG MIT HIGH-SPEED

Drahtlos und lokal zugleich Der Markt für Wireless-LANs ist in Bewegung geraten. Nach der bereits 1997 erfolgten IEEEStandardisierung, allerdings nur bis Datenraten von bis zu 2 MBit/s, kamen eine Vielzahl kompatibler Produkte auf den Markt. Jetzt werden erste Lösungen angeboten, die für den Hochgeschwindigkeitsbereich konzipiert sind. Als Übertragungsraten im Hiperlan sind zum Beispiel 24 MBit/s heute schon verfügbar.

Als reif für den Massenmarkt gelten sie bereits seit Jahren, die drahtlosen Netze. Doch der so oft beschworene große Boom will sich einfach nicht einstellen. Das Wachstum ist eher gemächlich, verglichen mit anderen Marktsegmenten, wenngleich kontinuierlich. Nach Voraussagen von IDC soll der Umsatz im Jahre 2000 bei 839 Millionen Dollar weltweit liegen und 2001 auf gut eine Millarde Dollar steigen, 2002 dann sprunghaft auf 1,3 Millarden Dollar anwachsen. Dabei ist laut IDC die Jahrtausendmarke der Zeitpunkt, ab dem es wirklich aufwärts geht. Den Grund sehen die Marktauguren darin, daß erst dann ein Standard im Hochgeschwindigkeitsbereich vorliegt, den die Anwender abwarten. Ob es allerdings wirklich ein Standard wird, ist derzeit noch nicht klar abzusehen. Bereits 1997 wurde mit der IEEE 802.11 eine Spezi-

28

fikation verabschiedet, die einige Hersteller und viele potentielle Käufer aufatmen ließ. Sie umfaßt drei Technologien zur drahtlosen Da-

(DSSS), 2 MBit/s sowie Infrarot. Doch dieser Standard reiche, so IDC, längst nicht aus, um ein überdurchschnittliches Wachstum zu generieren. Die Interoperabilität zwischen Produkten unterschiedlicher Hersteller sei noch nicht vollständig gewährleistet, klare Migrationspfade zu schnelleren Lösungen stünden noch aus – ebenso wie deutliche Signale aller wichtiger Anbieter, die Standards zu unterstützen. So existiert neben IEEE 802.11 mit Open Air ein weiterer Defacto-Standard. Unter Führung von Proxim haben sich im Wireless-LAN-Interoperability-Forum (WLIF) mehr als 22 OEMs und Anbieter von Wireless-LAN-Lösungen zusammengeschlossen, eine durchaus ernstzunehmende Marktmacht.

Schon 1994 wurden mit ETS 300328 die technischen Voraussetzungen für das ISMBand zwischen 2,4 und 2,4835 GHz definiert und die Zulassungskriterien für Datenfunksysteme in diesem Frequenzband festgelegt. 1997 erfolgte die Ausdehnung des Gültigkeitsbereichs für den Betrieb von FunkLAN-Systemen auf grundstücksübergreifende Datenübertragungen, wobei die betreffenden Grundstücke ausdrücklich keine wirtschaftliche Einheit bilden müssen. Funk-LANs sind dabei anmelde- und gebührenfrei. Voraussetzung für die Zulassung ist lediglich ein bestandener Test bei einem unabhängigen, akkreditierten Testlabor oder in Deutschland des Bundesamts für Post und Telekommunikation. Ebenfalls im Jahre 1997 wurde

(000) 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 1997

1998

1999

Network interface cards

2000

2001

Access bridges

2002

2003

Building-to-building bridges

Kontinuierliches Wachstum prophezeien die Marktforscher den drahtlosen Lösungen (Quelle: IDC, 1998)

tenübertragung: 2,4 GHz Frequency Hopping Spread Spectrum (FHSS), 1 und 2 MBit/s; 2,4 GHz Direct Sequence Spread Spectrum

Blickt man auf die letzten drahtlosen Jahre zurück, so ist bereits einiges geschehen, um WLANs aus dem Nischenmarkt herauszuführen.

mit IEEE 802.11 der bereits angesprochene Standard für drahtlose LANs verabschiedet, wobei Kompatibilität natürlich nur zwischen Lö-









● ●















● ●

Peripheriegeräte



Server-Hardware



● ●

Verschlüsselungsprodukte



Firewalls

● ●

Backup-Systeme

● ●

● ●

Serverrelevante Produkte

RAID-Subsysteme

● ●

● ●

Sicherheit

USVs



Kabel-Meßtechnik

● ●

Produkte für »Drahtlose Netzwerke«

● ● ● ● ●

Protokollanalysatoren



ISDN-Meßgeräte





Meßtechnik

● ●

● ● ●









● ●





























● ●













● ● ●

Alcatel Internetworking Allied Telesyn International

++49(0)61 7292-5846 030/4359000

Alstom Alteon Websystems AMP

06976649-2348 ++1-408 3605500 06251/1330

APC Apcon, Inc.

089/51417-0 503-639-6700

Arco Computer Producs ARtem A.T. Schindler Comm.

954-1925-2688 0731/392-5800 613-723-1103

ATI electronique Atto Technology

08142/286438 716-691-1999

AVM Axent Technologies AXIS Communications

030/39976-0 089/99549-0 ++46-46 270 1800

BBCom bedea Berkenhoff&Drebes

040/7678-0 06441/801-0

Benchmark Tape Systems Frank Bernard BinTec Communications

001-720 406 5130 0700/FIREWALL ++49 9 11/9673-0

Biodata Breezecom

06454/9120-18 +972-3-6456262

Brockmeyer BTR CA Computer Associates

0203/9956-0 07702/533-0 06151/949-0

Cabletron Systems Cellpack

06103/991-0 07741/6007-85





Cisco Systems CNet Technology Comed

01803/671001 02159/526-0 08191/965596





Compex Systems Compulan Europe

++65-286-2086 06003/815-0



Conectis

0511/6301-166









● ● ●

● ●

● ●

● ●

● ●



● ●



















































● ● ● ● ● ● ● ●





● ●







● ●









● ●















● ●





● ●

● ●









● ● ●

● ●







● ●











● ●

● ● ●

● ● ●

● ● ●

● ● ●

● ● ●





● ●

● ●

● ●

● ●



































● ●









● ●



LANline Spezial Highlights 1/2000



DRAHTLOSE KOMMUNIKATION

● ● ● ●



Multiplexer

925 937 7900 030/6170054

Aladddin Knowledge Systems 089/89422185 Albert Ackermann 02261/83-0 Alcatel Cabling Systems 07166/27-2653



Modems

AG Group, Inc. AGFEO



Netzwerkkarten

Passive Netzwerkkomponenten 0251/92108-0 089/456406-0 089/89577-527

ISDN-Equipment

04102/488-0 02102/420694

ADA Das Systemhaus Adaptec ADVA AG

Switches

++49-21 31-14-0 +44-1628 402800 03-598-9090 ext 306

Acer Computer Acome

Hubs

089/25000-0

3M Deutschland 8x8 Inc Abo Com Systems, Inc.

Verkabelungszubehör

Telefon

3Com

Verkabelungssysteme

Hersteller

Router

Aktive Netzwerkkomponenten

85

28

L AN line Spezial Highlights I/2000

DISTRIBUTION Distribution im Netzwerkmarkt Der Mehrwert entscheidet...................................................83 Marktübersicht: Netzwerkhersteller..............................................................85 Marktübersicht: Netzwerkdistributoren.........................................................90

GEWINNSPIEL Gewinnspiel Mitmachen und gewinnen!.................................................96

L AN line Spezial Highlights I/2000

5

LAN-BACKBONE UND INFRASTRUKTUR

APPLIKATIONEN FORDERN HOHE BANDBREITEN Durchschnittliche Appli-

GIGABIT-ETHERNET-SPEZIFIKATIONEN

Maximum Speed im Backbone Der zunehmende Bandbreitenbedarf, der durch die Einführung neuer Applikationen entsteht, führt immer mehr Unternehmen zu einer Entscheidung für eine neue leistungsfähige Backbone-Technologie. Dabei stehen zur Zeit ATM und Gigabit Ethernet als inzwischen ernstzunehmende Konkurrenz zur Auswahl. Für diese Entscheidung sollte man zuallererst die Technologien und ihre möglichen Anwendungsgebiete verstehen.

thernet ist die zur Zeit verbreitetste Netzwerktechnologie. Die Marktforscher aus dem Hause IDC gehen von einem derzeitigen Marktanteil von über 85 Prozent aus. Das entspricht etwa 135 Millionen Ethernet-Knoten. Damit ist Ethernet die Technologie, die Netzwerkadministratoren am besten vertraut ist. Der große Erfolg von Ethernet und Fast Ethernet ließ die Entwickler folgende Ziele für Gigabit Ethernet formulieren: • interoperabel mit Ethernet und Fast Ethernet – auf die installierte Basis von NICs kann zurückgegriffen werden – sichert die Investition von Hubs, Switches und Routern – Netzwerkmanagement kann weiterhin genutzt werden • einfache Mechanismen zur Kommunikation von 10, 100, und 1000 MBit/sSystemen – keine Fragmentation der Frames – Encapsulation Verfahren nicht notwendig – keine Übersetzung der Frames • konform zum Ethernet-Standard – gleiches Frame-Format – Minimum- und Maximum-FrameGröße wird beibehalten – CSMA/CD-Zugriffsmethode wird genutzt. Damit ist Gigabit Ethernet 100 Prozent kompatibel zu Ethernet und Fast Ethernet, und somit kann auf die breite instal-

E

6

L AN line Spezial Highlights I/2000

lierte Basis und das vorhandene Knowhow der Netzwerkadministratoren zurückgegriffen werden. Auf den ersten Blick stellt der Einsatz von Gigabit Ethernet im Backbone also keinen Lernaufwand dar. Trotzdem müssen sich die Administratoren mit einer Vielzahl neuer Funktionalitäten der Gigabit-

kationen wie Textverarbeitung oder Tabellenkalkulationen benötigen eine maximale Bandbreite von 1 MBit/s. Eine Mikrosegmentierung von vier bis zehn Nutzern pro Segment erweist sich hier als vollkommen ausreichend. Selbst ein MPEG-Videostrom benötigt maximal 2 bis 9 MBit/s. Zu den bandbreitenhungrigen Anwendungen gehört allerdings die Datensicherung, die bei der Ausbaustufe heutiger Server oft nicht mehr über Nacht beendet werden kann. Dort wird das Netzwerk zusätzlich während des Tagesgeschäfts belastet. Eine schnelle GigabitEthernet-Verbindung ist hier eine willkommene Lösung. Die Verarbeitung aufwendiger Grafiken erfordert sowohl leistungsfähige Workstations als auch ein leistungsfähiges Netzwerk. Erzeugen Endstationen noch nicht mehr als 100 MBit/s auf dem Netzwerk, so benötigt eine Vielzahl solcher sogenannten PowerUser eine entsprechende “Verbesserung” im Backbone. Kommunizieren mehrere

Zulässige Distanzen von Gigabit-Ethernet-Strecken

Ethernet-Switches auseinandersetzen, da sich die Entwickler der Gigabit-Ethernet-Komponenten an den Funktionen der ATM-Komponenten orientieren. Administratoren müssen solche im GigabitEthernet-Standard nicht enthaltene Funktionen verstehen, um sie sinnvoll einsetzen zu können.

Power-User mit dem leistungsfähigen Server, reicht eine Fast-Ethernet-Verbindung zum Server nicht mehr aus. Solche aufwendigen Grafiken finden wir heute bei medizinischen Anwendungen und wissenschaftlichen Modellierungen. In Druckereien wurde Gigabit Ethernet frühzeitig eingesetzt. Auch die Größe

von Internet-/Intranet-Dokumenten verlangt durch große Bilder, Video- oder Tonsequenzen eine entsprechend große Datenautobahn. Die Notwendigkeit, die Bandbreite im Backbone je nach Anschlußgeschwindigkeit der Endstatio-

einander, erfolgt an der Knotenstelle unwiderruflich ein Stau der Wassermassen. Nur der Einsatz eines breiteren Wasserrohrs kann hier Abhilfe schaffen. Die Geschwindigkeit von Servern und Workstations stellen heute keinen Flaschenhals mehr dar. Schon 1965 stellte Gordon Moore fest, daß sich die Anzahl von Transistoren auf einem Mikrochip und seine Rechenleistung etwa alle 18 bis 24 Monate verdoppelt. Und Carrier Extension: Jedes Paket, das kleiner ist als 512 Byte, wird mit tatsächlich bestätigFüllsymbolen (Carrier Extension) aufgefüllt te sich diese Theorie bis zum heutigen nen/Switches zu erhöhen, entspricht der Tage. In den mehr als 25 Jahren wuchs Funktionsweise eines Kanalsystems: die Transistoranzahl von 2300 TransistoTreffen mehrere gleich große mit Wasser ren (4004 im Jahre 1971) auf über sechs gefüllte Rohre an einem Knotenpunkt auf- Millionen Transistoren auf einem Pen-

tium-II-Xeon-Prozessor (Quelle: Intel). Die steigende Prozessorgeschwindigkeit und die 66-MHz-64-Bit-PCI-Bus-Technologie stellen die für Gigabit Ethernet benötigten Geschwindigkeiten zur Verfügung. TECHNOLOGISCHE ASPEKTE Der erste

und zunächst auch wichtigste Teil von Gigabit Ethernet (IEEE 802.3z) ist bereits seit Juni 1998 standardisiert. Dabei handelt es sich um die drei physikalisch unterschiedlichen Technologien: 1000Base-SX, 1000Base-LX und 1000Base-CX. Die Verabschiedung des 1000Base-T-(IEEE802.3ab-)Standards wird noch im März 1999 erwartet. Da die ersten Gigabit-Ethernet-Komponenten der meisten Hersteller schon seit über einem Jahr auf dem Markt sind, haben sie ihre Kinderkrankheiten überwunden. Man kann heute von einer stabilen Technologie sprechen.

L AN line Spezial Highlights I/2000

7

LAN-BACKBONE UND INFRASTRUKTUR

CARRIER EXTENSION UND PACKET BURSTING Die Einordnung von Gigabit

Ethernet unterhalb von IEEE802.3 verlangt die Erfüllung der im Ethernet-Standard spezifizierten Zugriffsmethode CSMA/CD sowie die Einhaltung der minimalen und maximalen Frame-Größe. Um diese Forderungen erfüllen zu können, mußten zwei

breite von Gigabit Ethernet im Full-Duplex-Modus beträgt also volle 1000 MBit/s in jeweils jede Richtung. DIFFERENTIAL MODE DELAY (DMD) Die

Übertragung mit den hohen Frequenzen stellte die Gigabit-Ethernet-Entwickler vor neue Aufgaben: Die verwendeten Laser-

vermutet. Es tritt weder mit MonomodeFasern noch bei Kupferkabeln auf. Dieses Phänomen wurde bei 1000Base-SX durch eine konkave Linse vor dem Laserausgang behoben. Bei 1000Base-LX hilft ein spezielles Patch-Kabel. Wegen der hohen Frequenzen haben Qualitätsschwankungen der LWL-Faser große Auswirkungen. Bei Abnahme der LWL-Verkabelung für eine Gigabit Ethernet-Strecke im Multimode-Bereich sind daher zusätzliche Messungen zu empfehlen: Zusätzlich zu den bisherigen Dämpfungsmessungen sollte eine OTDR- Messung durchgeführt werden, wobei man die Steckverbindungen mit einschließen sollte. Nur mit diesen Messungen läßt sich eine einwandfreie Gigabit-Ethernet-Übertragung ohne störende Streuung (Dispersion) sicherstellen. AB MÄRZ 1999: 1000BASE-T (IEEE 802.3AB) Die Entwicklung des 1000Base-

Ein typisches Ethernet-Netzwerk, bei dem den Usern je nach Bedarf 10/100 MBit/s geswitcht oder geshart zur Verfügung gestellt wird. Entsprechend wird die Bandbreite im Backbone-Bereich erhöht

spezielle Techniken für Gigabit Ethernet entwickelt werden: Carrier Extension und Packet Bursting. Ein Nachteil dieser Techniken ergibt sich aus einer verringerten Nutzdatenübertragung. Da der Einsatz dieser Techniken aber nur im Half-Duplex-Modus benötigt wird, bieten die Hersteller fast nur Komponenten an, die im Full-Duplex-Modus operieren und damit die schlechte Nutzdatenübertragung eliminieren. Die tatsächliche Band-

8

L AN line Spezial Highlights I/2000

dioden regen mehrere Moden in einer Faser an, die dann unterschiedlichen “Lichtpfaden” (durch unterschiedliche Brechung) folgen. Da diese Pfade von unterschiedlicher Länge sein können, ist auch die Verzögerungszeit unterschiedlich, so daß schlimmstenfalls aus einem Lichtimpuls zwei unabhängige Impulse resultieren. Das Differential Mode Delay wird nicht bei allen Glasfasern beobachtet. Eine konvexe Eingangsform des Kabels wird als Ursache

T-Standards wurde in die Gigabit-EthernetNorm 802.3z nicht mit aufgenommen. Aufgrund der hohen Übertragungsfrequenzen rechnete man mit Verzögerungen. Die tatsächliche Standardisierung erwartet man jetzt im März dieses Jahres, nachdem es zum geplanten Termin im November 1998 nicht geklappt hatte. Der Standard wird die Übertragung von 1000 MBit/s über Twisted-Pair-Kategorie-5-Kabel definieren, wobei alle vier Kabelpaare zur gleichzeitigen Übertragung in beide Richtungen genutzt werden. Dieser Standard soll zukünftig genutzt werden, um Endgeräte über die vorhandene Kategorie-5-Verkabelung mit Gigabit Ethernet anzubinden. Standen allerdings bei 1000Base-LX und 1000BaseSX schon vor der Fertigstellung des Standards Geräte zur Verfügung, halten sich die Hersteller bei der Entwicklung von 1000Base-T-Komponenten bisher zurück. Die Absatzchancen sind noch zu gering, Gigabit Ethernet als Endgeräteanschluß ist noch Zukunftsmusik. EINSATZBEREICHE VON GIGABIT ETHERNET Die ersten Einsatzbereiche von

Gigabit Ethernet waren Punkt-zu-PunktVerbindungen zwischen Fast-EthernetSwitches. Inzwischen hat sich das Spek-

LAN-BACKBONE UND INFRASTRUKTUR

trum von Gigabit-Ethernet-Komponenten stark verbreitert. Von Uplink-Modulen für Fast-Ethernet-Switches über InterfaceKarten für Endgeräte und Gigabit-Ethernet-Switches mit einer großen Anzahl Gigabit-Ethernet-Ports und einer entsprechend leistungsfähigen Backplane hat sich auch ein neuer Gerätetyp entwickelt: Der Buffered Repeater. Dieses Gerät leitet wie ein Repeater alle empfangenen Pakete an alle Ports weiter. Der Anschluß der Endgeräte erfolgt im Full-Duplex-Modus, um die Nachteile des CSMA/CD-Verfahrens bei Gigabit Ethernet auszuschließen. Die empfangenen Pakete werden zwischengespeichert und per CSMA/CD-Zugriffsmethode auf den internen Bus an alle Ports weitergegeben. Der Vorteil dieses Geräts ist sein geringer Preis, seine Nachteile liegen in verringerter Gesamtkapazität und Funktionalität. Die heutigen Interface-Karten für Endgeräte unterstützen ausschließlich den 1000Base-SX-Standard. Der Versuch, 1000Base-CX-Karten auf den Markt zu bringen, scheiterte an den Anschlußmöglichkeiten an Switches oder Buffered Repeater. Für Verbindungen im Backbone wird fast ausschließlich der 1000Base-LXStandard eingesetzt. Allerdings können mit Multimode-Fasern maximal 550 Meter überbrückt werden, wobei der Faserdurchmesser und das Bandbreitenlängen-Produkt des Kabels die maximale Entfernung bestimmen. In Deutschland wird normalerweise ein Durchmesser von 50 µm verwendet, was zu maximal 550 Metern führt. Auf jeden Fall sollte dieser Wert verifiziert werden, so daß ein Engpaß ausgeschlossen werden kann. Die Entfernungsbegrenzungen im Monomode-Bereich werden inzwischen von einigen Herstellern nahezu aufgehoben. Sie bieten Entfernungen von bis zu 100 Kilometern an, die allerdings nicht dem Standard entsprechen! Ein Wellenlängen-Multiplexer erlaubt die Übertragung mehrerer Gigabit-Ethernet-Verbindungen auf nur einer Monomode-Glasfaserstrecke. So wird die Übertragungskapazität einer LWL-Strecke ohne großen Aufwand stark erhöht. Eine Monomode-Faser genügt, um die Datenströme

10

L AN line Spezial Highlights I/2000

von beispielsweise vier 1000Base-SXoder 1000Base-LX-Verbindungen gleichzeitig zu übertragen. Besonders interessant ist das für den einfachen und schnellen Ausbau existierender Infrastrukturen. Hier kommt man ohne eine kostspielige und zeitaufwendige Neuverkabelung aus. Entfernungen bis 100 Kilometer und Kapazitäten von etwa 8000 MBit/s auf einer Monomode-Strecke macht Gigabit Ethernet nicht nur als Datenautobahn im LANBackbone, sondern auch für City-Carrier oder andere MAN-Anwender in Zukunft sehr interessant. Der einfachere Übergang in das WANUmfeld bleibt allerdings nach wie vor der ATM-Technologie als Pluspunkt erhalten. Da der Gigabit- Ethernet-Standard selbst keine Multimedia-Spezifikationen wie ATM aufweist, werden zusätzliche offene Standards benötigt. Die meisten SwitchHersteller integrieren daher zusätzliche Funktionen, die ein Ethernet-Netzwerk robuster und vielseitiger werden lassen. Diese Funktionen können dabei herstellerspezifisch oder an einen Standard gebunden sein. Die Vielzahl neuer Begriffe und Funktionen, die auf den Anwender einströmen, müssen eingeordnet werden. Es ist also gezielt darauf zu achten, welche Funktionen ein Gigabit-Ethernet-Switch bietet und welche dieser Funktionen tatsächlich standardisiert sind. Für den immer größer werdenden Bedarf an Multicast-Anwendungen wie Video-onDemand, verteilte Entwicklung oder Dokumentenverarbeitung, elektronische Verteildienste und Konferenzen unterstützen die meisten Switches IGMP (Internet Group Message Protocol). Dieses Protokoll ermöglicht die dynamische Anmeldung bei einer Multicast-Anwendung und verringert so die Broadcast-Last auf dem Netzwerk. Switches mit Layer-3-Funktionalität sollten bei der Verwendung von MulticastAnwendungen auch eines der MulticastRouting-Protokolle wie zum Beispiel DVMRP (Distance Vector Multicast Routing Protocol ) oder PIM (Protocol Independent Multicast) unterstützen. Quality of Service zur Übertragung von verzögerungssensiblen Daten wie Videound Audioströme im Ethernet wird durch

eine neue IP-basierte Protokollfamilie ermöglicht. Das neue Transport-Protokoll RTP (Realtime Transport Protokoll) befördert Echtzeitdaten und versieht sie mit einer Zeitmarke, die eine Information über die Verzögerung ermöglicht, Nutzdateninformation zur Wiederherstellung so wie einer Aussage über die Empfangsqualität. Anwendungen können über das RSVP (Resource Reservation Protocol) eine bestimmte Bandbreite und Übertragungsverzögerung reservieren. Dafür werden vor einer Datenübertragung per RSVP-Paket bei jedem Switch, der auf dem Weg zu dem Empfänger liegt, die entsprechenden Parameter mitgeteilt. Der Switch entscheidet, ob er diese Parameter garantieren kann. Da der Standard noch nicht verabschiedet ist, haben sich bisher wenige der Hersteller zu einer Implementierung dieser Protokollfamilie entschieden. Um eine sinnvolle Nutzung zu ermöglichen, müssen jedoch alle Switches und die Applikationen RSVP unterstützen. Die bevorzugte Behandlung von Paketen wird durch den IEEE-Standard 802.1p (Priorisierung) abgedeckt. Dabei erhalten die Pakete eine zusätzliche Information (Tag), die es erlaubt, Paketen eine Priorität zuzuordnen. Die Switch-Hersteller unterstützen diese Prioritäten in der Switch-Architektur mit mehreren Warteschlangen pro Port. Vergleichbar mit First-, Business- und Economy Class beim Fliegen, wird das FirstClass-Paket immer als erstes auf das Transportmedium gelangen. Voraussetzung ist auch wie beim Fliegen eine geringe Anzahl solcher Pakete. In Überlastsituationen kann die bevorzugte Weiterleitung nicht garantiert werden, genausowenig wie FirstClass-Passagiere bei Nebel den Flughafen früher verlassen können. Da keine Verzögerungszeit oder Bandbreite zugesichert werden kann, spricht man hier auch von Classes of Service. Damit bei Überlastsituationen keine Pakete verloren gehen und aufwendig wiederhergestellt werden müssen, unterstützen die Gigabit-Ethernet-Switches den IEEE 802.3x-(Flow Control-)Standard. Kurz vor Überlastung eines Input/Output-Buffers im Switch wird eine Nachricht an den Sender abgeschickt, die eine Verzögerung beim

LAN-BACKBONE UND INFRASTRUKTUR

Senden weiterer Pakete fordert. Durch diese Pause muß der Switch kein Paket verwerfen, nach Beendigung der Überlastsituation müssen keine Pakete erneut gesendet werden. Natürlich müssen die Sender die 802.1x-Pakete des Switches auch verstehen, das heißt, den Standard unterstützen, da sie sonst weiterhin senden. War bisher der Spanning-Tree-Algorithmus die einzige standardisierte Möglichkeit, um Redundanzen aufzubauen, können durch Einsatz von Layer-3-Gigabit-Ethernet-Switches redundante Verbindungen mit Hilfe von Routing-Protokollen wie RIP, RIP II und OSPF aufgebaut werden. Bei Ausfall einer Verbindung kann ein Paketverlust hierbei nicht ausgeschlossen werden. Aufwendige Recovery-Mechanismen müssen dann von den Protokollen in Gang gesetzt werden. Allerdings kann im Gegensatz zum Spanning-Tree-Algorithmus mit einer enormen Zeitersparnis gerechnet werden. Die zur Zeit auf dem Markt befindlichen Gigabit-Ethernet-Switches unterstützen fast alle mindestens eines dieser RoutingProtokolle und sind in der Lage, IP-

steller bieten einen proprietären schnellen Spanning-Tree-Algorithmus an, der transparent für alle Protokolle eingesetzt werden kann. Allerdings sind diese Techniken

VLAN-ID ist ein Teil von 802.1Q, Priorität von 802.1p

Der Ethernet-Frame-Aufbau mit IEEE802.1p/Q Tag

nicht anwendbar, wenn Komponenten unterschiedlicher Hersteller im Einsatz sind. Eine Erhöhung der Bandbreite mit gleichzeitiger Redundanz ermöglicht das sogenannte Port Trunking. Hierbei können zwei parallele Verbindungen aufgebaut werden, wobei der Switch je nach Auslastung der Verbindung entscheidet, über welchen Weg er das Paket sendet. Das bringt eine enorme Leistungsverbesserung mit sich. Doch nur wenige Hersteller bieten diese Möglichkeit modulübergreifend an, so daß von Hersteller zu Hersteller überprüft werden muß, ob zum Beispiel der preisgünstigere 100Base-FX-Port zu Packet Bursting: Konnte das erste Paket ohne Kollision gesendet werden, kann die Übertragung weiterer Pakete direkt ohne CSMA/CD anRedundanzzwecken geschlossen werden, bis die Summe der Pakete eine Größe von 1518 verwendet werden Byte erreicht (maximale Paketgröße bei Ethernet) kann. Aber auch hier handelt es sich um eiund/oder IPX-Datenpakete mit beschleu- nen proprietären Mechanismus, der zur nigtem ASIC-basierten Routing weiterzu- Zeit nur zwischen Switches des gleichen leiten. Dennoch ist zu beachten, welche Herstellers genutzt werden kann. Protokolle unterstützt werden und daß die Redundanzen nur bei routbaren Protokol- FAZIT Gigabit Ethernet besticht durch ein len eingesetzt werden können. Einige Her- hervorragendes Preis-Leistungs-Verhält-

12

L AN line Spezial Highlights I/2000

nis. Die “Fat Pipe” erschlägt die meisten Probleme und hat die Nachteile des shared Mediums längst abgelegt. Die Hersteller glänzen mit neuen, innovativen Ideen, er-

schweren damit aber auch die Auswahl. Die Möglichkeit zur Sprachübertragung besteht, wird aber im Gegensatz zu ATM noch nicht durch vorhandene Produkte unterstützt. Der Traum eines einzigen Netzwerks für Telefon- und Datenübertragung kann daher zur Zeit nur mit ATM geträumt werden. Es wird klar, daß Schwarzweißmalerei wie immer nicht möglich ist. Beide Technologien haben ihre Vor- und Nachteile, und letztendlich müssen Analysen der Anwendungen, der vorhandenen Strukturen und das Portemonnaie zu einer Entscheidung führen. (Michaela Klinkel/sm) Michaela Klinkel ist Beraterin für Netzwerkdienste bei der Lynx-ctr GmbH. Die Lynx-ctr GmbH Münster, ein IT-Beratungshaus der Lynx-Gruppe, hat in den letzten Jahren bei verschiedenen Projekten entsprechendes Know-how bei der Durchführung von Tests aktiver Komponenten aufgebaut. Gemeinsam mit der Siemens Business Services GmbH & Co. OHG betreibt Lynx ein Kundennetzwerk-Testcenter, in dem Auswahltests von aktiven Komponenten durchgeführt und kundenspezifische Installationen unter Einbeziehung realer Applikationen mit Lastsimulationen und diversen Hard- und SoftwareMeßwerkzeugen nachgebildet werden können.

LAN-BACKBONE UND INFRASTRUKTUR

ATM UND GIGABIT ETHERNET IM MISCHBETRIEB

Geteilte Dominanz Vor einigen Jahren hat Fast Ethernet FDDI überrollt. Droht diese Entwicklung nun auch ATM durch das Gigabit Ethernet? Generell stellt sich in diesem Zusammenhang dem Netzwerkplaner die Frage: Ist es sinnvoll, ATM und Gigabit Ethernet zu mischen?

ie theoretischen Vorteile von Gigabit Ethernet (1000Base-SX/LX) sprechen eine deutliche Sprache. Es handelt sich dabei um die geradlinige Fortsetzung von Ethernet und Fast Ethernet. Es bietet die ganze Bandbreitenpalette und Hochgeschwindigkeits-Routing. Eigentlich muß der Techniker nicht viel Neues lernen, allerdings sind einige Änderungen bei den Entfernungen zu beachten. Im Standard “Gigabit Ethernet Draft – (802.3z/D4.0)” werden folgende Entfernungen für Multimode-Fiber definiert: – 260 Meter über 62,5 µm Durchmesser mit 1000Base-SX-Transceivern, – 550 Meter über 50 µm Durchmesser mit 1000Base-SX-Transceivern, – 440 Meter über 62,5 µm Durchmesser mit 1000Base-LX-Transceivern, – 550 Meter über 50 µm Durchmesser mit 1000Base-LX-Transceivern und mit Single-Mode-Fiber erreicht man 3 km mit 1000Base-LX-Transceivern. Bei diesen Vorgaben stellt sich die Frage nach dem Einsatz von ATM. Die Gigabit Ethernet Alliance meint dazu folgendes: Gigabit Ethernet und ATM sind Technologien, die sich ergänzen, jede hat ihren Platz im LAN. Ethernet und Fast Ethernet haben sich jedoch als die beliebteste und die am meisten verbreitete LAN-Technologie erwiesen, und die Erweiterung durch Gigabit Ethernet wird diese Dominanz noch erweitern. Ethernet, das nun in 10, 100 bis 1000 MBit/s verfügbar ist, kann als Backbone für

D

14

L AN line Spezial Highlights I/2000

Hochgeschwindigkeitsverbindungen zu Server-Farmen, in “Power Workgroups” oder einfach auf normalen Client-PCs genutzt werden. ATM ist ideal für WANVerbindungen (Wide Area Network), wo integrierte Dienste (wie Sprache, Video, Bilder, Daten und Text) benötigt werden und “Real Time”-Anwendungen besonders wichtig sind. ATM kann auch im LAN genutzt werden, wenn die Einbindung einer ATM-WAN-Verbindung ent-

scheidend ist und die Kosten und Komplexität berechtigt sind. Dieses Zitat trifft den Punkt sicherlich aus der Sicht der “Gigabit-Lobby”. Die ATM-Anhänger sehen dies allerdings etwas anders. ATM ist zweifellos die Netzwerktechnologie mit der höchsten Ausfallsicherheit (vollvermaschte, redundante Struktur). Dienste wie Sprache und Video sind heute keine reinen WAN-Dienste mehr. Spricht man doch heute vom “Converged Network”, ein Netz, das alle Dienste integrieren soll. ATM hat somit seine Berechtigung in Netzen mit vielen dieser zeitkritischen Dienste, im WAN und in großen Backbones. Für alle drei Einsatzgebiete sprechen die besseren Managementfunktionen. Für die großen Backbones ab 2000 Nutzer sprechen Punkte wie kein “Routing im Backbone” und die Verfügbarkeit. Routing kostet in der Regel Zeit, deshalb sollte man versuchen, den Router möglichst aus dem Backbone herauszuhalten, ihn vielmehr an den Rand (Edge Routing) zu drängen. Im ATM-Netz ist kein Routing nötig, da wir hier mit di-

Der ATM-Core-Switch ist in diesem Szenario mit fünf OC-12-Verbindungen an die Edge-Switches gekoppelt. Zwei Server sind direkt mit ATM angebunden. Drei modulare Switches setzen auf Fast und Gigabit Ethernet um.

rekten ATM-Verbindungen arbeiten. Da man ATM-Netze voll vermaschen kann, ergibt sich so eine äußerst hohe Ausfallsicherheit. Das Optimum wäre die Kombination aller drei Technologien mit allen spezifischen Vorteilen. Dabei steht der Netzwerkplaner vor der Frage, wie sich ATM und Gigabit Ethernet im Mischbetrieb verhalten und welche besonderen Dienste ein solches Netz bieten muß. Das Schlagwort für diesen Bereich ist die LAN-Emulation (LANE). Ob ATM im Backbone oder zur WAN-An-

die Lösung gibt es zur Zeit zwei Ansätze, Software- und Hardware-basierend. Die Software-Lösung hat bei den hohen Übertragungsraten ein PerformanceProblem, und es kann so zu unangenehmen Verzögerungen kommen. Inzwischen werden Hardware-Lösungen angeboten. 3Com setzt hier beispielsweise auf den ASIC – den “ZipChip 3” (ZC3). Er unterstützt: – Layer-2-Priorisierung (nach 802.1p), – Layer-3-Priorisierung (IP-ToS), – ATM-Priorisierung – QoS sowie

Das Konzept einer WAN-Kopplung von Gigabit-Ethernet-Backbones über ATM

bindung, nur in den seltensten Fällen steht am Ende eine “native” ATM-Anwendung. Im allgemeinen ist am Übergang vom ATM-Netz zum Ethernet die LAN-Emulation notwendig. Wichtig ist hier eine ideale Anpassung von den VLANs (virtuellen LANs) auf die ELANs (emulierten LANs). Im Ethernet werden die VLANs durch sogenannte VLAN-Tags gekennzeichnet. An diesem Etikett erkennen die Layer-3-Ethernet-Switches, zu welchem VLAN das jeweilige Ethernet-Paket gehört. Im ATM-Netz gibt es keine VLANs. Es werden dafür die ELANs gebildet. Die ELANs haben dann kein Tag, sondern fest zugewiesene SVCs (Switched Virtual Channel). Die Aufgabe für den VerbindungsSwitch ist nun die möglichst optimale Verbindung von VLAN und ELAN. Für

– die Zuordnungen dieser Verfahren untereinander. Jeder ZC3 hat eine Paket-zu-ZelleÜbersetzungsrate von 1,25 GBit/s fullduplex und eine Layer-2-Switching-Rate von 7,5 GBit/s. Es können mehrere dieser Chips auf einem Modul arbeiten, um die Leistung zu steigern. Beim Mischnetz verdeutlicht ein Beispiel das Prinzip am besten. Zwei Darstellungen sollen dies erläutern. Im ersten Beispiel kommt ATM im Backbone und Gigabit Ethernet im “Edge-Bereich” zum Einsatz. Die Switches müssen für das ATM-Netz “LAN-Emulation-Clients” (LEC) im Bridge-Verfahren verbinden können und Funktionen wie “LAN-Emulation-Server” (LES), “LAN-Emulation-Configuration-Server” (LECS) und “Broadcast-UnknownServer” (BUS) unterstützen. In großen

L AN line Spezial Highlights I/2000

15

LAN-BACKBONE UND INFRASTRUKTUR

kannten Dienste nutzten können. Das Netz wird mit 802.q in VLANs unterteilt. So erhält man abgeschlossene Benutzergruppen, was sowohl Leistungs- als Layer 2 & 3 auch SicherheitsvorSwitching Engine (7,5 GBit/s) teile mit sich bringt. Zur Priorisierung von zeitkritischen Daten kommt im RISC Data ZipChip™ 3 Beispiel 802.p zum CPU buffer Einsatz. Ein Problem, das nun im MischbeMPOA Client trieb mit ATM aufLAN Emulation Clients tritt, ist die UmsetABR Traffic Management zung dieser Services vom Ethernet ins ATM und zurück. Im ATM-Netz nutzt man statt den Dual OC-12 VLANs die ELANs. Der Switch muß die Die prinzipielle Darstellung des ASIC “ZipChip 3” VLANs in ELANs umsetzen und Netzen mit vielen emulierten LANs soll- zurück. Wichtig ist, daß dieses “VLANte auch “Multi-Protocol-Over-ATM” ELAN-Mapping” ohne großen Zeitver(MPOA) bereit stehen. lust vonstatten geht. Im Beispiel wird das Die LAN-Emulation bildet die IP-Sub- VLAN1 in das ELAN1, das VLAN2 in netze oder VLANs auf die ELANs ab. das ELAN2 usw. umgesetzt. Die PrioriDa man bei vielen ELANs einen Fla- sierung ist im ATM-Netz ebenfalls kein schenhals mit dem ELAN-Routing be- Problem. Interessant ist jedoch wieder kommen kann, gibt es MPOA. MPOA die Umsetzung von “Quality of Service” setzt auf ELANs auf und liefert “Abkür- im Ethernet auf “Class of Service” im zungen” zwischen den ELANs. Hierfür ATM. Nur wenige Switches können zur nutzt man “MPOA- Clients”, welche auf Zeit diese Umsetzung leisten. Folgende den ATM-Switches oder den Edge- Vorteile weist dieses Konzept auf: Switch liegen und den “MPOA-Server”, – schneller Backbone (OC-12 mit Trunking), der im Router integriert ist. Das Bild auf Seite 14 zeigt einen reinen – sichere, redundante Verbindungen durch vollvermaschte Struktur, ATM-Core-Switch, der mit fünf OC-12Verbindungen an die Edge-Switches – gute Managebarkeit und eine geht. Zwei Server sind direkt mit ATM – hohe Leistung für die “Power-Workgroups” und Server-Farmen. angebunden. Drei modulare Switches Als Nachteil des Konzepts lassen sich setzen auf Fast und Gigabit Ethernet um. Workgroup-Stacks binden die Worksta- folgende Punkte aufführen: tions mit Fast Ethernet an und setzen auf – Administratoren müssen ATM und Ethernet verstehen, OC-12 um. Jeder ATM-Edge-Switch besitzt einen redundanten Pfad zum Core- – ein größerer Installationsaufwand sowie Switch. Im Ethernet sollte man die be- – höhere Anschaffungskosten.

10/100 or Gigabit Ethernet

16

L AN line Spezial Highlights I/2000

Will man ATM nicht im Backbone haben, so trifft man möglicherweise bei der WAN-Anbindung auf ATM. Die sehr guten WAN-Eigenschaften von ATM sind bekannt. Besitzt man zwei schnelle Gigabit-Backbones und will diese über eine WAN-Verbindung koppeln, so sind die Verbindungsmöglichkeiten wie E1, E3 oder OC-3 gefragt. Im zweiten Beispiel (siehe Bild Seite 15) wird die Kopplung über eine ATMStrecke dargestellt, die zugleich die Kopplung der Telefonanlagen (PBX) mit einbezieht. Große Telefonanlagen bieten teilweise eine ATM-Schnittstelle. Ist das nicht der Fall, so nutzt man eine serielle Anbindung wie V.35, RS449 oder HSSI. Man benötigt kein “Voice over IP” oder ähnliche Funktionen, die Telefonanlagen werden direkt angeschlossen. Dieses Bild zeigt pro Standort einen Gigabit-Switch und fünf Fast-EthernetEtagen-Switches. Drei Server sind direkt via Gigabit angebunden. Eine weitere Gigabit-Verbindung geht zu einem Switch, der Ethernet in ATM umwandelt. Zur Verbindung der Standorte wird je ein WAN-Switch verwendet, der gleichzeitig die Telefonanlage mit einbindet. Als Resümee kann man sagen, daß ATM und Ethernet gut zusammenarbeiten. Administratoren die ATM im “Core” und Fast oder Gigabit Ethernet in den “Edges” installieren wollen, müssen verhindern, daß ein Flaschenhals am Übergang entsteht. Die ideale Lösung liefert das “Wire-SpeedSwitching” zwischen den Technologien. Stehen die Hochgeschwindigkeitsverbindungen zur Verfügung, so erhält man günstige, flexible “Workgroups” und einen sicheren schnellen Backbone. Schnelle Verbindungen über das WAN stehen ebenfalls zur Verfügung. Aufgrund der hohen Anschaffungskosten und der aufwendigeren Installation ist ATM jedoch nur in großen Netzen oder in Netzen mit vielen Bild- und Sprachdaten zu empfehlen. (Stephan Fritsche/rhh)

LAN-BACKBONE UND INFRASTRUKTUR

Wieviel Layer braucht der Switch? Switches haben sich im Zuge der immer feineren Segmentierung klassischer Legacy-LAN-Segmente aus den auf der Schicht 2 arbeitenden Bridge-Techniken entwickelt. Im Laufe der Marktentwicklung wurden immer weitere Funktionen in die Switches integriert. Heute spricht man vom Layer-2-, Layer-3- und Layer-4-Switching. Was sich dahinter verbirgt und wie man die jeweiligen Funktionen für das Netzdesign nutzt, beschreibt der folgende Beitrag.

ine Bridge verwendet zum Datentransport die Store-and-Forward-Technologie. Dabei überprüft die Bridge die Zieladresse jedes empfangenen Pakets. Anhand dieser Information trifft die Bridge die Entscheidung, ob dieses Datenpaket an ein anderes angeschlossenes LAN-Segment weitergeleitet werden muß oder ob es sich um lokalen Datenverkehr handelt. Vor dem Weiterleiten auf das andere Segment wird das gesamte Datenpaket in einen Zwischenspeicher kopiert. Diese Information wird anschließend an den Netzcontroller weitergereicht, an dem das Zielgerät angeschlossen ist. Diese Vorgänge benötigen Zeit und begrenzen den Durchsatz. In modernen Netzen kommt es auf eine hohe Verarbeitungsgeschwindigkeit an. Die Weiterentwicklung der Bridges zu Multiport-Bridges mündete schließlich in der ersten Switch-Generation. EthernetSwitches unterschieden sich grundsätzlich in ihrer Transporttechnologie:

and-Forward-Switches ermöglichen den direkten Übergang zwischen verschiedenen Übertragungstechniken. Der Übergang bei den unterschiedlichen Übertragungsgeschwindigkeiten (10/100/1000 MBit/s) wird beim Ethernet mit Hilfe der Store-and-Forward-Technik auf der Schicht 2 realisiert. CUT-THROUGH-FORWARDING-SWITCHING Beim Cut-Through-Switching-

Verfahren wird der Forwarding-Prozeß

Puffer 1

E

sofort gestartet, wenn die 6 Byte der Destination-Adresse des zu transportierenden Datenpakets vom jeweiligen Empfänger-Port erkannt wurden. Diese Switching-Methode reduziert die Verzögerungszeit zwischen dem Empfangsund dem Sende-Port, weil niemals der gesamte Datenrahmen vom Switch zwischengespeichert werden muß. Der Vorteil des Cut-Through-Switchings besteht deshalb in der Geschwindigkeit des Verfahrens. Da ein Cut-Through-Switch die Daten niemals vollständig zwischenspeichert, hat dieser jedoch nicht die Möglichkeit, die Gültigkeit des jeweiligen Datenpakets zu überprüfen. Dies bedeutet, daß jedes Paket, egal, ob es sich um ein zu kurzes, zu langes, oder defektes Paket handelt, sofort nach dem Erkennen der Destination-Adresse weitergeleitet wird. Cut-Through-Switches sind außerdem nicht in der Lage, bestimmte Datenpakete aus dem Datenstrom auszufiltern. Um diese Defizite zu beheben, wurde von einigen Herstellern ein AdaptiveCut-Through-Switching-Verfahren entwickelt. Hier wird bei der Übertragung der Pakete kontinuierlich deren Gültigkeit untersucht. Im Fall einer hohen Anzahl (Schwellwert einstellbar) an ungültigen Datenpaketen schaltet der Switch in den Store-and-Forward-Modus um.

Puffer 4

ETHERNET VERABSCHIEDET LEGACY

Store-andForwardSwitch-Logik Puffer 2 Puffer 3

Port 1

Port 2

Port 3

PC1

PC2

PC3

Port 4

STORE-AND-FORWARD-SWITCHING

Wie bei den Bridges wird bei der Storeand-Forward-Technik ein ankommendes Paket erst vollständig zwischengespeichert, bevor es an den Ausgangs-Port vermittelt wird. Da diese Switches das gesamte Paket bearbeiten, können die Geräte zur Filterung von Ereignissen und bestimmten Adressen verwendet werden. Die Store-

18

L AN line Spezial Highlights I/2000

File Server virtuelle Verbindung zwischen PC1 über Switch-Logik und File Server

Switching auf der Schicht 2 des OSI-Modells

LAN-BACKBONE UND INFRASTRUKTUR

Layer-2-Switches arbeiten protokollunabhängig und garantieren eine transparente Verbindung zwischen den Endgeräten. Layer-2-Switches müssen den Standard IEEE 802.1d (Spanning Tree) unterstützen. Daher können auch redundante Backbone-Strukturen realisiert werden. Auf dem Primär-Port werden die Daten übertragen, während der Backup-Port logisch ausgeschaltet ist. Erst bei einem Fehler auf dem Primär-Port wird der Backup-Pfad aktiviert und zur Datenübertragung benutzt. Layer-2-Switches lassen nur flache von der physikalischen Schicht abhängige Netzstrukturen zu. Virtuelle Netze (VLANs) ermöglichen eine logische Strukturierung auf der Schicht 2. Durch VLANs wird über die physikalische Netzstruktur ein logisches Netz gelegt. In den traditionellen Netzen bilden die Endgeräte einer Switch-Gruppe eine physikalische Broadcast-Domäne. Ist die Netzstrukturierung ohne VLANs vom Standort der Mitarbeiter und Endgeräte abhängig, so faßt ein virtuelles LAN Mitarbeiter mit gemeinsamen Interessen zu einer virtuellen Netzgruppe zusammen. Damit können sämtliche Mitarbeiter einer Abteilung zu einer Netzgruppe gebündelt werden, auch wenn diese in verschiedenen Gebäuden angesiedelt sind. Der große Nachteil der Layer-2-Switches besteht jedoch darin, daß beim Wachstum des Netzes oder des VLANs der Broadcast-/Multicast-Verkehr im Netz beziehungsweise auf den Switch-Ports proportional ansteigt. Da jedes BroadcastPaket an alle Ports im Switch oder im VLAN weitergereicht wird, reduziert sich die verfügbare Bandbreite. Die Einführung von Web-Techniken in den Intranetzen und der Aufbau von Server-Farmen brachte die Layer-2-Switches an ihre Leistungsgrenzen. Durch die Server-Farmen wurde der Datenverkehr nicht mehr nur innerhalb eines lokalen virtuellen Netzes transportiert, sondern über Router zum Netzzentrum geleitet. In Intranetzen kann der Anwender nicht nur auf die Abteilungs-Server zugreifen, sondern die gesamten NetzRessourcen nutzen. Dabei ist es für den Anwender unwesentlich, wo sich die In-

20

L AN line Spezial Highlights I/2000

formationen derzeit befinden. Dies führte zu einer Veränderung der Verkehrsmuster in den Netzen. Bei der Kommunikation zwischen zwei unterschiedlichen Subnetzen/VLANs sind zur Vermittlung der Daten im Netz ein oder mehrere Router notwendig. Somit werden Subnetz-Grenzen permanent überschritten. Dies führte zur Realisierung von Layer-3-Switches. LAYER-3-SWITCHES Auf der Netzwerk-

schicht (Layer 3) wird die Adressierung und die Wegefindung (Routing) erbracht. Somit werden hier mehrere Netzabschnitte beziehungsweise Subnetze zu einem Gesamtnetzwerk verbunden. Die Geräte der Schicht 3 gehören zu den protokollspezifischen Systemen. Aus diesem Grund müssen die Komponenten, die im jeweiligen Netz eingesetzten Schicht-3-Protokolle (zum Beispiel TCP/IP oder IPX) verstehen. Der Zuwachs an Datenvolumen war

Beispiel für das Layer-3-Switching

nur noch durch eine endgerätenahe Implementation der Routing-Funktionen in den Griff zu bekommen und die Layer-3-Switching-/Routing-Funktionalität wurde in die Verteilerräume gebracht. Ein Layer-3Switch lernt automatisch die Verbindungen auf der Schicht 3 und baut sich daraus die Routing-/Switching-Tabellen auf. Der Datenverkehr zwischen den Netzen wird nicht mehr über die langsamen Router übertragen, sondern direkt auf der Schicht 3 übermittelt. Layer-3-Switches bauen da-

her nicht mehr auf RISC-Prozessoren auf, sondern verwenden spezielle ASIC-Chips. In diesen “Application Specific Integrated Circuits” wurde die gesamte Routing-Software in Hardware gegossen und so die Verarbeitungsgeschwindigkeit erhöht. Moderne ASICs bieten auf der Schicht 3 eine Verarbeitungsgeschwindigkeit pro Port von mehreren Millionen Paketen pro Sekunde. Die Layer-3-Switches müssen neben dem IP-Protokoll auch die netzspezifischen Routing-Funktionen unterstützen. Hierzu gehören die in der IP-Welt benutzten RIP-, RIP2-Protokolle und OSPF sowie das Novell-RIP-Protokoll. Im Grunde sind Layer-3-Switches also nichts anderes als superschnelle Router, die den Routing-Prozess auf der Port-Ebene umsetzen. LAYER-4-SWITCHES Die Transportschicht (Layer 4) stellt eine transparente Datenübertragung zwischen Endsystemen zur Verfügung. Die Schicht 4 trennt die Anwendungsprozesse von denen des Datentransports. Die Transportprotokolle der Schicht 4 sorgen für eine Aufteilung der seriellen Datenströme der unteren Schichten auf die spezifischen Anwendungen. Hierzu werden die sogenannten Sockets verwendet. Ein Socket ist ein virtueller Port, über den die Schicht 4 mit der jeweiligen Anwendung kommuniziert. Sockets ermöglichen eine Unterscheidung der Datenströme nach Dienstklassen und Dienstgüten (Service Level). Mit Hilfe von Layer-4-Switches kann der Datenverkehr nach den unterschiedlichen Service-Levels und Applikationen unterschieden werden. Der Layer-4-Switch benutzt zum Weiterleiten der Daten die im Datenstrom eingefügte PortNummer. Somit wird ein Datenpaket anhand folgender Kriterien weitergeleitet: Destination-IP-Adresse (IP-Adresse des

LAN-BACKBONE UND INFRASTRUKTUR

Switch-Logik

0 21 s it/ B M

PC1

PC2

Port 3

100 MBit/s

Port 2

10 MB it/s

100 MB it/s

Port 1

Port 4

100 MBit/s

PC3 File Server

Bei derartigen Situationen treten Überlastsituationen au

Empfängers) + Destination-Port (Ziel-Port des Empfängers) + Source-IP-Adresse (IPAdresse des Senders) + Source-Port (ZielPort des Senders) Ein Layer-4-Switch macht eine Weiterleitungsentscheidung von der im Datenstrom enthaltenen Applikation abhängig und nimmt eine Priorisierung der Pakete vor. So neu der Name “Layer-4-Switching” auch klingt, etwas grundlegend Neues bietet diese Technik nicht. Das Abarbeiten von Routing-Filtern auf Basis von Layer-4-Informationen gehört zu den Standardfunktionen von traditionellen Routern und Layer-3Switches.

Switch-Logik

SWITCHING-PERFORMANCE

22

L AN line Spezial Highlights I/2000

t3

t4

t5

Die zur Verfügung stehende Bandbreite eines Switches wird anhand der gleichzeitig aktiven Ports ermittelt. Obwohl die heute im Markt erhältlichen Switches mit enormen Durchsatzzahlen beworben werden, heißt dies doch nicht notwendigerweise, daß die gesamte Bandbreite der Backplane von allen Ports genutzt werden kann. Anhand der verfügbaren Bandbreite kann sich der Netzbetreiber ausrechnen, wie das Netz bei Realtime-Applikationen und bei maximaler Auslastung reagiert. Nur bei wenigen Switches kommt es unter Extrembedingungen, wenn alle Ports des Switches simultan kommunizieren, zu keiner Redu-

zierung der Gesamtbandbreite. Durch die Einführung des Vollduplex-Verfahrens und die Fast- und Gigabit-Ethernet-Übertragungstechniken muß die effektive Gesamtbandbreite eines Switches enormen Anforderungen genügen. Gleichgültig, um welchen Switch-Typ es sich handelt, läßt sich die Performance der Geräte nach folgender Formel berechnen: Theoretische Bandbreite - ((Anzahl Ports) x (max. Geschwindigkeit/Port) x (Übertragungsverfahren) x (Gleichzeitigkeitsfaktor)/2)

Übertragungsverfahren: Halbduplex = 1, Vollduplex = 2 Gleichzeitigkeitsfaktor: Anzahl der gleichzeitig arbeitenden Benutzer in Prozent Die Verzögerungszeit eines Switches wird in Mikrosekunden gemessen. Per Definition beschreibt die Verzögerungszeit von Schicht-2-Switches den Zeitraum, der zwischen dem ersten vom Switch-Port empfangenen Bit eines Datenpakets bis zu dem Zeitpunkt vergeht, an dem dieses Bit den Destination-Port des Switches wieder verläßt. Bei Layer-3-Switches wird die Verzögerungszeit als der Zeitraum definiert, der zwischen dem letzten vom Eingangs-Port empfangenen Bit eines Datenpakets und dem ersten Bit auf dem Destination-Port eingehenden Bit vergeht. Da pro Zeiteinheit mehr kurze Pakete als lange Pakete über einen Switch übertragen werden können, wird der Gesamtdurchsatz immer anhand der kleinsten Pakete (bei Ethernet sind dies 64 Byte) definiert. Ein weiterer wichtiger Aspekt ist eine garantierte beziehungsweise variable Verzögerungszeit. Multimedia-Applikationen (Sprache, Video) benötigen daher eine geringe und vor allem konstante Ende-zu-Ende Verzögerungszeit. Um ein Netzwerk effizient betreiben zu können, müssen die Ereignisse im Netz analysiert werden. Nur durch das regelmäßige Sammeln von Statistiken, die Ana-

t2

t6 Port 1

t1

Port 4 t7

PC1 File Server Gesamtvermögen = (t1+t7) (Leistungsverzögerung) + (t2+t6) (Port-Verzögerung) + (t3+t5) (Busverzögerung) + t4 (Switch-Logikverzögerung)

Bei der Verbindung von Arbeitsstationen zum Fileserver gibt es mehrere Verzögerungen

Switch-Logik

Port 1

Port 2

Port 3

Port 4

PC

Analysator

File Server

Logischer Pfad der Daten zwischen PC1 und File Server

Kommunikation in einem Switched-LAN

lyse der Kommunikationsvorgänge und das Simulieren bestimmter Ereignisse kann der Betrieb eines Netzes langfristig aufrecht erhalten und im Falle eines Fehlers die Ursache schnell und kostengünstig ermittelt werden. Bei auf Switches aufgebauten Netzen ist die Fehlersuche und -behebung wesentlich komplizierter als in traditionellen LANs. Bei den geswitchten Netzen stehen die Daten nicht mehr trans-

parent an jedem Port zur Verfügung. Durch die Punkt-zu-Punkt-Kommunikationsbeziehungen tritt der Verkehr nur noch an den zwei Ports auf, die an der jeweiligen Kommunikation teilnehmen. Alle anderen Ports oder alle anderen Teilnehmer eines VLANs benötigen diese Informationen nicht mehr. In den meisten Switches wurde zur schnellen Fehleranalyse ein sogenanntes

Switch-Logik X1

Port 1

Port 2

Port 3

Port 4

PC 1

Analysator

X1

File Server

Umleitungsprozeß auf Port 3 Logischer Pfad der Daten zwischen PC1 + File Server mit Umleitung der Daten über Umleitungsprozeß

Umleitung der Pakete in einem Switch

Port-Mirroring implementiert. Durch einen Befehl im Managementsystem wird einem Switch-Port mitgeteilt, daß alle an diesen Port übermittelten Datenpakete an einen vom Administrator festgelegten Analyse-Port weitergeleitet werden. An dem Analyse-Port ist ein traditioneller Datenanalysator angeschlossen. Nachteilig wirkt sich jedoch aus, daß für diesen an den Analyse-Port umgeleiteten Datenverkehr eine bestimmte Bandbreite im Netz bereitgestellt werden muß. Die einzige Möglichkeit, ein komplettes Management in einem geswitchten Netz aufzubauen, besteht in der Implementation der RMON-Funktionen. Nur so wird der gesamte Datenverkehr auf der logischen wie auch auf der physikalischen Ebene überwacht. Die ursprünglichen RMONDefinitionen konnten die Daten nur auf den Schichten 1 und 2 analysieren. Werden einzelne Netzsegmente über Layer-3Switches verbunden, ist der netzübergreifende Datenverkehr mit RMON nur schwer zu ermitteln. Erst die Erweiterung des RMON-Standards auf RMON2 erlaubt die Analyse der Protokollinformationen (IP, XNS, IPX/SPX) auf den höheren Schichten. Trotz RMON2 ist noch immer kein kompletter Überblick über sämtliche Kommunikationsbeziehungen im Switch möglich. Es bleibt die Beschränkung auf die reine Punkt-zu-Punkt-Verbindung. Die globale Transparenz wird erst durch die Integration der Switch-RMON-MIB gewährleistet. Dieser Standard wird im Moment vom IETF erarbeitet und soll noch im Laufe des Jahres 1999 verabschiedet werden. Die Funktionalität des RMONStandards setzt eine leistungsfähige Hardware-Plattform zur Verarbeitung der gesammelten Daten voraus. Moderne RMON-Implementationen werden in der Regel durch eine Einschub-/Zusatzkarte in den Switch integriert. Diese zusätzliche Investition ist jedoch im Bereich der geswitchten Netze unabdingbar, wenn alle Netz-Ressourcen transparent überwacht und die Fehlerfindung und -behebung innerhalb eines überschaubaren Zeitraums realisiert werden soll. (Mathias Hein, Consultant und freier Fachjournalist/sm)

L AN line Spezial Highlights I/2000

23

LAN-BACKBONE UND INFRASTRUKTUR

VERKABELUNG FÜR GIGABIT-ANWENDUNGEN

Jahrtausendstandards in zweiter Auflage Zukünftige IT-Anwendungen in Netzwerken erfordern Verkabelungen, die bis weit in den Gigabit-Bereich arbeiten. Deshalb überarbeiten derzeit europäische und internationale Standardisierungsgremien die gültigen Verkabelungsstandards und wollen sie im Jahr 2000 in zweiter Ausgabe als sogenannte Jahrtausendstandards veröffentlichen. Sie werden ähnliche Meilensteine in der Verkabelung setzen wie die ersten Ausgaben im Jahr 1995. Die Arbeitsgruppen haben bereits viele wichtige und einschneidende Änderungen beschlossen.

ie ersten Ausgaben des europäischen Verkabelungsstandards EN50173 “Information technology-Generic cabling systems” und des internationalen Verkabelungsstandards ISO/ IEC 11801 “Information technology-Generic cabling for customer premises” wurden im Juli 1995 veröffentlicht. Die Standards spezifizieren anwendungsneutrale, informationstechnische Verkabelungen für Standorte, die aus einem oder mehreren Gebäuden bestehen, mit einer maximalen Ausdehnung von 2000 Metern. Sie unterstützen eine große Anzahl informationstechnischer Anwendungen wie Sprache, Daten, Text und Video. Die Verkabelungsstandards definieren dabei: – Struktur und Konfiguration anwendungsneutraler Verkabelung, – Realisierungen sowie – Leistungsanforderungen an die Verkabelung. Beide Standards sind gleichzeitig und in enger Zusammenarbeit entstanden, ihr Inhalt ist nahezu identisch. Seit ihrer Veröffentlichung ist die Verkabelungstechnik in zweierlei Hinsicht fortgeschritten: Einerseits kamen neue Anwendungen wie Gigabit Ethernet auf den Markt, und andererseits wurden die Verkabelungen sowie die Einzelkomponenten leistungsfähiger.

D

24

L AN line Spezial Highlights I/2000

Um diese Entwicklungen zu berücksichtigen, werden die ersten Ausgaben der Verkabelungsstandards derzeit aktua-

– Primärverkabelung (Standort-Backbone), – Sekundärverkabelung (GebäudeBackbone) und – Tertiärverkabelung (Etagenverkabelung). In der ersten Ausgabe der Verkabelungsstandards zählen die Anschlußkabel nicht zum Anwendungsbereich der Tertiärverkabelung. So ist der Kanal (Übertragungsstrecke) zwar definiert, aber nicht spezifiziert. Spezifiziert ist nur der Link (Verkabelungsstrecke). Die Leistungsfähigkeit des Links ist mit vier Kupferklassen A bis D und einer optischen Klasse definiert. Klasse D ist die höchste Kupferleistungsklasse und für Frequenzen bis 100 MHz spezifiziert. Die jeweils höhere Klasse deckt dabei immer auch alle Anforderungen der niedrigeren Klassen ab. Die Leistungsfähigkeit des Links ergibt sich aus der Leistungsfähigkeit der einzelnen Komponenten wie Kabel und Anschlußdosen,

Das Link- und Kanalmodell für die Tertiärverkabelung in den Ergänzungen zu den ersten Ausgaben der Verkabelungsstandards EN 50173 und ISO/IEC 11801

lisiert. Arbeitsgruppen erarbeiten hierzu Ergänzungen und neue Ausgaben der Standards. DIE ERSTEN AUSGABEN VON ISO/IEC 11801 UND EN 50173 Die Struktur der

Verkabelung ist baumförmig und wird in drei Teilsysteme unterteilt:

Patch-Panels, Cross-Connects und anderen Anschlußkomponenten. Im Kupferbereich sind die Komponenten in den Kategorien 3 bis 5 definiert. Dabei geht die Normierung davon aus, daß der Anwender einen Link der Leistungsklasse D erreicht, wenn er Komponenten der Kategorie 5 einsetzt und den Link nach

dem lassen sich die Grenzwerte des Permanent Links und des Kanals über eine Formel aus den Grenzwerten der einzelnen Komponenten (Kabel und Anschlußtechnik) errechnen.

80.0

70.0

Dämpfung/NEXT [dB]

60.0

50.0

Klasse F

– ZUSÄTZLICHE ELEKTRISCHE PARAMETER Die Full-duplex-Übertragung

Klasse E

40.0

Klasse “De”

30.0

Klasse D 20.0

Klasse C

10.0

0.0 1.0

10.0

100.0

1000.0

Frequenz [MHz]

Die Kanalgrenzwerte für die Kupferklassen mit Klasse C und D aus den Ergänzungen zu den ersten Ausgaben sowie mit der modifizierten Klasse “De“ und den neuen Klassen E und F der zweiten Ausgaben

den Strukturvorgaben des Standards realisiert. Aber es besteht kein formelmäßiger Zusammenhang zwischen den Grenzwerten des Links und denen der einzelnen Komponenten. Bei symmetrischen Kupferverkabelungen entscheiden verschiedene elektrische Parameter über die Leistungsfähigkeit des Links. Hierzu zählen Impedanz, Rückflußdämpfung, Dämpfung, NEXT (Nahnebensprechen), ACR (SignalRausch-Abstand zwischen Dämpfung und NEXT), Gleichstromwiderstand, Laufzeit, Erdunsymmetriedämpfung (LCL: Longitudinal Conversion Loss) und Kopplungswiderstand. Die Schnittstelle des Links ist nur an der Anschlußdose definiert. Für symmetrische Kupferverkabelungen ist dies das IEC60603-7-Steckgesicht (RJ45). Bei Lichtwellenleiter-(LWL-)Verkabelungen ist der SC-Steckverbinder bei Neuinstallationen vorgeschrieben. Setzt ein Anwender bereits ST-Steckverbinder ein und will seine Verkabelung erweitern, kann er hierzu normgerecht auch einen STSteckverbinder verwenden. ERGÄNZUNGEN NOCH IN DIESEM JAHR Die Ergänzung 2 für die ISO/IEC

11801 (1995) und Ergänzung 1 für die EN 50173 (1995) ähneln sich sehr und

sind in den Hauptaussagen identisch. Der wichtigste Grund für ihre Entstehung ist Gigabit Ethernet (1000BaseT), das IEEE 802.3 derzeit standardisiert. Dabei nutzt 1000Base-T vier Kupferpaare einer Klasse-D-Verkabelung für eine Full-duplex-Übertragung. Das heißt, die Informationen werden parallel über vier Paare und gleichzeitig in beide Richtungen übertragen. Die wichtigsten Änderungen gegenüber den ersten Ausgaben der Verkabelungsstandards sind: – SPEZIFIKATION VON KANAL UND PERMANENT LINK Anstatt des heuti-

gen Links spezifizieren die Ergänzungen die Leistungsfähigkeit des Kanals und des Permanent Links. Der Permanent Link ist die fest installierte Verkabelung, und die Grenzwerte können für Abnahmemessungen nach der Installation verwendet werden. Der Kanal dagegen ist die komplette Verkabelung zwischen zwei aktiven Komponenten. Seine Leistungsfähigkeit ist wichtig für die Anwendungen. – NEUE GRENZWERTE FÜR KLASSE-CUND -D Die Grenzwerte für Klasse-C-

und -D-Verkabelungen haben sich wegen der neuen Definition des Permanent Links und des Kanals geändert. Außer-

bei 1000Base-T erfordert für Kanal und Permanent Link zusätzliche Parameter. Da die Daten gleichzeitig über alle vier Adernpaare in beiden Richtungen gesendet werden, sind hier die Einflüsse der jeweils anderen drei übertragenden Paare auf eines ausschlaggebend. Dies wird über Parameter wie PowersumNEXT (PS-NEXT), Powersum-ACR (PS-ACR), ELFEXT (Equal Level Far End Cross-talk) und Powersum-FEXT ermittelt. Ein niedriges Delay Skew (maximale Laufzeitdifferenz) soll eine möglichst synchrone Übertragung der Daten sicherstellen. Wegen der unterschiedlichen Abstimmverfahren und -fristen bei ISO/IEC und Cenelec ist nicht zu erwarten, daß die beiden Ergänzungen zur gleichen Zeit verabschiedet werden. Beide Entwürfe stehen derzeit zur Abstimmung. Mit ihrer Veröffentlichung ist noch in diesem Jahr zu rechnen. NEUE AUSGABEN VON ISO/IEC 11801 UND EN 50173 Seit letztem Jahr arbei-

ten die beiden Arbeitsgruppen ISO/IEC JTC 1/SC 25/WG 3 und Cenelec TC 215 WG 1 an den zweiten Ausgaben der Verkabelungsstandards. Sie diskutieren nach wie vor die Hauptänderungen gegenüber den ersten Ausgaben, so daß noch keine kompletten Entwürfe für die neuen Ausgaben verfügbar sind. Als Hauptänderungen stehen derzeit folgende Themen in der Diskussion: – OPEN-OFFICE-VERKABELUNG Das Modell für den Kanal und den Permanent Link in den Ergänzungen soll noch weiter modifiziert werden. Dabei soll ein “elektrisch sichtbarer” Consolidation Point (CP) den heute “elektrisch unsichtbaren” Kabelverzweiger (KV) ersetzen. Der Kabelverzweiger ist ledig-

L AN line Spezial Highlights I/2000

25

LAN-BACKBONE UND INFRASTRUKTUR

lich eine feste Verbindung zweier Festaderkabelstücke und wird nicht verwaltet. Der Consolidation Point kann dagegen eine feste oder lösbare Verbindung sein, um ein flexibles oder Festaderkabel mit einem anderen Festaderkabel zu verbinden. Somit muß diese Verbindung verwaltet und im Link- und Kanalmodell berücksichtigt werden. Die Open-Office-Verkabelungsstruktur benötigt diesen zusätzlichen verwalteten Verbindungspunkt, den Consolidation Point, weil das Festadertertiärkabel an einem zentralen Punkt im Raum endet. Das kann der Consolidation Point oder der Multiuser-Telekommunikationsauslaß (Multiuser-TA) sein. Bei einem Consolidation Point wird dieser über ein weiteres Festaderkabel oder ein flexibles Kabel mit einem einfachen Telekommunikationsauslaß (TA) am Arbeitsplatz verbunden. Die Verbindung zwischen TA und Endgerät geschieht mit einem herkömmlichen flexiblen Anschlußkabel. Setzt das Unternehmen zentrale Multiuser-TAs ein,

dings die Länge des Tertiärkabels entsprechend.

gorie 6 ist bis 250 MHz spezifiziert und die Kategorie 7 bis 600 MHz.

– DIE NEUEN KLASSEN UND KATEGORIEN Zusätzlich zu den heute definierten

– FORMELBEZIEHUNG FÜR KUPFERKLASSEN Für alle Klassen (A bis F) wer-

Kupferklassen A bis D werden zwei neue Klassen E und F für zukünftige Anwendungen eingeführt. Die Klasse E wird bis 250 MHz spezifiziert, und das PS-ACR des Kanals soll bei 200 MHz den Wert 0 dB erreichen. Dabei ist zu beachten, daß 200 MHz die Übertragungsfrequenz ist und nicht die Bit-Rate. Die Klasse F wird bis 600 MHz spezifiziert, und das PS-ACR des Kanals erreicht hier 0 dB erst bei 475 MHz. Setzt der Anwender die bei uns gebräuchlichere Verkabelungsstruktur des Permanent Links ein, bei dem die aktiven Komponenten direkt an die TAs angeschlossen werden, erreicht er die 0 dB PS-ACR sogar erst bei 540 MHz. Natürlich werden die Anforderungen der neuen Klassen E und F auch die Klasse D abdecken und die Klasse F die Anforderungen der Klasse E. Das bedeutet, daß beispielsweise Gi-

den die Grenzwerte für den Kanal und den Permanent Link auf der Basis des Verkabelungsmodells für die zweiten Ausgaben und der entsprechenden Grenzwerte der Komponenten mit mathematischen Formeln berechnet. Dabei ist zu beachten, daß das Modell für den Kanal und den Permanent Link nicht dem Modell der Normergänzungen entspricht, da das Modell für die neuen Ausgaben einen Consolidation Point berücksichtigt. Somit würden sich theoretisch auch die Grenzwerte der Klasse D für den Kanal und den Permanent Link nochmals ändern. Doch die Arbeitsgruppen wollen vermeiden, daß das modifizierte Verkabelungsmodell die Klasse-D-Grenzwerte der Ergänzungen aufweicht. Aus diesem Grund sollen die Kategorie-5Grenzwerte der Komponenten leicht verschärft werden. Bei TIA wurden bereits “Enhanced-Category-5”-Grenzwerte im Amendment 5 zum Verkabelungsstandard TIA/ EIA 568A definiert. Da diese Grenzwerte bei Herstellern und im Markt bekannt sind, bestehen Überlegungen, die heutigen Kategorie-5Grenzwerte auf diese “Enhanced-Category-5”-Grenzwerte anzupassen. Dadurch würden sich die Grenzwerte der Klasse D leicht ändern, aber nicht wesentlich schlechter werden als in den Ergänzungen.

Das modifizierte Link- und Kanalmodell in den zweiten Ausgaben der Verkabelungsstandards EN 50173 und ISO/IEC 11801

dann sind die Endgeräte direkt über Anschlußkabel mit einem MultiuserTA verbunden. Dabei müssen und dürfen die Anschlußkabel länger als die heute maximal erlaubten zehn Meter sein. Im Gegenzug reduziert sich aller-

26

L AN line Spezial Highlights I/2000

gabit Ethernet als Klasse-D-Anwendung von den Klassen D, E und F unterstützt wird. Entsprechend den neuen Klassen E und F werden zwei neue Kategorien für die Komponenten eingeführt. Die Kate-

– KEINE OPTISCHE KLASSE Die Normungsgremien kamen außerdem zu dem Entschluß, daß es nicht sinnvoll ist, eine oder sogar mehrere optische Klassen zu definieren wie das bei Kupfer der Fall ist. Eine LWL-Verkabelung ist wegen des Bandbreitenlängenprodukts der Fasern immer anwendungsspezifisch. Jede Anwendung benötigt eine andere Bandbreite, was in unterschiedlichen Längen resultiert. Deshalb wird es künftig nur einen Anhang geben, der den Zusammenhang zwischen Anwendung, Fasertyp und erzielbaren Kanallängen darstellt.

– STECKGESICHT AM TELEKOMMUNIKATIONSAUSLASS (TA) Für Kupferverka-

belungen der Klassen A bis E ist nach wie vor das definierte Steckgesicht IEC 606037 (RJ45) vorgeschrieben. Allerdings ist die Rückwärtskompatibilität bei Kategorie-6Steckverbindern noch problematisch. Bei Verkabelungen der Klasse F wird ein neues Steckgesicht gewählt. Die bevorzugte Lösung ist ein Steckgesicht, das rückwärts kompatibel zum heutigen RJ45-Steckgesicht ist. Es existieren hierzu zwei Vorschläge (AMP und Alcatel), von denen allerdings noch nicht klar ist, ob sie alle Anforderungen erfüllen werden. Deshalb wählt die ISO/IEC-Arbeitsgruppe 3 zur Sicherheit bis Juni ein weiteres neues Steckgesicht aus, das nicht dem RJ45 entspricht. Von den zur Diskussion stehenden Steckverbindern von Harting, BKS, IBM, Siemon, Sofim und Telesafe sind einige schon auf dem Markt. Für optische Verkabelungen wird das SC-Steckgesicht am TA beibehalten. Aber die neuen kompakten Steckverbinder (wie MT-RJ, SC/DC oder Volition) sollen im Standard für Anwendungsbereiche mit hoher Packungsdichte erwähnt werden. Damit sind die Steckverbindungen bei Patch-Panels oder aktiven Komponenten gemeint. Falls die Veröffentlichung der zweiten Ausgaben erst nach dem Jahr 2000 erfolgen sollte, wird das optische Steckgesicht am TA jedoch erneut diskutiert. Die Normungsgremien wollen die zweiten Ausgaben ganz nach Plan im Jahr 2000 als sogenannte Jahrtausendstandards veröffentlichen. Da es bisher jedoch noch keinen kompletten Arbeitsentwurf dieser zweiten Ausgaben gibt und Kommentierungs- und Abstimmungsverfahren in der Standardisierung sehr langwierig sein können, erscheint es nicht sehr realistisch, daß der Zeitplan eingehalten werden kann. Doch die letztendlich verabschiedeten zweiten Ausgaben der Verkabelungsstandards werden ähnliche Meilensteine in der informationstechnischen Verkabelung darstellen wie die Ursprungsfassungen im Jahr 1995. (Werner Sittinger/db) Der Autor ist Produktmanager bei der Dätwyler AG im schweizerischen Altdorf.

L AN line Spezial Highlights I/2000

27

DRAHTLOSE KOMMUNIKATION

FUNKÜBERTRAGUNG MIT HIGH-SPEED

Drahtlos und lokal zugleich Der Markt für Wireless-LANs ist in Bewegung geraten. Nach der bereits 1997 erfolgten IEEEStandardisierung, allerdings nur bis Datenraten von bis zu 2 MBit/s, kamen eine Vielzahl kompatibler Produkte auf den Markt. Jetzt werden erste Lösungen angeboten, die für den Hochgeschwindigkeitsbereich konzipiert sind. Als Übertragungsraten im Hiperlan sind zum Beispiel 24 MBit/s heute schon verfügbar.

Als reif für den Massenmarkt gelten sie bereits seit Jahren, die drahtlosen Netze. Doch der so oft beschworene große Boom will sich einfach nicht einstellen. Das Wachstum ist eher gemächlich, verglichen mit anderen Marktsegmenten, wenngleich kontinuierlich. Nach Voraussagen von IDC soll der Umsatz im Jahre 2000 bei 839 Millionen Dollar weltweit liegen und 2001 auf gut eine Millarde Dollar steigen, 2002 dann sprunghaft auf 1,3 Millarden Dollar anwachsen. Dabei ist laut IDC die Jahrtausendmarke der Zeitpunkt, ab dem es wirklich aufwärts geht. Den Grund sehen die Marktauguren darin, daß erst dann ein Standard im Hochgeschwindigkeitsbereich vorliegt, den die Anwender abwarten. Ob es allerdings wirklich ein Standard wird, ist derzeit noch nicht klar abzusehen. Bereits 1997 wurde mit der IEEE 802.11 eine Spezi-

28

fikation verabschiedet, die einige Hersteller und viele potentielle Käufer aufatmen ließ. Sie umfaßt drei Technologien zur drahtlosen Da-

(DSSS), 2 MBit/s sowie Infrarot. Doch dieser Standard reiche, so IDC, längst nicht aus, um ein überdurchschnittliches Wachstum zu generieren. Die Interoperabilität zwischen Produkten unterschiedlicher Hersteller sei noch nicht vollständig gewährleistet, klare Migrationspfade zu schnelleren Lösungen stünden noch aus – ebenso wie deutliche Signale aller wichtiger Anbieter, die Standards zu unterstützen. So existiert neben IEEE 802.11 mit Open Air ein weiterer Defacto-Standard. Unter Führung von Proxim haben sich im Wireless-LAN-Interoperability-Forum (WLIF) mehr als 22 OEMs und Anbieter von Wireless-LAN-Lösungen zusammengeschlossen, eine durchaus ernstzunehmende Marktmacht.

Schon 1994 wurden mit ETS 300328 die technischen Voraussetzungen für das ISMBand zwischen 2,4 und 2,4835 GHz definiert und die Zulassungskriterien für Datenfunksysteme in diesem Frequenzband festgelegt. 1997 erfolgte die Ausdehnung des Gültigkeitsbereichs für den Betrieb von FunkLAN-Systemen auf grundstücksübergreifende Datenübertragungen, wobei die betreffenden Grundstücke ausdrücklich keine wirtschaftliche Einheit bilden müssen. Funk-LANs sind dabei anmelde- und gebührenfrei. Voraussetzung für die Zulassung ist lediglich ein bestandener Test bei einem unabhängigen, akkreditierten Testlabor oder in Deutschland des Bundesamts für Post und Telekommunikation. Ebenfalls im Jahre 1997 wurde

(000) 4,500 4,000 3,500 3,000 2,500 2,000 1,500 1,000 500 0 1997

1998

1999

Network interface cards

2000

2001

Access bridges

2002

2003

Building-to-building bridges

Kontinuierliches Wachstum prophezeien die Marktforscher den drahtlosen Lösungen (Quelle: IDC, 1998)

tenübertragung: 2,4 GHz Frequency Hopping Spread Spectrum (FHSS), 1 und 2 MBit/s; 2,4 GHz Direct Sequence Spread Spectrum

L AN line Spezial Highlights I/2000

Blickt man auf die letzten drahtlosen Jahre zurück, so ist bereits einiges geschehen, um WLANs aus dem Nischenmarkt herauszuführen.

mit IEEE 802.11 der bereits angesprochene Standard für drahtlose LANs verabschiedet, wobei Kompatibilität natürlich nur zwischen Lö-

sungen derselben Technologie besteht. Die Entscheidung für oder gegen eine dieser Technologien wird häufig wie ein Krieg zwischen zwei Religionen geführt. Dies wird der Praxis allerdings nicht gerecht. Darauf weist nicht nur IDC in seiner groß angelegten Studie hin, sondern auch Hersteller wie Artem, die Lösungen mit beiden Spreizbandverfahren im Angebot führen. In Umgebungen mit metallischer Struktur treten etwa durch Mehrwegeausbreitungen häufig Interferenzfelder auf, die durch wechselnde Frequenzbelegungen wie bei den Frequency Hopping-Systemen quasi umgangen werden. Tritt an einer bestimmten Stelle im Raum eine Funkauslöschung auf, bricht die Verbindung kurzzeitig ab. Beim nächsten Hop auf eine andere Frequenz ist dieser Vorfall “vergessen”. Durch Antenna-Diversity-Konzepte kann die Robustheit dieser Systeme zusätzlich erhöht werden. Direct-SequenceSysteme eignen sich hingegen vor allem in Umgebungen mit schmalbandigen Störsignalen. Die hohe Redundanz bei der Übertragung durch die sogenannte Chipcodierung läßt unkorrelierte Frequenzanteile beim Empfänger nicht zu. Ein weiterer Vorteil der DSSS-Systeme sind die verfügbaren Bandbreiten. Dies ergibt sich durch die gegenüber den FHSS-Systemen etwas einfachere Synchronisation. Punkt-zu-Punkt- oder Punktzu-Mehrpunkt-Kopplungen mehrerer LAN-Segmente sind heute mit den DSSS-Sy-

stemen über mehrere Kilometer praktisch mit Kabelgeschwindigkeit möglich. Das Bridging zählt dabei nach wie vor zu den Hauptanwendungsgebieten der drahtlosen Rechnervernetzung. Dabei werden zwei oder mehrere LAN-Segmente drahtlos miteinander ver-

knüpft. Neben der Brückenbildung eignen sich drahtlose Lösungen jedoch vor allem für das Errichten von Wireless-LANs, in das PCs, Laptops, aber auch HandheldPCs, Scanner sowie Drucker eingebunden werden. Gemäß dem Standard 802.11 beruht ein solches lokales Netz auf

einer zellularen Architektur, in der das System in Zellen unterteilt ist. Jede Zelle, in der Nomenklatur von 802.11 als Basic Service Set (BSSS) bezeichnet, wird von einer Basisstation, einem Access Point (AP), gesteuert. Es gibt allerdings auch die Möglichkeit, drahtlose LANs ohne

L AN line Spezial Highlights I/2000

29

DRAHTLOSE KOMMUNIKATION

Frequency range Data rate Application

Type I

Type II

Type III

Type IV

5 GHz

5 GHz

5 GHz

5 GHz

24 Mbps Wireless Ethernet

24 Mbps Wireless ATM

>20 Mbps Wireless remote access in Entwicklung

155 Mbps Wireless infrastructure

Spezifikation heute verfügbar

in Entwicklung

in Entwicklung

Bei der Standardisierung vor allem im Bereich Highspeed WLANs ist derzeit noch vieles im Fluß. Hier nur die Hiperlan-Bemühungen.

Infrastruktur, also Access Points, etwa zum Datentransfer zwischen Notebooks, Meetings außerhalb des Büros etc. aufzubauen. Diese sogenannten Ad-hoc-Netze bilden jedoch eher die Ausnahme denn die Regel. Die meisten Installationen bestehen aus mehreren Zellen, wobei die Zugangspunkte über eine Art Backbone, auch als Distribution System (DS) bezeichnet, verbunden sind. Je nach Lösungsansatz handelt es sich dabei um Ethernet und/oder Token Ring. Eine eingehendere Untersuchung der installierten Systeme hat gezeigt, daß WLANs heute vor allem im Wiederverkauf (zirka 30 Prozent), in Warenhäusern (20 Prozent), in der Herstellung (15 Prozent) sowie im Transportwesen (12 Prozent) eingesetzt werden. Der Trend gehe allerdings, so IDC, in den nächsten fünf Jahren dahin, drahtlose Lösungen verstärkt im Gesundheits- und Bildungswesen zu verwenden. An der Menge bereits auf dem Markt befindlicher Lösungen, die jüngst um schnellere Varianten ergänzt wurden, mangelt es dabei nicht.

30

ÜBERWIEGEND STANDARDBASIERTE ANGEBOTE

So bietet Nortel Networks (ehemals Bay Networks) mit den Baystack-600-Produkten Wireless-LAN-Komponenten an, die dem IEEE802.11-Standard entsprechen. Die Lösungen dienen nach Angaben des Unternehmens (www.nortel-dasa.de) vor allem dem drahtlosen Anschluß von mobilen Rechnern an bestehende, konventionell verkabelte CampusNetzwerke. Damit eigneten sie sich vor allem für den Einsatz in Unternehmen, in denen die Mitarbeiter zur Aufgabenabwicklung jederzeit und standortunabhängig in Hochgeschwindigkeit auf verfügbare Datenbestände und Ressourcen zugreifen müssen. Zu der neuen Baystack-600-Produktfamilie zählen die Baystack-650und Baystack-660-Lösungen, die sich aus den zwei Komponenten Access Point (AP) und PC-Karte zusammensetzen. Die Access Points werden direkt über ein Kabel mit dem LAN-Backbone verbunden und dienen dem drahtlosen Datenaustausch. Hierfür müssen die mobilen Rechner mit einer

L AN line Spezial Highlights I/2000

entsprechenden PC-Karte ausgerüstet sein. Die Lösungen der BayStack-Produktfamilie basieren auf der AirSurfer-Technik des im vierten Quartal des Geschäftsjahrs 1998 übernommenen Unternehmens Netwave Technologies. Sie arbeiten nach dem Frequency-Hopping- Spread-Spectrum-Verfahren (FHSS). Durchschnittlich 10 bis 15 Anwender werden pro Access Point unterstützt. Die überbrückbare Übertragungsreichweite beträgt in Büroräumen üblicherweise knapp 70 Meter und in größeren Gebäuden wie beispielsweise Kaufhäu-

sern oder Ausstellungshallen bis zu 305 Metern. Bei den Bay-stack-660-WirelessLAN-Produkten wird die Direct-Sequence-SpreadSpectrum-Technik (DSSS) eingesetzt. Hier beträgt die Übertragungsgeschwindigkeit 2 MBit/s. Lucent Technologies (www.lucent.de) bietet seit geraumer Zeit ein großes Produktportfolio an. Zu Beginn dieses Jahres stellte das Unternehmen mit einem neuen Wavelan-Punkt-zuPunkt-System eine Funk-Datennetzlösung zur Überbrückung von Entfernungen bis zu 7,5 Kilometer vor. Die Wavelan-/Point-to-PointLösung ist laut Hersteller ein komplettes All-in-One-Mobilfunksystem und beinhaltet eine Punkt-zu-Punkt-Brücke des Typs Wavepoint II, eine Funk-PC-Karte Wavelan/ IEEE, die gesamte Verkabelung, Blitzschutz, Yagi-Antenne und alle erforderlichen Software-Programme. Für den Aufbau von Datennetzen zwischen weit voneinander entferten Gebäuden stellt das System mit einer Datenüber-

Mit bis zu 11 MBit/s können Anwender bei Einsatz der neuesten Funkbrücken von Artem Informationen übertragen (Quelle: Artem)

tragsrate von 2 MBit/s nach Angaben von Lucent eine wirtschaftliche Alternative

vielfalt, mehr Sicherheit oder Konnektivität zu vorhandenen IEEE-Anlagen

Other (0,9%)

Direct sequence (34,4%)

Frequency hopping (64,7%)

Rund 99 Prozent der ausgelieferten Wireless-LAN-Karten basieren auf Spread Spectrum. Dabei hat die FH-Technologie derzeit die Nase ganz klar vorne. (Quelle: IDC, 1998)

zu Standleitungen dar. Verwendet wird im 2,4-GHzBand die Direct-SequenceSpread-Spectrum-Technologie. Die Bundle-Software Wavemanager soll es IT-Managern ermöglichen, die Funkverbindung von einer Zentrale aus zu überwachen und zu verwalten. Die Software beinhaltet auch ein abgesetzt betriebenes Tool für die Punkt-zu-Punkt-Diagnose, mit dem sich das System einfach konfigurieren und prüfen läßt. Auf der diesjährigen CeBIT präsentierte Lucent mit Wavelan Turbo sein neuestes WLAN-Produkt. Die Übertragungsrate soll nach Angaben des Unternehmens dreimal höher sein als bei bestehenden Funk-LAN-Systemen nach dem IEEE-802.11-Standard. Neben dem Turbomodus kann das System auch im Standardmodus arbeiten, falls eine höhere Funktions-

benötigt wird. Für Nutzer bereits vorhandener WavelanSysteme soll die Twin-PCKartenarchitektur des WavePoint II Access Point einen einfachen Migrationspfad zur neuen Turbotechnologie bilden. Die Erweiterung eines existierenden Systems erfolge durch die Installation einer Turbokarte in einen der beiden PC-Steckkartenplätze der Wavepoint-Brücke. Funkbrücke mit KabelPerformance Mit Übertragungsraten von 11 MBit/s warten die neuen HighSpeed Wireless Bridge BR 4811 bzw. BR 4502 von Artem (www.artem.de) auf. Abhängig vom verwendeten Antennentyp soll die Reichweite bis zu fünf Kilometer betragen können. Damit sind laut Artem leistungsstarke Gebäude-zu-Gebäude-Vernetzungen möglich, die gängigen Netzwerkverkabelungen in nichts nachstehen.

Realisierbar sind sowohl Point-to-Point-, als auch Point-to-Multipoint-Anwendungen. Komplette Bundles mit Funkbrücke, Anschlußkabel, Antenne, Überspannungsschutz und Montagesatz sind voll integrierte Lösungen. Verwendung findet die Direct-SequenceSpread-Spectrum-(DSSS-) Funktechnologie von Aironet. Die Brücken sind ETSIkonform und entsprechen dem Standard IEEE 802.11. Sie sind lieferbar für Ether-

Produktname: Bay-Stack 600Familie Kategorie: Wireless-LAN Hersteller/Anbieter: Nortel Networks Web: www.nortel-dasa.de Produktname: Wavelan Turbo Kategorie: Wireless-LAN Hersteller/Anbieter: Lucent Technologies Web: www.lucent.de Produktname: BR 4811, BR 3402 Kategorie: Funkbrücke Hersteller/Anbieter: Aironet/Artem Web: www.artem.de Produktname: AP4811, AC4811 Kategorie: Wireless-LAN Hersteller/Anbieter: Aironet/Artem Web: www.artem.de

net- und Token-Ring-Netzwerke. Neu bei Artem sind auch die Access-PointsAP4811-High-Speed-Basisstationen mit Übertragungsraten von 11 MBit/s, mittels derer sich Ethernet- oder Token Ring-Netze erweitern lassen. Durch die Installation mehrerer Stationen soll sich der Übertragungsbereich ausdehnen lassen. Die ebenfalls erst jüngst vorgestellten AC4811-High-Speed-FunkLAN-Adapter binden Endgeräte drahtlos ins lokale

Hersteller/Anbieter: Proxim Web: www.proxim.com Produktname: Wavelan Point-toPoint Kit Kategorie: Funkbrücke Hersteller/Anbieter: Lucent Technologies Web: www.lucent.de Produktname: Rangelan802 Kategorie: Wireless-LAN Hersteller/Anbieter: Proxim Web: www.proxim.com Produktname: Rangelan5 Kategorie: Wireless-LAN Hersteller/Anbieter: Proxim Web: www.proxim.com Produktname: Spectrum24 Kategorie: Wireless-LAN Hersteller/Anbieter: Symbol Technologies Web: www.symbol.com

Produktname: Roamabout Kategorie: Wireless-LAN Hersteller/Anbieter: Cabletron Web: www.cabletron.com

Produktname: A020, C020/C021 Kategorie: Wireless-LAN Hersteller/Anbieter: Nokia Telecommunications Web: www.nokia.com

Produktname: Speedlan-Serie Kategorie: Funkbrücke Hersteller/Anbieter: Speedcom Wireless International Web: www.speedlan.com

Produktname: Breezenet Pro.11 Kategorie: Wireless-LAN Hersteller/Anbieter: Breezecom Web: www.breezecom.com

Produktname: Cardlink, BackboneLink, Mobilink Kategorie: Wireless-LAN Hersteller/Anbieter: Radiolan Web: www.radiolan.de Produktname: Rangelan2 Kategorie: Wireless-LAN

Produktname: Breezenet DS.11 Kategorie: Wireless-LAN Hersteller/Anbieter: Breezecom Web: www.breezecom.com Produktname: Breezenet DS.11 Kategorie: Funkbrücke Hersteller/Anbieter: Breezecom Web: www.breezecom.com

L AN line Spezial Highlights I/2000

31

DRAHTLOSE KOMMUNIKATION

Netz ein – ebenfalls mit Geschwindigkeiten bis zu 11 MBit/s. Die Karten sollen sich in jedem Endgerät mit PC-, ISA- oder PCI-Architektur einsetzen lassen. Sie sind laut Artem IEEE-

Lösungspalette mit dem 802.11-Standard-basierten Smartswitch Roamabout erweitert. Das Produkt unterstützt nach Herstellerangaben bis zu 200 Endanwender von einem Access Point aus

Auch BreezeCom (www. breezecom. com) nutzte die US-Messe zur Vorstellung seiner 11 MBit/s schnellen Breezenet DS.11-Produktlinie, die nach dem DS-Verfahren arbeitet. Damit er-

Ein komplettes Produktportfolio bietet das Unternehmen Breezecom an

802.11-konform und abwärtskompatibel zu der Serie 4500. Bereits zu Beginn des letzten Jahres hatte Wave Wireless Networking, eine Division von Speedcom Wireless International (www.speed lan.com), eine 10 MBit/s schnelle Brücke zur Verbindung von Ethernet-Netzen auf den Markt gebracht. Mit zu den frühesten Anbietern von WLANs in diesem Geschwindigkeitsbereich zählt Radiolan (www.radiolan. com). Die Produkte arbeiten allerdings im 5-GHz-Band. Gegen Ende letzten Jahres hat Cabletron (www.cable tron.com) seine bestehende

32

und erhöht die Roaming-Distanz auf bis zu 200 Meter. Die Familie beinhaltet neben dem Access Point auch einen im 2,4 GHz nach dem DS-Verfahren arbeitenden Ethernet-Adapter. Symbol Technologies präsentierte auf der diesjährigen Networld + Interop in Las Vegas sein neues Produkt, Spectrum24, das Datenraten bis zu 11 MBit/s bietet und sich nach Aussagen des Unternehmens vor allem für die Übertragung von Multimedia-Präsentationen, Grafikdateien etc. eignen soll. Es ergänzt die bereits seit Jahren auf den Markt eingeführte Lösungspalette.

L AN line Spezial Highlights I/2000

gänzt das in Israel beheimatete Unternehmen sein bereits bestehendes Produktportfolio, das sich aus der Breezenet-Pro.11-Serie sowie Funkbrücken und Wireless-Access-Lösungen zusammensetzt. ERSTE HIPERLAN-LÖSUNGEN Mit der Produktlinie

Rangelan5 will Proxim (www.proxim.com) noch Ende dieses Jahres eine drahtlose Lösung auf den Markt bringen, die dem Hiperlan-Standard Typ I entspricht (vergleiche auch das Interview in diesem Heft ab Seite 108). Zu den ersten Produkten sollen PC- und

PCI-Karten, Access-Points, OEM-Module und Leitungsverstärker gehören. Auf den Hiperlan-Spezifikationen aufsetzende Lösungen arbeiten im 5-GHz-Band und bieten eine Übertragungsgeschwindigkeit von 24 MBit/s. Derzeitige auf IEEE 802.1 basierende Produkte, erreichen gemäß dem Standard hingegen maximal 2 MBit/s. Zu den relevanten Funktionen von Hiperlan zählen die Unterstützung isochroner Services, mit der hohe Leistungen für anspruchsvolle MultimediaAnwendungen, Videodistribution und Sprachkommunikation erreicht werden können. Als einer der Major Player im Markt bietet Proxim seit 1989 ein breites Lösungsangebot. Dazu zählen die Rangelan2-Produktpalette, die auf proprietären Standards basiert sowie Rangelan802-Produkte, die dem Standard 802.11 entsprechen und nach dem FH-Verfahren betrieben werden. Sein Debüt auf dem Markt der WLANs hat Nokia Telecommunications (www.no kia.com) auf der Networld + Interop gegeben. Mit den Wireless-LAN-Komponenten Nokia A020 Access Point und Nokia- C020/ C021-Wireless-LAN-Karten will das finnische Unternehmen auch in diesem Segment des Mobilmarkts Fuß fassen. Die IEEE-konformen Produkte, die nach dem DS-Verfahren arbeiten, erlauben derzeit eine Übertragungsrate von bis zu 2 MBit/s, sollen sich laut Nokia allerdings einfach auf höhere Transferraten aufrüsten lassen. (Thomas Schepp/rhh)

KABELLOS MIT 16 MBIT/S

Push für Infrarot Die Zukunft ist kabellos – das war die zentrale Botschaft einer IrDA-Veranstaltung in München. Hier demonstrierten Unternehmen wie Ericsson, Infineon Technologies, IBM Infrared Wireless Communications Group, Hewlett Packard, Nokia, Sharp und Vishay Telefunken die Funktionsweise der InfrarotTechnik und präsentierten neueste Entwicklungen auf diesem Gebiet. Durch den 16 MBit/s-Standard erweitert sich das Einsatzspektrum der “Lichtübertragung” massiv.

Schon bald wird die Technologie, die von der Infrared Data Association (IrDA) propagiert wird – die drahtlose Datenkommunikation zwischen digitalen Geräten wie Mobiltelefonen, Computern, Digitalkameras, Scannern, praktisch überall zu finden sein, wo Informationen über kurze Strecken digital ausgetauscht werden. Diese Auffassung begründet die IrDA durch einen deutlichen Trend, der bereits heute klar erkennbar ist: Wer eine IrTran-P-Digitalkamera, ein IBM WorkPad, einen 3Com Palm III/V, ein Ericsson-I888-Mobiltelefon oder ein Nokia 9000 besitzt, kann per Infrarot eine Verbindung zu entsprechenden anderen Geräten aufnehmen. Ob der HP- Drucker, der Sharp-LCDProjektor oder die Informationsgeräte von Casio – alle verfügen über IrDA-Schnittstellen. Fast alle Notebook-Computer und sämtliche Windows-

CE-Geräte kommen bereits standardmäßig mit Infrarotanschluß. Mit mehr als 60 Millionen Schnittstellen hat sich keine andere Kommunikationstechnik je in einem derartigen Tempo verbreitet. Marktprognosen sagen der “IrDABranche“ bis zum Jahr 2002 eine jährliche Wachstumrate von 40 Prozent auf nahezu 300 Millionen Dollar voraus.

IrDA, eine Non-Profit-Organisation, entwickelt und unterstützt weltweite Standards für die kostengünstige Infrarot-Datenkommunikation. Zu den rund 150 Mitgliedern des Verbandes gehören die führenden Unternehmen aus der Hard- und Software-Industrie, der Telekommunikation, der Automobilwirtschaft und die entsprechenden Dienstleister. Eine der wichtigsten Aufgaben der IrDA ist es, neue Entwicklungen voranzutreiben. Aktuelle Ergebnisse und Projekte wurden in München vorgestellt. – VFIR (Very Fast InfraRed) Mit dem erst kürzlich spezifizierten 16-MBit/s-Standard hat IrDA den steigenden Bedarf nach einer noch höheren Übertragungsgeschwindigkeit erfüllt. – Air (Advanced Infrared) Die “MAC Standard-Spezifikation” zur Unterstützung des kabellosen Infrarot-Büros wurde freigegeben, und “Air LC” als Richtlinie anerkannt. Dies gilt als entscheidender Schritt bei der Ausweitung der IrDAStandards in Richtung große Reichweiten und Bandbreiten sowie für weitwinklige MultiUser-Verbindungen.

Ericsson verbindet Handhelds wie hier das Modell MC218 per Infrarot mit seinen Handys

– Real-Time Workgroup Darüber hinaus wurde eine Arbeitsgruppe eingerichtet, deren Aufgabe es ist, den Bedarf an HochgeschwindigkeitsInfrarot-Verbindungen oberhalb von 16 MBit/s zu analysieren. Das würde den Transfer von Videos und/oder Daten in Echtzeit erlauben. – IrReady Neu eingeführt wurde auch das IrReady-Programm. Es beschreibt detailliert die Anforderungen, die an IrDA-taugliche Geräte gestellt werden, um eine einfache und funktionierende Anwendung zu gewährleisten. – IrReady 2000 IrReady 2000 geht noch einen Schritt weiter: Es handelt sich hierbei um ein Dokument offener Anforderungen für Hard- und Softwarehersteller, die IrDA-Schnittstellen in ihre Produkte einbauen wollen. Bluetooth ist eine andere Technologie für kabellose Verbindungen kurzer Reichweite und funktioniert über Funkwellen. Bluetooth ist auf einen Großteil derselben Anwendungsmöglichkeiten und Geräte ausgerichtet wie IrDA. Dennoch sieht die IrDA in Bluetooth weniger einen Konkurrenten als vielmehr einen Mitstreiter in der gemeinsamen kabellosen Sache. So überrascht es nicht, daß Bluetooth ebenso wie andere Organisationen (IETF, MCPC, TTC und JTC) die IrDA-Standards für ihre kabellosen Funkverbindungen offiziell anerkannt haben und nutzen. Die meisten haben darüber hinaus den IrDA-Gedanken der Zusammenarbeit mit anderen Standardardisierungs-Gruppen aufgegriffen. (sm) Info: Infrared Data Association Tel.: 001-510/9536546 (USA) Web: www.irda.org

L AN line Spezial Highlights I/2000

33

DRAHTLOSE KOMMUNIKATION

Mobile Datenautobahn Eine Sonderform des “Wireless Access” ist es, wenn das anzuschließende Gerät nicht stationär an einem fixen Punkt, sondern mobil ist. Wir bewegen uns damit auf dem Gebiet des zellularen Mobilfunks – wofür in Europa und auch vielen Ländern außerhalb Europas das Kürzel GSM (Global System for Mobile Communications) steht. Die Transferrate für Datenübertragung in GSM-Netzen ist derzeit allerdings noch sehr beschränkt. Bevor mit UMTS (Universal Mobile Telecommunication System) eine schnelle, Multimedia-gerechte Mobilfunkgeneration kommt, gibt es mit GPRS als ersten GSM-Phase-2+-Dienst schon mal einen sehr guten Ausblick auf das was noch kommt. Die GPRS-Technologie (General Packet Radio Service) befindet sich derzeit in einer Vielzahl von Pilotprojekten in der Bewährungsprobe.

Bei der Standardisierung der heute verfügbaren GSM-Netze stand die Sprachübertragung als Anwendung ganz klar im Vordergrund. Zwar wurden auch Datendienste wie SMS (Short Message Service – Versand/Empfang von Textnachrichten bis zu 160 Anschlägen) oder 9,6-kBit/s-Punkt-zuPunkt-Verbindungen definiert. Diese weisen allerdings bezüglich ihrer Nutzbarkeit im Hinblick auf zukünftige und heute schon existierende Applikationen wie Mobile Offices oder mobiler Internet-Zugang gravierende Nachteile auf. Die geringe Bandbreiteneffizienz für paketorientierte Dienste, lange Verbindungsaufbauzeiten (Call-Setup) und die hohen Ko-

34

sten für die Bereitstellung der Kapazität sind Hindernisse für den Zugang zu breiten Märkten mit neuen Anwendungen. Ganz oben auf der Wunschliste stehen Intranet und eine einheitliche Message-Plattform, die Dienste wie E-Mail, VoiceMail und andere persönliche Message-Dienste beinhaltet. Wie groß hier der Bedarf ist, zeigt sich bereits daran, daß trotz aller Einschränkungen im Netzservice und umständlicher Bedienung am Handy SMS im vergangenen Jahr sehr hohe Wachstumsraten aufwies. Mit der GPRS-Technologie lassen sich die derzeit bestehenden Einschränkungen des GSM überwinden. Der Weg für neue, benutzerfreundliche Endgeräte

L AN line Spezial Highlights I/2000

und für den kostengünstigen Zugang zu paketorientierten Datendiensten wird frei. Die Einführung von GPRS ist dabei gleichzeitig als erster Schritt hin zu UMTS, dem Mobilfunknetz der dritten Generation zu sehen, das Datenraten von 2 MBit/s und mehr bieten wird. Dabei wird die GPRS-Technik bestehende Technologien wie beispielsweise SMS entweder ersetzen oder wie zum Beispiel HSCSD (High Speed Circuit Switched Data), komplementär ergänzen. Für bestimmte Anwendungen, etwa Videoübertragung und Filetransfer, wird das leitungsvermittelte HSCSD die bessere Technik bleiben, während für andere Anwendungen wie Web-Surfen und Mobile Office GPRS die effizientere Lösung darstellt. Durch neue Endgeräte mit intuitiven grafischen Benutzerschnittstellen sowie alternative Abrechnungsmöglichkeiten wie volumenbasierte Bezahlung verfügt GPRS über ein hohes Potential, sich am Markt durchzusetzen

Anwendungen dürfte die Akzeptanz bei bestehenden und neu hinzukommenden Anwendern soweit erhöhen, daß sich der Prozentsatz von Benutzern, die mobile Datenkommunikation verwenden, in kurzer Zeit vervielfachen wird. Dabei ist ein wesentlicher Vorteil der GPRS-Technik der transparente Support des Internet-Protokolls. GPRS unterstützt IP durchgängig vom Mobilfunkgerät zum Netz, wobei das Funktelefon denselben Status erhält wie ein IP-Host in einem LAN. Damit bietet GPRS die Connectivity, die für die Anbindung an paketvermittelte, IP-basierte Netze erforderlich ist. Grundsätzlich handelt es sich bei GPRS um einen paketorientierter Dienst. Im Unterschied zu leitungsvermittelten Diensten wird hierbei folglich der Datenstrom in Pakete geteilt, die sich ihren Weg über den jeweils gerade verfügbaren GSM-Kanal suchen und beim Empfänger wieder zum ur-

GPRS-Pakete können in den kurzen Zeitabschnitten zwischen “busy hour”-Anrufen übertragen werden. GSM-Netzwerke haben viel ungenützte “off-peak”Kapazität.

16 14

Free capacity !

12 10 TCH 8 6 4 2 0

16 14 12 TCH

VON GPRS ZU UMTS

10 8 6 4 2 0

03:00 06:00

09:00

12:00 15:00 18:00 21:00 00:00

1:00 PM

1:15 PM

1:30 PM

1:45 PM

Kapazitätsauslastung in heutigen GSM-Netzen durch Sprachübertragung (Quelle: Nokia)

und den Weg für UMTS zu ebnen. Höhere Datenraten und die zu erwartende Vielzahl neuer

sprünglichen Datenstrom zusammengefügt werden. GPRS basiert auf zwei wesentlichen

Erweiterungen der heute schon im Betrieb befindlichen GSMSysteme. Zum einen wurde die

tion zwischen Overhead und Nutzdatenrate (Paketgröße), die Notwendigkeit der Wie-

rvices tense a D n e mobil n der o i t u l HSCSD Evo

Fax/Daten/SM 9,6 kBit/s 1993

Datenkompression S2,5* 9,6 kBit/s

1996

mobiler InternetZugriff

28,8 kBit/s (+ Datenkompression)

1998

GPRS-Pilotsystem

1999

GPRS (8-92 kBit/s pro Subscriber + Datenkompression)

2000

UMTS (8-2000 kBit/s pro Subsriber + Datenkompression)

2002

GPRS ist ein wesentlicher Schritt auf dem Weg zum Mobilfunkstandard der nächsten Generation. Neben höheren Übertragungsraten ist dabei die Unterstützung von IP wichtig. (Quelle: Siemens)

Luftschnittstelle um ein neues paketorientiertes Protokoll erweitert; zum anderen das GPRS-Core-Netzwerk als neues Subsystem eingeführt, ein auf IP-basierendes Netzwerk, das über eine Standardschnittstelle an das GSM-System angeschlossen wird. Für die Luftschnittstelle legen die Standards neben dem neuen Protokoll vier verschiedene Kodierungsverfahren fest: CS1, CS2, CS3 und CS4 (CS: Channel Coding Scheme), wobei CS1 die beste Fehlerkorrektur bei geringstem Datendurchsatz und CS4 keine Fehlerkorrektur bei maximalem Datendurchsatz ermöglichen. Zukünftige Systeme werden eine adaptive Anpassung der Kodierungsverfahren an die Qualität der Funkübertragung durchführen. Dabei wird die Nettodatenrate, die mit der GPRS-Technik erreicht werden kann, prinzipiell durch mehrere Faktoren bestimmt. Dazu gehören die Qualität der Funkübertragung, die Rela-

derholung aufgrund von fehlerhafter Übertragung sowie die Verfügbarkeit von Zeitschlitzen speziell in Spitzenzeiten. Das neu definierte Protokoll für die Luftschnittstelle ermöglicht, neben einem schnelleren Verbindungsaufbau dem Endanwender über längere Zeit mit dem Netz verbunden zu sein, ohne Daten zu

GPRS CORE NETWORK Die GPRS-Technologie führt mit dem GPRS Core Network ein Subsystem mit einer Reihe von neuen Netzelementen in die bestehende GSM-Infrastruktur ein. In Zukunft wird es damit neben dem Basisstation-Subsystem (BSS) und dem Netzwerk-Subsystem (NSS) noch das sogenannte GPRS-CoreNetzwerk geben. Zu dessen wichtigsten Elementen zählen der Serving GPRS Support Node (SGSN), der Gateway GPRS Support Node (GGSN), das Border Gateway (BG) und in Phase 2 das Point-to-Multipoint-Service-Center (PTMSC). Die Übertragung zwischen den Netzelementen erfolgt über ein eigenes IP-basiertes Backbone-Netz. Typische IP-Netzelemente der GPRS-Infrastruktur sind weiterhin beispielsweise Domain Name Server (DNS), Router und Firewalls. Die Einführung von SGSN und GGSN hat ihren Grund nicht zuletzt in den spezifischen Mobility-Managementanforderungen, die durch die “Mobi-

Channel Coding Scheme CS1 Single TS Data Rate 9,05 kBit/s 8 TS Data Rate 72,0 kBit/s

CS2 13,4 kBit/s 107,2 kBit/s

fälschlicherweise auch dann an die IP-Adresse des angegebenen Subnetzes geliefert würden, wenn der Host (beispielsweise ein Laptop, Palmtop oder Handy) sich bereits vom ursprünglichen Subnetz in ein anderes bewegt hätte. Um dies zu verhindern, hat die IETF zwischen einem Home Agent und einem Foreign Agent unterschieden, wobei letzterer stets den genauen Aufenthaltsort des mobilen Hosts kennt. Im GPRS-Netz ist es der SGSN, der die temporäre Adresse des Host weiß und die vom GGSN gesandten Pakete dorthin weiterleitet. Für die GSM-Netzinfrastruktur bedeutet die Einführung von GPRS ein neues Subsystem, das zu der existierenden Infrastruktur hinzugefügt wird. Bei der Festlegung des Standards einigte man sich darauf, daß das vorhandene Basissystem nicht verändert werden sollte. Daher sind für die Installation und die flächendeckende Bereitstellung des Dienstes vorerst nur geringe Investitionen in die Infrastruktur erforderlich, um die

CS3 CS4 15,6 kBit/s 21,4 kBit/s 124,8 kBit/s 171,2 kBit/s

CS1 bietet die beste Fehlerkorrektur bei geringstem Datendurchsatz, CS4 dagegen keine Fehlerkorrektur bei maximalem Datendurchsatz

schicken, so daß keine vermehrten Kosten anfallen. Dabei wird die verfügbare Kapazität des Basisstations-Subsystems genutzt, um zusätzliche Daten zu übertragen. Die freie Kapazität im Netz wird verwendet, ohne die Verfügbarkeit von Sprachdiensten zu beeinträchtigen.

lisierung” des Internets entstehen. IP und die Routing-Mechanismen des Internets wurden für statische Netzwerkstrukturen entwickelt, in denen jeder Internet-Zugangspunkt oder Host über eine IP-Adresse verfügt, die Angaben zum Host und zum Subnetz enthält. Dies bedeutet, daß die Datenpakete

Schnittstelle zwischen Basisstations-Subsystem und dem GPRS-Subsystem aufzubauen. Die GPRS-Funktionalität läßt sich im wesentlichen durch einen Software-Upgrade in Basisstationen, eine zusätzliche Schnittstelle in den Basisstations-Controllern, neue Software im Home Location Register

L AN line Spezial Highlights I/2000

35

DRAHTLOSE KOMMUNIKATION

(HLR) und Visitor Location Register (VLR) sowie durch eine Erweiterung des Managementsystems realisieren. Schließlich muß man auch das vorhandene Abrechnungssystem für die datenbasierenden Dienste anpassen. Zahlreiche Pilotprojekte sind derzeit von nahezu allen einschlägigen Unternehmen im Betrieb.

BTS

hergestellt werden können. In kürze will Nokia seine GPRSLösung an Sonera, Finnlands größtem Netzbetreiber, ausliefern. Die ersten kommerziellen GPRS-Dienste werden dort für das Jahr 2000 erwartet. Sonera will seinen Kunden mit der GPRS-Lösung den mobilen Internet-Zugang mit paketvermittelten Datendiensten

BSC

Um

R/S

PSTN Network

MSC

Gr Serving GPRS Support Node (SGSN)

Gd

Gd Coporate 1

EIR MAP-F GPRS INFRASTRUCTURE

Intra-PLMN backbone network (IP based)

Gn Firewall

Server

S27 Network

Gs Gn

Border Gateway (BG) Inter-PLMN network

SMS-GMSC

HLR/AuC Gr

Gs Gb

Gn

Gateway GPRS Support Node (GGSN)

Router Local area network

Firewall

Gi.IP

Data network (Internet)

Corporate 2 Server

Point-ToMultipoint Service Center (PTM SC) Gi.X.25

Firewall

Data network (X.25)

Router Local area network

Logische Architektur der GPRS-Infrastruktur als Teil des GSM-Netzes (Quelle: Nokia)

Traditionell stark sind die skandinavischen Unternehmen im Mobilfunkmarkt. So hat Nokia Telecommunications (www.nokia.de) bereits zu Beginn dieses Jahres ein GPRSSystem vorgestellt, das sämtliche Kernelemente enthält einschließlich eines Charging Gateways. Dessen Aufgabe ist es nach Herstellerangaben, die von den GPRS Support Nodes erzeugten Gebühreninformationen zu speichern, zu prüfen und aufzubereiten und damit das eigentliche Abrechnungssystem des Netzbetriebs zu entlasten. Die GPRS-Funktionalität soll hauptsächlich durch eine Software-Aufrüstung der bestehenden Netzelemente sowie durch eine zusätzliche Schnittstelle in den vorhandenen Basisstations-Controllern

36

im ausgebauten GSM-Netzwerk anbieten. Aufgrund der permanenten Verbindung mit dem Internet und der höheren Bandbreite sollen eine ganze Reihe neuer Anwendungsmöglichkeiten und neuer Dienstleistungen möglich sein, etwa im Bereich Multimedia-Messaging, drahtlose Corporate Intranets sowie die Kontrolle und Wartung von Applikationen online von unterwegs. Die frühzeitige Lieferung des Kernnetzes soll es Sonera nach eigenen Angaben erlauben, die Funktionen ausgiebig zu testen, einschließlich eines GPRS-Interoperability-Tests mit den Intranet-Kunden. In einem Memorandum of Understanding mit der Hongkong Telecom hat Nokia die Einführung der GPRS-Technik

L AN line Spezial Highlights I/2000

bei diesem Mobilfunknetzbetreiber vereinbart. Der Fullservice-Anbieter will damit vor allem auf die enorme Nachfrage nach mobilen Datendiensten wie E-Mail oder Videoübertragung reagieren. In Deutschland haben Ericsson (www. ericsson.de) und T-Mobil einen Vertrag über die Implementierung von GPRS in das D1-Netz unterzeichnet. T-Mobil plant, dadurch mobile Internet-Dienste mit Übertragungsraten von bis zu 115 kBit/s bereitzustellen. Eingeschlossen in die Vereinbarung ist nach Aussagen der Unternehmen auch die EricssonPlattform für Paketvermittlung und Routing. Neben der Lieferung und Implementierung der Technologie wollen sie zudem mit der gemeinsamen Entwicklung von Applikationen beginnen, um Endkunden durch neue Möglichkeiten der mobilen Datenkommunikation voranzubringen. Bereits über GPRS hinaus geht das UMTS-Testsystem in Düsseldorf, über das Sprache und bewegte Bilder übertragen wurden. An diesem System, von Ericsson eingerichtet, sind sowohl Mannesmann Mobilfunk als auch T-Mobil beteiligt. Das Testequipment besteht aus einem Vermittlungssystem und drei Basisstationen. Von mehreren eigens konzipierten Meßund Demonstrationsfahrzeugen aus werden detaillierte Auswertungen geliefert. Im ersten Schritt steht laut Ericsson die Untersuchung der Funktechnik unter realistischen Bedingungen im Vordergrund. In einer zweiten Phase soll der Schwerpunkt auf mobilen Multimedia-Anwendungen liegen. Mit den Testergebnissen würden die weiteren – noch nicht

endgültig abgeschlossenen – UMTS-Standardisierungsaktivitäten vorangetrieben, so die beteiligten Unternehmen. Auch Alcatel (www.alcatel. de) hat nach eigenen Angaben mit T-Mobil einen Vertrag abgeschlossen, wodurch das Mobilfunknetz mit GPRS-Hardund Software dieses Unternehmens erweitert werden soll. Die Lieferungen umfassen die Mobilfunklösungen Evolium für über 1000 Basis-Funkstationen (BTS-Base Transceiver Station) und die Steuerungen (BSC-Base Station Controllers). T-Mobil will mit dem Erweiterungsauftrag sein Mobilfunknetz um neue Dienste wie EFR-(Enhanced Full Rate) und GPRS-Dienste ergänzen. EFR ist eine neue Form der digitalen Aufbereitung von Gesprächsdaten für die Funkübertragung, welche die Sprachqualität verbessern soll. Bereits auf der diesjährigen CeBIT hatte Alcatel eine komplette Lösung vorgestellt, die aus einem SGSN besteht, der die Verschlüsselung, Datenkomprimierung und Gebührenerfassung verwaltet sowie einem GGSN, der die Interaktion mit den externen Paketnetzen gewährleistet. Das Produkt soll sich für den Betrieb in Anlagen unterschiedlicher Hersteller eignen und in allen GSM- Netzen realisierbar sein. Es basiere auf einer Backbone-Netzarchitektur, die in Zusammenarbeit mit Cisco entwickelt wurde, so Alcatel. Die Funklösungen Evolium des Unternehmens für GSM- 900/1800-Netze verfügten über eine voll kompatible Hardware, damit die GPRSDienste durch eine einfache Software-Erweiterung eingeführt werden könnten, ohne daß Arbeiten an den einzelnen

Standorten notwendig sind. Der speziell für den GPRSDienst erforderliche multifunktionale Server Alcatel 935 MFS soll hierbei für die Steuerung der Datenübertragung dienen. Installiert an jeder mobilen Vermittlungsstelle kann die Kapazität des Servers laut Alcatel je nach GPRS-Verkehrsaufkommen angepaßt werden. Einen ersten Großauftrag in puncto GPRS kann auch Motorola (www.motorola.de) aufweisen. Der Geschäftsbereich Funktelefonnetze wird nach eigenen Angaben Netzinfrastruktur-Equipment mit GPRSTechnologie an Cellnet, einen britischen Anbieter von Mobilfunknetzen liefern. Der Auftrag soll neben der gesamten Entwicklung auch die Implementierung und Systemverantwortung für das Netz umfassen. Cellnet will die schnelle drahtlose Datenübertragung mit der Einführung von neuen Diensten koppeln, die das Internet bietet. Dazu zählt das Unternehmen beispielsweise Intranet-Anwendungen via Mobiltelefon, mobiles E-Commerce und Internet-Surfen. Unter Verwendung der WCDMA-Funktechnik (Wideboard-CDMA) der dritten Generation (3G) baut Nortel Networks (www.nortelnetworks. com) derzeit ein paketbasiertes Funknetz für mobile Videokonferenzen und schnelle Internet-Recherche. Dabei sollen Übertragungsgeschwindigkeiten von bis zu 385 kBit/s erreicht werden. Die Übertragungen gehörten zu einer Serie von Demonstrationen einschließlich Sprachtransfers über das öffentliche Telefonnetz mit 3G-Terminals und Datentransfers unter Einsatz von Laptops.

Mit Hilfe eines Testnetzes wollen Lucent Technologies und Vodaphone, Betreiber eines Mobilfunknetzes in England, die Technologie der dritten Mobilfunkgeneration zur Marktreife entwickeln. Die Zusammenarbeit erfolgt im Rahmen eines Superhighway-Versuchs in Großbritan-

nien. In dem gemeinsamen Testnetz sollen viele Aspekte berücksichtigt werden, so etwa die Leistungsfähigkeit der Breitband-CDMA-Technologie. Durch Probeläufe könnten zum Beispiel technische Probleme bei UMTS frühzeitig erkannt werden, so Lucent. Die gewonnenen Er-

kenntnisse würden den Normierungsbehörden für Mobilkommunikations-Standards zugänglich gemacht. Dazu gehören das European Telecommunications Standards Institute (ETSI), das UMTSForum sowie die GSM MoU Association. (Thomas Schepp/sm)

L AN line Spezial Highlights I/2000

37

SERVER-TECHNIK

AUSFALLSICHERUNGEN FÜR SERVER-SYSTEME

Hochverfügbarkeit à la Carte Intel-basierende Server unter NT und Netware übernehmen zunehmend kritische Aufgaben im Unternehmen. Damit wächst auch die Abhängigkeit von ihrer durchgängigen Verfügbarkeit für den Benutzer. Das LANline-Lab gibt eine Übersicht über Bedrohungspotentiale, Verfügbarkeitsstufen und die Funktionsweise verschiedener Lösungen für die Hochverfügbarkeit von Server-Systemen.

eder verantwortliche Netzadministrator kennt die höchst unangenehme Situation: Der Server “steht”. Ungewiß ist, warum er “streikt”, wann er wieder laufen wird und ob die Datensicherung nicht doch nur Betriebsamkeit vorgetäuscht hat. Gewißheit herrscht in diesem Moment nur über die bevorstehenden bohrenden Fragen der Kollegen, wann sie denn endlich wieder arbeiten könnten und warum das Netzwerk immer so furchtbar unzuverlässig sei. Ob dieser Eindruck stimmt, könnte ein Blick in die Statistik beweisen. Liegt der Sytemstillstand beispielsweise bei insgesamt 44 Stunden pro Jahr, so ergibt sich zwar eine rechnerische Systemverfügbarkeit von beachtlichen 99,5 Prozent. Fällt die Stillstandsdauer aber in die übliche Bürozeit, so kann dies auch einen Ausfall an immerhin 5,5 Arbeitstagen bedeuten. Einige Unternehmen und Organisationen können mit diesen Verfügbarkeitswerten leben, für andere sind sie schlichtweg inakzeptabel: Für sie kostet jede Stunde oder gar Minute Ausfallzeit bares Geld oder sie gefährdet gar Menschenleben. Mit den genannten 99,5 Prozent setzen Server-Hersteller wie Digital, NCR und HP die durchschnittliche Verfügbarkeit von Server-Systemen an, die mit einem fehlertoleranten Festplattensystem auf RAID-Basis ausgestattet sind (zum Beispiel RAID 1 oder 5). Dabei müssen Server einem weiten Spektrum von Bedro-

J

38

L AN line Spezial Highlights I/2000

Im folgenden werden die technischen Aspekte der zentralen Lösungsansätze “Datenspiegelung mit Failover”, “HighAvailability-Cluster” sowie “fehlertolerante Server-Systeme” zur Erzielung der Verfügbarkeitsstufen 2 bis 4 anhand exemplarischer Produkte für Netware- und Windows-NT-Server vorgestellt. Alle drei Lösungsansätze setzen im Normalfall die Redundanz wichtiger Hardware-Komponenten auf Systemebene, eine Absicherung gegen Stromschwankungen und -ausfall mit Hilfe von unterbrechungsfreien Stromversorgungen, Serverund Anwendungsabsicherung gegen zerstörerischer Benutzereingriffe und nicht zuletzt eine funktionierende Datensicherung voraus.

hungspotentialen trotzen, das von einfa- DATENSPIEGELUNG MIT FAILOVER Als chen Hardware-Defekten und Software- Einstieg in die Verfügbarkeitsstufe 2 von Fehlern über unsachgemäße Benutzerein- Server-Systemen bietet sich Netzwerk-bagriffe bis hin zu Naturkatastrophen reicht. sierende Datenspiegelung mit Failover an. Je nach individueller Risikoeinschätzung Dieses Konzept stellt in seiner Grundidee für bestimmte Bedrohungsformen sollten einem aktiven, primären Server einen Sigeeignete Gegenmaßnahmen getroffen cherungs-Server zur Seite, der die Dawerden. tenressourcen des primären Servers über Von der International Data Corporation ein separates Server-Netzwerk (zum Bei(IDC) kommt ein Ansatz zur Bewertung spiel 100Base-T oder FDDI) spiegelt und von Systemen aus Hardware und Software nach dessen Ausfall diese für Benutzerzumit der Zielsetzung kontinuierlicher Ver- griffe wieder bereitstellen kann (Failover). fügbarkeit. Vier Verfügbarkeitsstufen Die Datenspiegelung erfolgt entweder (VS) beschreiben einen Verfügbarkeits- im Low-Level-Bereich auf der Basis von grad zwischen 99,5 Prozent (VS 1, ver- RAID-1 oder auf Dateiebene nach dem schiedene redundante Hardware-Komponenten) und Verfügbarkeits- Auswirkungen des Ausfalls einer beliebigen Schutzfunktionen für das System Komponente auf Systembenutzer 99,999 Prozent (VS stufe (VS) hundertprozentige Redundanz von Komponenten transparent für aktive Benutzer; keine 4 4, zirka fünf Minuten 99,999% und Funktionen Unterbrechung der Arbeit; kein zum Beispiel durch fehlertolerante ServerTransaktionsverlust; keine PerformanceSysteme) Verminderung Stillstand im Jahr) automatische Failover-Prozedur transferiert Benutzer bleiben verbunden; aktuelle 3 sowie die jeweiligen 99,99% Transaktion muß gegebenenfalls neu gestartet Benutzersitzungen und Arbeitsbelastung auf Sicherungskomponenten; mehrere werden; Performance-Verminderung muß Auswirkungen eines Systemverbindungen zum Festplattengegebenenfalls in Kauf genommen werden Subsystem beziehungsweise Festplattenspiegelung über Netzwerkverbindung Komponentenauszum Beispiel durch High-Availability-Cluster mit zusätzlicher Client-Unterstützung zur falls auf aktive Syautomatischen Rekonstruktion von Verbindungen) Benutzersitzungen werden auf Benutzer werden unterbrochen; können stembenutzer. Die 2 kurzfristig Sitzung wiederherstellen; müssen Sicherungskomponenten transferiert; 99,9% mehrere Systemverbindungen zum gegebenenfalls Transaktionen über Schutzfunktionen inFestplatten-Subsystem beziehungsweise FestplattenJournalaufzeichnung erneut starten; Performance-Verminderung spiegelung über Netzwerkverbindung nerhalb der Verfügmuß gegebenenfalls in Kauf genommen werden zum Beispiel durch Datenspiegelung mit Failover oder HA-Cluster) barkeitsstufen lassen 1 Arbeit wird bis zur Systemwiederherstellung RAID-Array und andere Hardwarezum Beispiel über Datensicherung) unterbrochen; Redunanzen sowie Protokoll beziehungsweise sich durch unter- 99,5% unkontrolliertes Herunterfahren des Systems; Journal-basiertes Dateisystem zur Identifikation und Wiederherstellung von Datenintegrität ist sichergestellt schiedliche Lösununvollständigen Transaktionen gen zur Ausfallsi- Quelle: International Data Corp., Übersetzung und Ergänzungen: Peter Meuser cherung von Servern Server-Verfügbarkeitsstufen (Availability Levels) zur Bewertung von realisieren. Hochverfügbarkeitslösungen

Round-Robin-Verfahren. Im letzteren Fall werden Bereiche des Dateisystems kontinuierlich nach geänderten Dateien durchforstet, um diese dann auf den SicherungsServer zu kopieren. Das dateiorientierte Verfahren kann zu relativ großen Verzögerungen bei der Dateiübertragung führen. Geänderte Daten, die vor einem Server-

den Benutzern zur Verfügung gestellt. Zu den transferierbaren Ressourcen zwischen aktiven Servern zählen IP-Adressen, NetBIOS-Namen (NT), Datenträger, Dateifreigaben (NT) und aktive Server-Dienste (angepaßte Unterstützung für spezifische Server-Dienste erforderlich). Die Benutzer sprechen die Ressourcen – unabhängig von der tatsächlich aktiven Server-Plattform – als “virtuelle Server” über das Netz an. Bei beiden VarianSYS SYS SYS SYS SYS1 Data Data Data Data1 ten des SicherungsSYS2 Data2 Servers (aktiv bezieSYS3 Primary Primary Primary Standby- Data3 Server 1 Server 2 Server 3 Server hungsweise Standprivates Server-Netzwerk by) werden Benutzer (z.B. auch Fast Ethernet) Hub nach einem Ausfall zunächst in ihrer Ar“Many-to-One” Datenspiegelung über Standby-Server am Beispiel Vinca Standby-Server Many-to-One for Netware beit unterbrochen. Ungesicherte Daten einschließlich unvollAusfall noch nicht erfaßt und übertragen ständiger Transaktionen gehen verloren, sind, gehen daher verloren. und eine erneute Anmeldung am SicheFällt der primäre Server aus, aktiviert der rungs-Server ist erforderlich. Abhängig Sicherungs-Server die gespiegelten Da- von der Art des Sicherungs-Servers kann tenressourcen in eigener Regie und über- die unvermeidbare Unterbrechung jedoch nimmt im Idealfall vollständig die Identität kürzer (aktiver Sicherungs-Server) oder des ausgefallenen Servers, bis dieser wie- länger (Standby-Server) ausfallen. Insbeder in Betrieb genommen werden kann. sondere unter Netware spielt die erforderGrundsätzlich läßt sich bei dieser Art der liche Zeit zum Mounting umfangreicher Datenspiegelung zwischen einem Aktiv/ Volumes eine wesentliche Rolle. Passiv- und einem Aktiv/Aktiv-Design auf Sicherungs-Server müssen in ihrer AusSystemebene unterscheiden. Innerhalb ei- stattung nicht genau dem primären Server ner Aktiv/Passiv-Konfiguration, die vor al- entsprechen, sondern lediglich in der Lage lem in der Netware-Welt anzutreffen ist, sein, dessen Arbeitslast – gegebenenfalls sichert ein passiver Standby-Server einen zusätzlich zur eigenen – bis zur Reaktivieprimären Server ab. Außer der Sicherungs- rung des ausgefallenen Servers zu tragen. arbeit übernimmt er keine anderen Aufga- Je nach Anwendungsumgebung ist zu entben im Netz, beim Failover wird er mit den scheiden, wie weit dabei eventuelle PerforDaten, Diensten und der Identität des mance-Einbußen hingenommen werden primären Servers neu gestartet. können und welches Sicherungsdesign anIn Aktiv/Aktiv-Konfigurationen, die das gemessen ist. Kosteneinsparungen lassen Lösungsspektrum im NT-Umfeld beherr- sich mit Lösungen erzielen, die nach dem schen, kann der Sicherungs-Server – unab- Schema Many-to-One arbeiten. Bei diehängig vom primären Server – neben sei- sem Konzept kann ein Sicherungs-Server ner Sicherungsarbeit auch Funktionen wie mehrere primäre Server absichern. beispielsweise Printserver oder DomänenPionier im Bereich Datenspiegelung mit Controller übernehmen. Fällt ein Server Failover für Netware ist die Firma Vinca aus, werden die nicht mehr zugänglichen mit ihrer Standby-Server-Produktfamilie, Ressourcen automatisch vom einsatzfähi- die mittlerweile in identischer Form auch gen Sicherungs-Server übernommen und von Novell vertrieben wird (“Novell >

>

>

>

Standbyserver”). Die Produktvariante Vinca Standby-Server Many-to-One erlaubt es beispielsweise, mehrere Netware-Server unter verschiedenen Betriebssystemversionen (zum Beispiel Netware 3.12, 4.1 und 4.11) gleichzeitig durch einen einzigen Standby-Server abzusichern. Dieser kann beim Ausfall automatisch die vollständige Identität (inklusive Betriebssystemversion und -lizenz) eines primären Servers annehmen und zugleich weiterhin die Festplatten-Ressourcen der übrigen Server spiegeln. Vinca nutzt für die Datenspiegelung in Echtzeit direkt Novells Mirroring-Code. Nachteil dieses Ansatzes ist, daß die Festplatten von Standby- und primärem Server nach einer Wiederbelebung des letzteren erneut synchronisiert werden müssen. Dies ist je nach Datenumfang ein langwieriger Prozeß. Anfang 1999 will Vinca das Zusatzprodukt “Offsite Archive for Netware” auf den Markt bringen, das aktualisierte Daten kontinuierlich auf einen entfernten Server über eine WAN-Verbindung (zum Beispiel ISDN) überträgt und somit einen weitergehenden Katastrophenschutz bereitstellt. Andere Many-to-One-Standby-ServerLösungen für Netware stehen mit den Produkten Lanshadow von Global Data Security (dateiorientierte Datenspiegelung), Lantegrity von Network Integrity (gemischte dateiorientierte und Echtzeit-Datenspiegelung, Test in LANline 2/98) und Double-Take von NSI Software (EchtzeitDatenspiegelung) zur Auswahl. Unterschiede finden sich beispielsweise beim Failover-Verhalten. Die vollständige Emulation des primären Servers wird von Lanshadow 4.6 nicht unterstützt, Double-Take 2.6 benötigt unter Netware 4.1x manuelle Eingriffe. Eine automatische Aktivierung des Standby-Servers bieten Lantegrity 4.0 und Vinca Standby-Server Many-to-One 2.12. Unter NT stehen mit Co-StandbyServer for Windows NT von Vinca (siehe Test in LANline 9/98), Double-Take for Windows NT von NSI Software, Arcserve Replication von Computer Associates und Octopus HA+ von Fulltime Software (ehemals Qualix Group) Lösungen bereit, die allesamt Aktiv/Aktiv-Konfigurationen

L AN line Spezial Highlights I/2000

39

SERVER-TECHNIK

und bis auf Vinca Co-Standby-Server auch eine Many-to-One-Absicherung erlauben. Die Vinca-Lösung arbeitet jedoch als einzige in dieser Runde – wie auch das Schwesterprodukt für Netware – mit einer

auf Systemebene. Voneinander abhängige Server-Ressourcen werden in Gruppen zusammengefaßt (zum Beispiel DatenbankServer-Dienst, IP-Adresse und Volumes), die beim Ausfall eines Servers oder zur statischen, manuellen Lastverteilung von Cluster-Knoten zu Cluster-Knoten wandern können. Dabei nur eine LAN»I/O Processors« (NT Workstation oder Server Anbindung ist auf UP- oder MP-Systemen) jeweils aktiv erreichen HA-Cluster eine wesentliche feiSpiegelung nach RAID-1 Data1 Data1 nere Failover-GranuData2 Data2 privates IOP-Netzwerk (100 Base-T) Marathon Marathon larität als Lösungen Interface Interface Card Card mit Netzwerk-basieHigh-Speed Links (max. 1,5 Km) render DatenspiegeMarathon Marathon Interface Interface lung, die ausschließCard Card »Compute Elements« (NT Server und Anwendungen CPU CPU lich den Failover auf Uni-Prozessor-Systemen) Memory Memory kompletter Systeme unterstützen. Aber auch HAFehlertolerantes Server-System: Marathon Endurance 4000 für NT Cluster bewegen sich im Normalfall im BeLow-Level-Datenspiegelung in Echtzeit. reich der Verfügbarkeitsstufe 2, da mit dem Da sich NT verglichen mit Netware ei- Failover-Prozeß Benutzersitzungen unterner größeren Popularität als Plattform für brochen werden. Im Vergleich zu LösunMessaging-/Groupware- und Datenbank- gen auf der Basis von Datenspiegelung mit anwendungen erfreut, bieten die genannten Failover fallen die Unterbrechungszeiten Lösungen neben dem obligatorischen Fai- im Normalfall jedoch deutlich kürzer aus, lover von Dateifreigaben auch spezielle und die langwierige Resynchronisierung Failover-Unterstützungen für verbreitete der Daten über das Netzwerk entfällt gänzServer-Anwendungen wie Internet Infor- lich. Das Spektrum der Auswirkungen eimation Server, Exchange Server und SQL- nes Ausfalls auf aktive Systembenutzer hält Server an. sich in engen Grenzen. Im günstigsten Fall kommt es lediglich zu kurzen VerzögerunHIGH-AVAILABILITY-CLUSTER High- gen beim Zugriff auf einen Fileserver Availability-Cluster (HA-Cluster) basie- während der Fehlererkennung und Reaktiren nicht auf Datenspiegelung zwischen vierung ausgefallener Ressourcen, die 32Servern, die in einem Cluster zusammen- Bit-Netzwerk-Clients von Microsoft gefaßten Server-Knoten verfügen viel- führen über TCP/IP einen automatischen mehr über einen direkten Zugriff auf ge- Reconnect zum neuen Server ohne Verlust meinsame Festplattensysteme. Dies sind der Netzlaufwerke durch. Im schlimmsten RAID-Subsysteme, die mit den beteiligten Fall ist eine Neuanmeldung bei der ServerServern zum Beispiel über einen gemein- Anwendung nötig, verbunden mit Transaksamen SCSI-Bus (Differential SCSI), über tionsverlust und einigen Minuten WarteFibre Channel oder IBMs SSA (System zeit, bis alle erforderlichen Datenträger und Storage Architecture) verbunden sind. Dienste auf dem neuen Server präsent sind. Jeweils nur ein Server besitzt das exkluDie Verfügbarkeitsstufe 3 läßt sich im sive Zugriffsrecht auf ein aktives logisches Umfeld von HA-Clustern heute nur von Volume, es kann innerhalb des HA-Clu- Anwendungslösungen erreichen, die lausters bei Bedarf von Server zu Server wech- fend kritische Kontextinformationen der seln. HA-Cluster-Lösungen beherrschen Client/Server-Beziehung aufzeichnen und generell den Aktiv/Aktiv-Arbeitsmodus im Bedarfsfall wiederherstellen können. >

40

>

>

>

L AN line Spezial Highlights I/2000

Ein dafür geeignetes Entwicklungsumfeld für Anwendungen bietet zum Beispiel Oracle mit dem Produkt Fail Safe in Verbindung mit einem Oracle-Datenbank-Server und dem Microsoft-Cluster-Server. HA-Cluster arbeiten zwar nach dem Aktiv/Aktiv-Modell auf Systemebene, jedoch beherrschen heute die meisten Lösungen nur eine Aktiv/Passiv-Konfigurationen auf Anwendungsebene. Dies bedeutet, daß ein Dienst jeweils nur auf einem Server-Knoten aktiv sein kann. Mit dem Failover-Prozeß wandert der Dienst von Server zu Server. Einige Cluster-Lösungen erlauben in Kombination mit bestimmten Server-Anwendungen auch Aktiv/Aktiv-Konfigurationen auf Anwendungsebene. Dazu zählen zum Beispiel Microsoft SQL-Server 6.5 Enterprise Edition unter Microsoft Cluster Server und SQL-Server 6.5 unter NCR Lifekeeper for NT. In einer solchen Aktiv/Aktiv-Konfiguration laufen unabhängige SQL-Server parallel auf beiden Cluster-Knoten, die im Bedarfsfall die Datenbanken des anderen SQL-Servers zusätzlich übernehmen können. Vorteile der Aktiv/Aktiv-Konfiguration auf Anwendungsebene sind kürzere Failover-Zeiten, da der erforderliche Dienst nach einem Failover nicht erneut gestartet werden muß. Zudem eröffnet sich eine feiner granulierte – wenn auch nach wie vor statische – Möglichkeit zur Lastverteilung auf Datenbankebene statt auf Server-Ebene. Im NT-Bereich existiert bereits eine ganze Reihe von HA-Cluster-Lösungen: Microsoft Cluster Server alias Wolfpack Digital Cluster for NT, NCR Lifekeeper for NT und Veritas Firstwatch for NT. Die heutigen Lösungen unterstützen bis auf Lifekeeper maximal zwei Server im ClusterVerbund zur gegenseitigen Absicherung. Lifekeeper unterstützt theoretisch bis zu 16 Cluster-Server, in der Praxis sind Konfigurationen aus bis zu vier Rechnern anzutreffen. Bis zu 32 NT-Server-Knoten soll künftig das Produkt Cluster Server von Veritas verbinden. Da geschützte Ressourcengruppen immer nur auf einem Cluster-Knoten aktiv sein können, liegt der Vorteil einer Unterstützung zusätzlicher Server in der Mög-

lichkeit zu einem kaskadierten Failover und zur Ausfallsicherung nach dem Schema N+1. Bei einem kaskadierten Failover bleiben gruppierte Ressourcen auch nach Mehrfachausfällen verfügbar, indem sie nach vorgegebener Priorität innerhalb des Clusters automatisch auf verbleibende Server wechseln. Das Schema N+1 entspricht der beschriebenen Many-to-One-Beziehung von Datenspiegelungslösungen. Neben NCR bietet als weiterer namhafter Server-Hersteller auch Compaq Software-Lösungen zum Thema Hochverfügbarkeit für NT an, beschränkt allerdings auf die eigene Hardware. Der CompaqOn-Line-Recovery-Server läßt sich vom Funktionsangebot zwischen einer Standby-Server-Lösung und einem HA-Cluster ansiedeln: Zwei aktive Server mit gemeinsamen Zugriff auf Proliant-Storage-Systeme sichern sich gegenseitig ab, allerdings wechseln die Netzwerkidentitäten beim automatischen Failover von Server zu Ser-

I M P R E S S U M HERAUSGEBER: Eduard Heilmayr (he) REDAKTION: Rainer Huttenloher (Chefredakteur) (rhh) Stefan Mutschler (Chefredakteur) (sm) Doris Behrendt (db) Dr. Götz Güttich (gg) Georg von der Howen (gh) Kurt Pfeiler (pf) Marco Wagner (mw) STÄNDIGER MITARBEITER: Thomas Schepp AUTOREN DIESER AUSGABE: Heike Bathe, Frank Michael Beer, Peter Cox, Stehpan Fritsche, Mathias Hein, Thomas Hoffmann, Sibylle Klein, Michaela Klinkel, Volker Langer, Bengt Lundin, Peter Meuser, Ingrun Preuss-Hock, Artur Radwan, Thomas Schepp, Werner Sittinger, Antti Sivula, Dieter van Acken REDAKTIONSASSISTENZ Edith Klaas, Tel.: 089/4 56 16-101 REDAKTIONSANSCHRIFT: Bretonischer Ring 13, 85630 Grasbrunn, Fax: 0 89/4 56 16-200 LANline-Compuserve-ID: [email protected] http//:www.lanline.de LAYOUT, GRAFIK UND PRODUKTION: Daniela Ernst, Tel.: 089/4 56 16-224, Edmund Krause (Leitung) ANZEIGENDISPOSITION: Daniela Ernst, Tel.: 089/4 56 16-224 Sandra Pablitschko, Tel.: 089/4 56 16-108 TITELBILD: Wolfgang Traub ANZEIGENVERKAUF: Christine Endres, Tel.: 0 89/456 16-106 E-Mail: [email protected] Anne Kathrin Latsch, Tel.: 089/456 16-102 E-Mail: [email protected] ANZEIGENVERKAUFSLEITUNG AWI Cornelia Jacobi, Tel.: 089/71 94 00 03

ver. Benutzer müssen manuell neue Verbindungen aufbauen. Compaq bietet diese Lösung seinen Kunden zwar noch an, setzt jedoch im NTBereich im Rahmen der Anfang Dezember angekündigten Enterprise Network Storage Architecture (ENSA) strategisch auf den Microsoft-Cluster-Server (MSCS) und die Produkte von Veritas. Das Schicksal des On-Line-Recovery-Servers teilt auch der Compaq/ Digital-Cluster-Server. Diese Lösung ist zwar eine der Entwicklungswurzeln von MSCS und kann auch eine Verbreitung selbst in größeren Installation (zum Beispiel E-Plus) vorweisen, muß jedoch zukünftig in der strategischen Planung dem “Newcomer” aus Redmond Platz machen. Auch für das Netware-Lager ist inzwischen die erste HA-Cluster-Lösung erhältlich. Novell selbst rührt die Vertriebstrommel für ein Produkt (Code-Name: Orion I) aus der Entwicklungsküche der

E-Mail: [email protected] ANZEIGENPREISE: Es gilt die Preisliste Nr. 11 vom 1.1.1999 ANZEIGENASSISTENZ: Davorka Esegovic, Tel.: 0 89/4 56 16-156 ANZEIGENVERWALTUNG: Gabriele Fischböck, Tel.: 0 89/45616-262 Fax: 089/45616-100 ERSCHEINUNGSWEISE: LANline Spezial I/2000 Highlights der Netzwerktechnik ist ein Sonderheft der LANline, das Magazin für Netze, Daten- und Telekommunikation ABONNEMENT-BESTELL-SERVICE: Vertriebs-Service LANline Edith Winklmaier, Herzog-Otto-Str. 42, 83308 Trostberg, Tel.: 0 86 21/64 58 41, Fax: 0 86 21/6 27 86 Zahlungsmöglichkeit für Abonnenten: Bayerische Vereinsbank München BLZ 700 202 70 Konto-Nr. 32 248 594 Postgiro München BLZ 700 100 80 Konto-Nr. 537 040-801 VERTRIEB EINZELHANDEL: MZV, Moderner Zeitschriften Vertrieb, Breslauer Str. 5, 85386 Eching BEZUGSPREISE DER LANLINE: Jahresabonnement Inland: 148,– DM Ausland: 174,– DM (Luftpost auf Anfrage) Vorzugspreise DM 110,- (Inland), DM 121,80 (Ausland) für Studenten, Schüler, Auszubildende und Wehrpflichtige – nur gegen Vorlage eines Nachweises (Immatrikulations-/ Schulbescheinigung o.ä.). Sollte die Zeitschrift aus Gründen, die nicht vom Herausgeber zu vertreten sind, nicht geliefert werden können, besteht kein Anspruch auf Nachlieferung oder Erstattung vorausbezahlter Bezugsgelder.

Firma Vinca, die neuerdings für alle Hochverfügbarkeitsoptionen von Novell verantwortlich zeichnet. Das Produkt trägt – entgegen dem sonstigen MarketingTrend hin zum “Cluster” – den unscheinbaren Namen Novell High Availability Server (NHAS). Die zunächst als Understatement wirkende Namensgebung ist nicht ganz unangemessen, denn im Vergleich zum Stand der NT-Welt enttäuscht Novells erster rudimentärer Schritt der bereits auf der Brainshare 1997 groß angekündigten Cluster-Entwicklungsstrategie etwas. Die Architektur von NHAS zeigt noch keinerlei Gemeinsamkeit mit der damals demonstrierten Wolf-Mountain-Technologie auf der Basis eines skalierbaren Zwölf-Knoten-Server-Clusters und baut statt dessen auf einer ausfallsichernden Zwei-KnotenKonfiguration mit gemeinsamem RAIDSubsystem (zum Beispiel von Compaq, IBM oder Dell) auf.

SONDERDRUCKDIENST: Alle in dieser Ausgabe erschienenen Beiträge sind in Form von Sonderdrucken erhältlich. Anfragen richten Sie bitte an Edmund Krause, Tel.: 0 89/4 56 16-240, Fax: 0 89/4 56 16-250 DRUCK: Gerber Grafische Betriebe GmbH, Dieselstr. 22, 85748 Garching-Hochbrück URHEBERRECHT: Alle in der LANline erscheinenden Beiträge sind urheberrechtlich geschützt. Alle Rechte, auch Übersetzungen, vorbehalten. Reproduktionen, gleich welcher Art, nur mit schriftlicher Genehmigung des Herausgebers. Aus der Veröffentlichung kann nicht geschlossen werden, daß die beschriebenen Lösungen oder verwendeten Bezeichnungen frei von gewerblichem Schutzrecht sind. © 1999 AWi LANline Verlagsgesellschaft mbH MANUSKRIPTEINSENDUNGEN: Manuskripte werden gerne von der Redaktion angenommen. Mit der Einsendung von Manuskripten gibt der Verfasser die Zustimmung zum Abdruck. Kürzungen der Artikel bleiben vorbehalten. Für unverlangt eingesandte Manuskripte kann keine Haftung übernommen werden. VERLAG: AWi LANline Verlagsgesellschaft mbH Ein Unternehmen der AWi Aktuelles Wissen Verlagsgesellschaft mbH, Bretonischer Ring 13, 85386 Grasbrunn Web: http://www.awi.de Geschäftsführer: Eduard Heilmayr, Cornelia Jacobi ISSN 0942-4172

i v w

Mitglied der Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V. (IVW). Bad Godesberg Mitglied der Leseranalyse Computerpresse 1999

L AN line Spezial Highlights I/2000

41

SERVER-TECHNIK

Die spezielle Unterstützung für Netware 5 und dessen Novell Storage Services (NSS) wurde Anfang 1999 nachgeliefert, so daß in der ersten Fassung Datenträger nach einem Failover erst wieder nach den bisher üblichen langen Mount-Zeiten von Netware aktiv sind. Aber auch dann werden die Benutzer ihre vor dem Absturz bestehenden Laufwerkszuordnungen manu-

eines Software-Fehlers, wird auch diese Programmreaktion auf den redundanten Systemen gespiegelt. HA-Cluster-Lösungen, die eine Überwachung bis auf Dienstbasis erlauben, versuchen dagegen den Prozeß auf demselben oder einen anderen Knoten im Cluster-Verbund neu zu starten. In den Höhen fehlertoleranter ServerSysteme der Verfügbarkeitsstufe 4 wird die Luft im Umfeld von Netware und NT recht dünn. Novell bietet mit System Ethernet-Hub Fault Tolerance privater ServerKommunikationspfad (SFT) III seit Jahren Server 1 Server 2 Server 3 Server 4 die einzige funktiinterne onstüchtige ServerTerminierung Spiegelung für NetDifferential SCSI-Bus-Segment ware an, jedoch sind SCSI-Hub bzw. SCSI-Switch auch deren Tage geStorage zählt: SFT III bleibt Processor als Option lediglich Data1 Data2 RAID-Array-Subsystem Netware 4.11 vorbeData3 Data4 halten und wird für Netware 5 nicht mehr High-Availability-Cluster aus vier Servern am Beispiel NCR Lifekeeper for NT und Shared-SCSI RAID-Array-Subsystem weiterentwickelt. Nach Darstellung von Novell verhindert die ell dem neuen Server-Namen zuordnen neue interne Architektur von Netware 5 müssen, da Novells Client32-Technologie mit preemptiver Prozeßverteilung, intekein automatisches Failover unterstützt. grierter Multiprozessor-Unterstützung im Entsprechendes gilt für Printserver und Kernel (MPK) und erweitertem SpeicherNovell Groupwise. schutz die Implementation von SFT III. In der Praxis bewährte sich Novells SerFEHLERTOLERANTE SERVER-SYSTEME ver-Spiegelung zudem primär nur für die Die Spitze der Verfügbarkeitsskala erfor- Absicherung der eigenen Datei- und dern kritische Unternehmensanwendun- Druckdienste: Im gespiegelten Anwengen wie Börsen- oder Flugbuchungssyste- dungsraum von SFT III, der “MS Engine”, me. Nach wie vor ist dies die Domäne von fühlt sich lediglich eine begrenzte Anzahl Spezialsystemen unter Unix wie den Non- von anderen Diensten auf NLM-Basis stop-Himalaya-Servern von Compaq/Tan- wohl. Dies schränkt den Kreis sinnvoller dem oder den Systemen der Stratus Enter- Anwendungsbereiche, die den finanziellen prise Computer Devision von Ascend Aufwand eines Spiegel-Servers lohnen, Communications. deutlich ein. Im Vergleich zu HA-Clustern umfassen Die derzeit einzige fehlertolerante Serfehlertolerante Server-Systeme zwar eine ver-Lösung für den NT-Bereich bietet die 100prozentige Redundanz aller Kompo- amerikanische Firma Marathon mit dem nenten und Funktionen, so daß Benutzer Produkt Endurance 4000 an. Sie baut auf bei beliebigen Hardware-Ausfällen ohne vier Intel-basierenden Computern von Unterbrechung weiterarbeiten können, je- Herstellern wie Compaq, Dell, HP oder doch bieten sie keinen vergleichbaren IBM auf, die mit Hilfe der proprietären Schutz gegen Software-Abstürze. Stoppt “Marathon Interface Cards”, Glasfaserverein Server-Prozeß zum Beispiel aufgrund kabelung und entsprechender Software zu >

42

>

OS

OS

SCSIAdapter

SCSIAdapter

>

>

OS

OS

SCSIAdapter

SCSIAdapter

L AN line Spezial Highlights I/2000

einem virtuellen, fehlertoleranten Server zusammengeschlossen werden. Jeweils zwei Computer mit gegenseitig über ein separates 100Base-T-Netzwerk gespiegelten Festplattenressourcen (RAID-1 ) und redundanter LAN-Verbindung fungieren als E/A-Prozessoren. Die anderen beiden Computer übernehmen als sogenannnte Compute Elements (CE) parallel im Gleichtakt die eigentliche Rechenarbeit. Eine High-Speed-Verbindung verknüpft jedes Compute Element mit beiden E/A-Prozessoren. Unter Verwendung von Glasfaser lassen sich Entfernungen bis zu 1,5 Kilometer überbrücken, womit eine Maßnahme für den Katastrophenschutz getroffen werden kann. Fällt ein E/A-Prozessor und/oder ein Compute Element aus, wird die Server-Arbeit – für die Benutzer transparent – von den restlichen Komponenten weitergeführt. Interessant ist an dieser Lösung insbesondere, daß weder eine modifizierte NTVersion, noch spezielle Anwendungsprogramme zum Einsatz kommen müssen. Nach Aussagen des Herstellers arbeitet Endurance 4000 mit sämtlichen NT-Server-Anwendungen zusammen. Aber auch diese Lösung unterliegt den grundsätzlichen Beschränkungen fehlertoleranter Server-Systeme beim Schutz vor SoftwareProblemen. Da die E/A-Prozessoren jedoch eigenständige Computereinheiten zur Überwachung der Compute Elements darstellen, sorgen entsprechende Mechanismen immerhin dafür, daß etwa bei einem NT-Blue-Screen die CEs automatisch neugestartet werden. Wie dieser Ausflug in die Welt der Hochverfügbarkeits-Server zeigt, ist mittlerweile eine ansehnliche Auswahl an Lösungen unter Netware und NT für unterschiedliche Anforderungen an den Grad der Verfügbarkeit erhältlich. Als Schwerpunkte der weiteren Entwicklungen zeichnen sich allerdings deutlich der Bereich flexibler HA-Cluster und Lösungen für NT ab, das derzeit die Anwendungsentwicklung beherrscht. (Peter Meuser/pf) Sie erreichen den Autor über die E-MailAdresse [email protected].

SERVER-TECHNIK

TRENDS BEI BANDLAUFWERKEN UND -BIBLIOTHEKEN

Für die goldene Mitte Ein heißer Herbst zeichnete den Backup-Bereich aus. Mit Super-DLT, LTO und VXA drängen neue Techniken auf den Markt, und die etablierten Konzepte versuchen, mit optimierten Nachfolgegenerationen den Anforderungen der Anwender – mehr Kapazität, mehr Zuverlässigkeit und ein Mehr an Transferrate – auch in Zukunft gerecht zu werden.

ie Wachstumsprognosen für den Server-Markt zeichnen rosige Aussichten: Ende 1998 versprach IDC jährliche Wachstumsraten von 13 Prozent bis zum Jahr 2002. Dabei sollen die Server im Preisbereich von unter 10.000 Dollar den größten Anstieg verbuchen. Die zweite Entwicklung stammt aus dem Bereich der Harddisk-Laufwerke. Hier steigen die Kapazitäten der Laufwerke an: Auf den Einsatz der 9-GByte-Platten auf breiter Front folgt schon die nächste Generation mit 18 GByte, und die Spirale scheint so schnell kein Ende zu nehmen – bei nach wie vor fallenden Quotienten für Preis pro GByte. Dazu gesellt sich ein anderer Aspekt, der das Anfüllen der angebotenen Laufwerkskapazitäten nach sich zieht: Solange die Anwender jede noch so unwichtige Datei abspeichern und sie auch niemals löschen, solange das Verschwinden des Wellensittichs auf der eigenen Home-Page der gesamten Welt mit farbenprächtigen und hochauflösenden Bilddateien mitgeteilt werden muß, solange wird jede Festplatte nach einer kurzen “Aufwärmphase” zu nahezu 100 Prozent gefüllt sein. Nun wollen Betriebssystemhersteller wie Microsoft in der nächsten Version ihrer Netzwerkbetriebssysteme die Disk-Quotas einführen, die der Unix-Administrator schon seit längerem kennt. Dies könnte zu einer kurzen Verschaufpause bei den Kapazitätsanforderungen im Bereich der PC-basierenden Server führen, doch das Grundproblem wird damit nicht beseitigt. Als Faustregel

D

44

L AN line Spezial Highlights I/2000

gilt die Aussage: Die in einem Unternehmen gespeicherten Daten verdoppeln sich alle zwölf Monate – und diese Rate behält über die nächsten Jahre ihre Gültigkeit. Die wesentlichen Gründe für eine Sicherung der kritischen Datenbestände liegen auf der Hand – zumal in 95 Prozent aller Fälle das menschliche Versagen die Hauptrolle spielt. Eine Untersuchung der Universität von Texas (gemeinsam mit Ontrack Data) hat ergeben, daß 94 Prozent aller Firmen, die einen katastrophalen Datenverlust erlitten haben, dieses Ereignis mittelfristig nicht überlebt haben. Die Kosten für die Wiederherstellung von ungesicherten Daten sind enorm, unter Umständen kann das “Recovery” selbst bei einer traditionellen Sicherung auf Band zu lange dauern. Hier sind andere Methoden angeraten, Konzepte wie das Hochverfügbarkeits-Cluster in Kombination mit Storage Area Networks (SAN) spielen hier ihre Vorteile aus. Im Bereich der unternehmensweiten Speichersysteme konkurrieren im nächsten Jahr zwei Techniken um die Vorherrschaft. Zum einen die Weiterentwicklung von DLT, das Super-DLT und als Kontrahent dazu der LTO-Standard (siehe Beitrag ab Seite 92) mit seinen zwei Formaten “Ultrium” (Entwicklungsziel höchste Kapazität und höchste Übertragungsrate) sowie Accelsis (schnellster Zugriff auf die Daten auf dem Medium). Im mittleren Bereich treffen die Techniken AIT (mittlerweile in der zweiten Ge-

neration), SLR/MLR und Travan aufeinander, ja auch die neueste Version von DDS, DDS-4 schickt sich an, in diesem Bereich Fuß zu fassen. Im Low-end dagegen verbleiben die restlichen DDS/DATSysteme und die Travan-Laufwerke mit geringerer Kapazität. Newcomer sind hier aber dabei, den angestammten Systemen Boden streitig zu machen. Dazu zählen die ADR-Laufwerke (siehe Test in LANline Ausgabe 7/99, ab Seite 147) und die VXA-Technik von Ecrix (siehe Grundlagenbeitrag in LANline 6/99 ab Seite 138). Sie alle zielen auf die kleinen Server unter 10.000 Dollar mit den Betriebssystemen Windows NT, Netware und Unix/Linux. Neben den Tape-Laufwerken darf man den CD-ROM-Writern noch einiges Backup-Potential zutrauen, zumal einfach zu bedienende Software wie Take Two auf den Markt drängt, mit deren Hilfe sich Sicherungskopien brennen lassen, die selbst für den Bereich des Disaster-Recovery geeignet erscheinen. DLT – NACH OBEN OFFEN Bis zur Vor-

stellung der Super-DLT-Technik hat Quantum die nächste Iterationsstufe bei seiner Linear-Recording-Technologie DLT vorgestellt: DLT 8000. Auf den ersten Blick unterscheiden sich diese Geräte kaum von den Vorgängerversionen. Die Verbesserungen sind im Inneren zu suchen: Eine unkomprimierte Speicherkapazität von bis zu 40 GByte resultiert aus Verbesserungen bei der Aufzeichnung wie auch durch eine Verlängerung des Bands selbst. Die “native” Übertragungsgeschwindigkeit liegt nun bei 6 MByte/s – eine Steigerung um 20 Prozent gegenüber den Vorgängermodellen. Wichtig ist dabei, so der Hersteller, daß die Bänder der Vorgängerversionen (DLTtape IV eingesetzt bei DLT 7000 und DLT 4000, DLTtape III und DLTtape IIIxt, die in den Laufwerken DLT 2000 und DLT 2000 XT eingesetzt wurden) gelesen werden können. Für die Zuverlässigkeit der DLT8000-Laufwerke spricht eine Lebensdauer von 50.000 Stunden für die Aufzeichnungs- und Leseköpfe, eine Durchlaufzahl von 1.000.000 für die Medien sowie eine MTBF von 250.000 Stunden (bei einem

Duty-Cycle von 100 Prozent). Damit will man bei Quantum den Umsatzanteil der DLT-Technik bei den “Midrange Tape Systems” (Laufwerke mit einer Kapazität von mehr als 15 GByte) weiterhin auf einem hohen Niveau halten. 1998 lag er bei 89 Prozent, der Mitbewerb von AIT bei neun Prozent und von Exabyte bei zwei Prozent (Angaben von Dataquest und IDC). Andere Hersteller werden auf diesen DLT-8000-Zug aufspringen und in Lizenz kompatible Geräte vorstellen. HP hat dies ebenfalls für den Herbst angekündigt. So soll mit dem DLT80 ein entsprechendes System die Speicherung von 80 GByte (bei einer Kompressionsrate von 2 : 1) auf einem Band möglich werden. Mit dem angestrebten Preis von 6450 Dollar zielt HP in den Midrange-Markt. Zudem sollen drei Autoloader-Systeme auf Basis der DLT-8000-Technik folgen (in den Kombinationen zwei Laufwerke/20 CartridgeSlots, vier Laufwerke/40 Cartridge-Slots und sechs Laufwerke/60 Cartridge-Slots). Auch Tandberg hat von Quantum eine Lizenz erworben, um DLT-Systeme herzustellen und das eigene Angebot von SLR/MLR-Systemen nach oben hin abzurunden. Es ist zudem davon auszugehen, daß die Hersteller von Autoloadern diese Technik ebenfalls integrieren werden. Bisher haben ADIC, ATL Products, Breece-Hill, Exabyte, HP, Overland Data, Storagetek und Philips schon DLT-basierende Systeme auf den Markt gebracht. Auf die Helical-Scan-Technologie setzen die AIT-Systeme wie sie von Sony und Seagate Technologies vorgestellt wurden. Die Geräte der zweiten Generation, AIT-2, wie das SDX-500, glänzen mit Kapazitäten von 50 GByte (native) und einer Übertragungsrate von 6 MByte/s (native). Die MLR-Technik schafft in der dritten Generation (MLR-3) ebenfalls schon native Kapazitäten von 25 GByte und Übertragungsraten von 2 MByte/s. Bei der MLR-Technik handelt es sich um eine Linear-Recording-Technik, die mit mehreren parallelen Köpfen arbeitet. Beim System SLR50 (MLR-3-Format) kommen

beispielsweise 144 Datenspuren plus 24 Servo-Tracks zum Einsatz. Im Bereich der Bandsicherung für Einstiegs-Server bis in den Bereich der Midrange-Systeme stehen einem mit der DAT/DDS-Technik (Helical-Scan) und der Travan-Familie (Linear Recording) von Imation zwei prinzipiell unterschiedliche Alternativen zur Auswahl. Die Helical-Scan-Protagonisten nehmen für diese Technologie in Anspruch, daß sie mit einer höheren Aufzeichnungsdichte – und allen daraus resultierenden Vorteilen – arbeiten, wogegen die Linear-RecordingAnhänger die zuverlässigeren weil bandschonenderen Charakteristika in den Vordergrund stellen. Die Travan-NS-Technologie hat die Nachfolge der Formate QIC100, QIC 1000, 2000 oder QIC 3000 angetreten. Die Mini-Cartridge war ein fester Begriff für 3,5-Zoll-Datenspeicher, bis Imation 1994 mit Travan ein neues Bandformat entwickelte und in den Markt einführte. Geringfügige Veränderungen von Länge und Breite des 3,5-Zoll-QIC-Mini-KassettenFormats ermöglichten mit Travan ein Verdreifachen der damals üblichen Kapazitäten auf 400 MByte bis zu 4 GByte (unkomprimiert). Trotz neuer Abmessungen und Kapazitäten blieb die Rückwärtskompatibilität zu den alten QIC-Standards erhalten. Mittlerweile verzeichnet speziell die “Travan NS” (NS steht für Network Solution) Zuwächse beim Einsatz als kostengünstiges, zuverlässiges Datensicherungssystem bei vernetzten Systemen und Entry-Level-Servern. Travan NS zeigt aus technologischer Sicht (der linearen Datenaufzeichnung, die kompakten Komponenten) eine enge Verwandtschaft zur 5,25-Zoll-SLR/MLRTechnologie. Der Kapazitätsvorsprung der DDS-Technologie wurde durch Travan NS mit linearer Aufzeichnung egalisiert wie die Vergleiche der Travan NS8GB zu DDS-2 sowie der Travan NS20GB zu DDS-3 zeigen. Für die Zukunft erwartet Imation für die lineare Technologie, und damit auch Travan NS, sogar ein höheres Kapazitätspotential als für die lange Zeit dominierende DATTechnologie.

SERVER-TECHNIK

Für Travan NS ist speziell das Up-Sizing im Bereich der Server-Systeme von großer Bedeutung. Der Bedarf an kostengünstigen und gleichzeitig leistungsstarken Eingangs-Servern verbindet nämlich auch die Erwartungshaltung nach leistungsstarken und kostengünstigen Datensicherungssystemen. Maximal 15 Prozent des Server-Preises werden als Maßzahl für die Höhe der Investition genannt, die für den Sicherheitsaspekt bereitwillig ausgegeben werden. Bei einem Preisniveau von unter 10.000 Mark bedeutet dies: zuverlässige Datensicherungssysteme müssen im Preisbereich “weniger als 1500 Mark“ liegen. Travan NS20GB, bei nur halbem Systempreis zur vergleichbaren DATTechnologie, bietet hier eine günstige Alternative für den Einstiegs-Server-Markt. Die Zukunft von Travan NS wird weiterhin stark von der großen Erfahrung bei der Entwicklung der MLR-Technologie mit der Firma Tandberg Data und Imations enger Zusammenarbeit mit weiteren führenden Laufwerksherstellern geprägt sein. Entwicklungen wie multilineare Aufzeichnung, Voll-Servo, neue Kodierungsverfahren wie VR2 und neue Bandbeschichtungsmaterialien und Verfahren aus Imations Fertigungsstätten erlauben den nächsten Schritt mit Travan NS36GB sowie weitere Kapazitäten bei höheren Transferraten.

46

L AN line Spezial Highlights I/2000

Ebenfalls in den Preiskorridor, der sich für die Backup-Laufwerke eignet, die in Einstiegs-Servern zum Einsatz kommen, sind die VXA-Tape-Laufwerke konzipiert. Diese Technik wartet mit einigen Weitere Informationen ADIC: http://www.adic.com ATL Products: http://www.atlp.com Breece-Hill: http://www.breecehill.com Exabyte: http://www.exabyte.com Hewlett-Packard: http://ww.hp.com Imation: http://www.imation.com Overland Data: http://www.overlanddata.com Onstream: http://www.onstream.com Quantum: http://www.dlttape.com Storage Tek: http://www.storagetek.com Tandberg Data: http://www.tandberg.com

technischen Leckerbissen auf, mit denen die Grundprobleme bei Bandlaufwerken gelöst werden. Mit dem “Discrete-PaketFormat“ schreibt das Laufwerk die Daten in Paketeinheiten auf das Band. Mit der “Variable Speed Option” wird die Geschwindigkeit des Bands an den Datendurchsatz angepaßt, der vom Server kommt. Und die “Overscan Operation”

stellt sicher, daß die Datenpakete auch bei schlecht oder falsch justierten Spuren beziehungsweise bei Bandunregelmäßigkeiten wieder zurückgegeben werden können. Im Bereich der DDS-Streamer erscheinen erste DDS-4-basierende Systeme. Der Surestore DAT40 von Hewlett-Packard erlaubt das Speichern von 40 GByte Daten in weniger als zwei Stunden (bei einer Kompressionsrate von 2 : 1). Die Übertragungsrate beträgt native 3 MByte/s. Das Laufwerk ist ab September im Fachhandel sowie über das Internet unter http://www.hp-store.de erhältlich. Speziell für den Bereich Disaster-Recovery wartet das Gerät mit der Funktion “OneButton Disaster Recovery” (OBDR) auf. Mit einem Knopfdruck – so der Hersteller – werden alle Daten und Konfigurationen nach einem Systemabsturz wiederhergestellt. Bei diesem System wird als Schnittstelle zum Rechner das LVD-SCSI unterstützt. Dies ermöglicht neben den höheren Übertragungsraten zum System (80 MByte/s) größere Entfernungen zwischen Laufwerk und Server, kann es doch im Umkreis von zwölf Metern plaziert werden. Ebenfalls für Einstiegs-Server mit Windows NT, Netware und Unix sind die ADR-Laufwerke konzipiert. Das Flaggschiff dieser Familie schafft mittlerweile

800 GB

IBM HP Seagate

400 GB 200 GB

Sony Quantum Tandberg

100 GB

AIT3 SuperDLT

+ Magstar2 STK9840 MLR Mammoth

LTO

AIT2

50 GB

etc …

DLT8000

40 GB

DLT7000 AIT1

DLT4000

20 GB

20

36 25

40 50

1994

1996

1999

2000

Beyond

Entwicklung der Bandkapazitäten, Quelle: M4 Data

eine Kapazität von 35 GByte (native) und eine Übertragungsrate von 2 MByte/s (native). Als Schnittstellen zum Rechnersystem setzt der Hersteller Onstream auf LVD-SCSI. Zu einem Verkaufspreis von unter 2000 Mark soll das Laufwerk ADR70 im Herbst auf den Markt kommen. DATEN IN DIE BIBLIOTHEK Im Bereich der Tape-Libraries zeichnet sich die Unterstützung des SAN-Konzepts ab. Overland Data hat seine komplette Produktlinie von automatisierten Speicherlösungen für SANs zertifiziert. Mit Hard- und Software von Drittherstellern wurden die Modelle aus den Produktfamilien Library-Xpress, Minilibrary-Xpress Loader-Xpress und Enterprise-Xpress getestet und für “Fibre-

Glossar: Advanced Digital Recording AIT Advanced Intelligent Tape DLT Digital Linear Tape LTO Linear Tape Open LVD-SCSI Low-Voltage Small Computer System Interface MTBF Mean Time Between Failure SAN Storage Area Networks SLR/MLR Scalable Linear Recording/ Multi-channel Linear Recording SUPER-DLT Super Digital Linear Tape ADR

Channel-kompatibel” befunden. Zudem setzt das Unternehmen auf Quantums neue DLT-8000-Laufwerkstechnologie. Es wurden dabei alle Overland-Geräte von der Einstiegslösung Loader-Xpress bis zum Highend-Modell Enterprise-Xpress, als kompatibel befunden. Overland wird DLT-8000-Laufwerke für seine Bandspeicherlösungen anbieten, sobald Quantum diese Modelle ausliefert. Ein Upgrade-Plan für bestehende Overland-Installationen sei bereits in der Ausarbeitung. Eine automatisierte DLT-Library hat M4 Data mit Magfile vorgestellt. Das erweiterbare Magfile-Modul umfaßt 20 Kassettenplätze und kann mit einem oder mit zwei DLT-Laufwerken (DLT 4000 oder DLT 7000) bestückt bis zu 700 GByte Speicherplatz bereitstellen. Auch dieses System sei für den Einsatz in einem SAN vorbereitet. Künftig will auch ADIC seine Bandlaufwerke mit den DLT-8000-Drives ausstatten. Neben den Autoloader-Modellen Faststor (sieben Slots mit maximal 490 GByte Gesamtspeicherkapazität) und Faststor 22 (mit 22 “Daten-Slots” und bis zu 1,5 TByte Kapazität) – beide Systeme mit jeweils einem DLT-Laufwerk – sollen auch die Library-Systeme Scalar 218FC und Scalar 1000 von den gestiegenen Kapazitäten profitieren. (Rainer Huttenloher)

L AN line Spezial Highlights I/2000

47

SERVER-TECHNIK

EINSTIEG IN DIE AUTOMATISCHE DATENSICHERUNG

Achtung: Hier lädt der Automat Autoloader befinden sich auf dem Vormarsch. Zum einen wächst der Bedarf an automatischen Datensicherungssystemen aufgrund der steigenden Kapazitäten der eingesetzten Festplatten, insbesondere der RAID-Systeme. Zum anderen besteht der Wunsch oder sogar die Notwendigkeit, den Medienwechsel bedienerlos durchzuführen, um Personalkosten zu senken und menschliche Fehlerquellen weitgehend auszuschließen. Der Einsatz von Autoloadern als preisgünstigste Lösung zur Automatisierung der Datensicherung lohnt sich heute bereits für den Entry-Server-Level-Bereich.

ür das bedienerlose Backup auf der Basis von Bandlaufwerken werden heute Autoloader und Libraries angeboten. Autoloader beinhalten einen Streamer, fünf bis zehn Cartridge-Plätze und eine integrierte Wechselmechanik, die meist in einem Beistellgehäuse oder einer 19-ZollRackmount-Version untergebracht sind – seltener, wie bei DAT, auch in einer 5,25Zoll-Einbauversion. In Abhängigkeit vom eingesetzten Laufwerk werden Kapazitä-

F

ten von 20 bis 200 GByte erreicht. Der Zugriff auf die Medien kann sequentiell oder wahlfrei erfolgen. Die Medien sind zum Teil in Magazinen angeordnet, die ein einfaches Bestücken erlauben. Barcode-Leser zur Identifizierung der einzelnen Medien werden zum Teil serienmäßig oder aber optional zur Verfügung gestellt. Libraries enthalten in der Regel mehrere Streamer in einem Beistellgehäuse, eventuell auch in einer 19-Zoll-Rackmount-

Version, und eine große Anzahl von Cartridges, die in Magazinen angeordnet sind. Entsprechend liegen die Kapazitäten um den Faktor 5 bis 10 höher als bei Autoloadern. Ein Barcode-Reader erleichtert auch hier die Inventarisierung. Ein I/O-Port oder Mailslot ermöglicht die Software-gesteuerte Auf- und Entnahme der einzelnen Medien. Autoloader und Libraries erfordern eine Software-seitige Steuerung der Robotik. Diese ist in der Regel als zusätzliches Modul für gängige Backup- und Speichermanagement-Programme verfügbar. Im Entry-Level- und Midrange-PCServer-Markt haben sich zuerst die 8-mmLösungen von Exabyte etabliert. Diese Technik bot Anfang der 90er Jahre schon Kapazitäten im GByte-Bereich und zudem Streamer mit motorischem Load-/UnloadMechanismus. Im Laufe der Jahre kamen DAT-Autoloader, DLT-Autoloader und jüngst die SLR-Autoloader hinzu. Das auf den Speichermakt spezialisierte Marktforschungsunternehmen Freeman prognostiziert für die kommenden Jahre Wachstum von jährlich über 20 Prozent für Tape-Autoloader. Dabei werden für DAT-, 8-mm- und DLT-Autoloader ähnliche Steigerungsraten vorhergesagt, wobei der Bedarf im oberen Marktsegment tendenziell höher sein dürfte. Da zum Zeitpunkt der Erstellung dieser Prognose noch keine SLR-Autoloader angekündigt waren, fehlen diese in der Betrachtung. HOHE SICHERHEIT ZUM KLEINEN PREIS

350000 DLT 300000 8-mm 250000 DAT 200000 150000 100000 50000 0 1996

1997

1998

1999

2000

2001

2002

2003

Prognostizierte Stückzahlen der Tape-Autoloader von Freemann 1998

48

L AN line Spezial Highlights I/2000

Die neue Autoloader-Generation erlaubt, das Backup so kostengünstig wie noch nie zu automatisieren. Die Systeme sind oftmals schon für den doppelten Preis eines Stand-alone-Laufwerks erhältlich. Ein Vergleich der empfohlenen Verkaufspreise (brutto) zeigt die Tabelle auf Seite 49. Autoloader empfehlen sich also spätestens, wenn der Einsatz eines zweiten Streamers zur Verdoppelung der täglichen Backup-Kapazität erwogen wird – es sei denn, das Zeitfenster für das Backup reicht nicht mehr aus. In diesem Fall haben zwei einzelne Streamer den Vorteil, daß sie die doppelte Datentransferleistung erbringen. Neben der Aufstockung der Kapazitäten spielen Sicherheitsaspekte bei der Erweite-

rung der Backup-Systeme eine immer wichtigere Rolle. Der Umstieg vom Streamer zum Autoloader verhindert weit-

Typ (native Kapazität) SLR24 (12 GByte) SLR50 (25 GByte) DLT4000 (20 GByte) DLT7000 (35 GByte)

umgebungsbedingt – sollten mit einer automatischen Reinigungsfunktion ausgestattet sein.

Stand-alone-Drive 2500 Mark 4600 Mark 5000 Mark 11.000 Mark

Kostenvergleich Stand-alone-Drive und Autoloader

gehend Bedienungsfehler. Allein durch den automatischen Medienwechsel wird die größte Fehlerquelle – das Vergessen und das Vertauschen der Bänder – ausgeschlossen. Autoloader sind außerdem in der Regel abschließbar, so daß ein unbefugtes Eingreifen in den Backup-Prozeß verhindert wird. Die verbleibenden, systembedingten Fehlerraten ergeben sich in erster Linie aus den Fehlerraten der integrierten StreamerTechnologie. Außerdem hat die Zuverlässigkeit der Robotik einen großen Einfluß auf die störungsfreie Funktion. Bei der Auswahl von Autoloadern sollte demzufolge auf die Zuverlässigkeit der Streamertechnologie und der Robotik geachtet werden. In der Praxis haben sich die linearen Aufzeichnungstechnologien als die zuverlässigeren erwiesen. Auskunft über die Robustheit der Robotik gibt die Anzahl der Load-/Unload-Zyklen. Sie sollte in der Größenordnung von 250.000 liegen. Einen weiteren Hinweis auf die Qualität des Gesamtsystems gibt die Garantiezeit. Manche Hersteller gewähren zum Beispiel drei Jahre für die SLR- und DLTAutoloader. Gerade im bedienerlosen Betrieb gewährleistet das Fehlerfrühwarnsystem “Tape Alert”, mit dem Autoloader heute standardmäßig ausgerüstet sind, zusätzliche Sicherheit. Wer Bänder häufig austauschen muß, schätzt den Nutzen der Barcode-Erkennung. Diese Funktion wird meist optional angeboten. Vorteilhaft ist es, wenn sich der Barcode-Leser auch nachrüsten läßt. Streamer, die öfter gereinigt werden müssen – technologisch oder

Autoloader 6000 Mark 9600 Mark 11.500 Mark 17.750 Mark Quelle: Tandberg Data

Die Skalierbarkeit ist im Sinne des Investitionsschutzes immer ein gutes Argument. Vor allem im Library-Bereich mit relativ hohen Kosten für die Robotik zählt die Möglichkeit, zukünftige Streamer-Generationen in das bestehende System einbauen zu können, zu den wichtigen Forderungen. Bei Autoloadern mit der vergleichsweise günstigen Robotik ist diese Option weniger relevant. Die Integration von Autoloadern erfolgt analog zur Einbindung von einzelnen Streamern. Physikalisch werden die Geräte entweder als externe Lösung dazugestellt oder als Rack-Mount-Version in den Server-Schrank eingebaut. Auch elektrisch nutzen sie die gleichen Schnittstellen, in der Regel Wide-SCSI. Um die Robotik ansteuern zu können, bedürfen die meisten Backup-Software- oder Datenmanagement-Produkte einer Erweiterung. In Zusammenhang mit dieser Funktion bieten die führenden Software-Anbieter meist umfassende Möglichkeiten für die Verwaltung der Medien und die Organisation der automatischen Datensicherung. Die sogenannten Autoloader- oder Changer-Module sind in der Regel getrennt zu erwerben und können auch nachträglich hinzugefügt werden. Die Organisation der automatischen Sicherung muß individuell auf die jeweilige Sicherungsstrategie abgestimmt werden. Ob für eine Sicherung jeweils ein Medium ausreicht oder mehrere logisch zu einem Volume verknüpft werden müssen, hängt vom Verhältnis von Datenaufkommen zu Medium-Kapazität ab. Für die meist gebrauchten täglichen Rotationsschemata

genügen je fünf, bei Einbeziehung des Wochenendes sieben Medien. Ein Slot sollte für eine Cleaning-Cartridge reserviert werden. Die Wartung beschränkt sich meist auf die Reinigung des Streamers. Die Robotiken sind wartungsfrei konstruiert. Im Fehlerfall werden für die noch einigermaßen handlichen Autoloader Vorab-Austauschprogramme angeboten, die zum Beispiel bei einigen SLR- und DLT-Systemen ohne Mehrkosten vom Hersteller direkt durchgeführt werden. Wartungsverträge vor Ort sind dagegen kostspielig und werden nur dort in Anspruch genommen, wo wirklich sehr kurze Reaktionszeiten für die Fehlerbehebung erforderlich sind. Im Kapazitätsbereich von 20 bis 200 GByte sind Autoloader zu einer wirtschaftlichen Backup-Lösung geworden. Die im Vergleich zu Einzelgeräten höheren Anschaffungskosten amortisieren sich durch den bedienerlosen Betrieb innerhalb kurzer Zeit. Als Archivierungssystem eignen sich Autoloader allerdings weniger.

Archivierung ist keine Domäne der Autoloader

Langsamere Zugriffszeiten, fehlende Ausweichmöglichkeiten auf ein zweites Laufwerk und die begrenzte Gesamtkapazität stehen dieser Nutzung im Weg. Wer von vorn herein an Archivierung denkt, sollte darum lieber gleich den Schritt zur Library gehen. Denn die Datenbestände wachsen allemal wesentlich schneller als erwartet und geplant. (Volker Langer/rhh) Volker Langer hat bei Tandberg Data die Position eines Marketingleiter inne.

L AN line Spezial Highlights I/2000

49

SERVER-TECHNIK

UNTERBRECHUNGSFREIE STROMVERSORGUNGEN

Der Garant im Hintergrund Schwankungen oder gar Totalausfälle der öffentlichen Stromversorgung können ganze Netzwerke zum Erliegen bringen und zu Datenverlust führen. Die Lösung für dieses Problem lautet unterbrechungsfreie Stromversorgung, kurz USV. Entsprechende Systeme werden heute mit unterschiedlichen Technologien, vielfältig abgestuften Parametern und differenziert nach Einsatzzweck angeboten. Der Beitrag bietet einen Überblick für die Planung und Kaufentscheidung.

er zunehmenden Abhängigkeit vieler Unternehmen von einer “reibungslosen” Stromzufuhr stehen oft Überlastungen und eine mangelnde Infrastruktur des Versorgungsnetzes gegenüber. Statistisch gesehen treten bei einer Arbeitsstation – über das Jahr verteilt – zirka 36 Spannungsspitzen (kurzfristig starker Spannungsanstieg), 264 Spannungseinbrüche und 128 Spannungsstöße auf. Zu einem Stromausfall kommt es im Schnitt 15mal pro Jahr. Ein wirkungsvoller Stromversorgungsschutz für die Vielzahl der Rechnersysteme ist damit eine absolute Notwendigkeit, um sich gegen dieses Risiko wirksam abzusichern. Die Technologie unterbrechungsfreier Stromversorgungen hat in den vergangenen Jahren deutliche Fortschritte gemacht. Für jeden Einsatzzweck, jedes EDV-System und jede Umgebung stehen heute maßgeschneiderte USV-Systeme parat. Das Angebot ist reichhaltig, schwieriger wird es bei der Auswahl des richtigen Systems. Die Verantwortlichen müssen eine ganze Liste von Kriterien abhaken, bevor die geeignete USV in die Endauswahl kommt. Schließlich ist das Ziel einer solchen Anschaffung eine optimale Schutzfunktion und damit ein hohes Sicherheitsniveau.

D

50

LAN line Spezial Highlights I/2000

DIE AUSWAHLKRITERIEN FÜR USVLÖSUNGEN Die Wahl des geeigneten

USV-Systems erfordert eine Prüfung des Einsatzumfelds. Zunächst gilt es zu klären, was abgesichert werden muß. Handelt es sich um einen einzelnen EDV-

einem Netzwerk lediglich den Server abzusichern. Auch wenn sie selbst nicht in erster Linie aufgabenkritisch sind, so sollten dennoch Hubs und Router, womöglich auch Workstations, PCs und Peripheriegeräte ebenfalls geschützt werden. Der Ausfall einer Systemkomponente kann unerwartet den Absturz des kompletten Netzwerks bewirken. Für jeden Netzwerktyp müssen spezifische Anforderungen an die Stromversorgung berücksichtigt werden. Eine USV für ein Dutzend PCs im Büro eignet sich sicher nicht für industrielle Zwecke. Ein Unternehmensnetzwerk mit Hunderten von Knoten benötigt ein anderes Schutzkonzept als eine Agentur für Telefonmarketing. Bei Banken oder Versicherungen kann ein Netzausfall sogar die gesamte Geschäftstätigkeit lahmlegen. Je nach Einsatzbereich lassen sich daher unterschiedliche Konzepte für den Schutz von Netzwerken anwenden. Im folgenden werden die vier wesentlichen Lösungsmöglichkeiten näher beschrieben. EINS-ZU-EINS-SCHUTZ Diese Lösung

Mit kleineren USVs ist auch der Schutz einzelner Arbeitsstationen kein Problem

eignet sich in erster Linie zum Schutz einzelner Systeme und Netzwerkknoten, auf denen kritische Applikationen laufen. Die USV-Systeme lassen sich ohne großen Aufwand im Plug-and-Play-Verfahren installieren. Da jeder PC, jede Workstation sowie einzelne Hubs und Router an separate USVs angeschlossen werden, und jedes Gerät über eine eigene Batterie verfügt, ist der Wartungsaufwand relativ intensiv. Das Prüfen der einzelnen Batterien nimmt Zeit in Anspruch und ihr Austausch wird nicht nur lästig, sondern auch teuer. Sind mehrere Systeme abzusichern, ist der Eins-zu-einsSchutz sehr kostenaufwendig. VERBUNDSCHUTZ Wächst das Netz-

Arbeitsplatz, ein Netzwerk oder ein ganzes Gebäude? Ebenso muß die Batteriebetriebsdauer festgelegt werden. Anhand von weiteren Kriterien, die das zu schützende System betreffen, läßt sich die richtige USV-Topologie ermitteln. Doch Vorsicht, nicht immer genügt es, in

werk, so sollten andere Lösungsmöglichkeiten ins Auge gefaßt werden. Existiert beispielsweise ein spezieller Computerraum, in dem wichtige Geräte relativ nahe beieinander stehen, dann lohnt sich der sogenannte Verbundschutz. Hier sichert eine einzige etwas größere USV al-

le lokal zusammenstehenden Netzwerk- gement, Rauch- und Feuermelder sowie knoten. Auf diese Weise verringern sich Systemregelung und -überwachung. die Installationskosten. Ein weiterer Vor- Dennoch setzt es keine dauerhaft feste Inteil ist, daß gerade die größeren USV- stallation im Gebäude voraus. InsbesonSysteme hinsichtlich Bedienung und dere Anwender, die von Dateninseln abSteuerung sehr gut ausgestattet sind. Bei hängig sind, aber keinen separaten Comeinigen USV-Anlagen dieses Typs sind puterraum installieren wollen, können auch optionale Features wie die Überwa- auf eine derartige flexible Lösung, beichung der Raumtemperatur enthalten. spielsweise in Form eins Rackmount-SyDer Netzwerkadministrator hat ferner stems, zurückgreifen. Solch ein transpordie Möglichkeit, den beziehungsweise tabler Schrank bietet neben den anderen die geclusterten Knoten einzeln zu ver- genannten Funktionen auch Zugangswalten, er kann Prioritäten zuweisen oder schutz und ersetzt platzsparend den modernes Energiemanagement betrei- EDV-Raum. ben. Der Verbundschutz ist eine äußerst günstige Lösung, speziell im Hinblick auf den niedrigen VA-Preis (Preisrelation zur Ausgangsleistung in VA). Allerdings reicht dieses Schutzkonzept nicht aus, gesamte Stockwerke abzusichern. Für solche Fälle läßt sich eine Kombination In 19-Zoll-Bauweise lassen sich USVs bequem im Rechnerschrank aus Verbundschutz integrieren und Eins-zu-einsLösung installieren. Auf diese Weise Die Installation läßt sich leicht planen, können dann zusätzlich einzelne, kriti- Service und Support werden durch den sche Geräte abgesichert werden. Hersteller gewährleistet. Statt einzelne Systeme verschiedener Hersteller zu inINTEGRIERTER SCHUTZ Stromversorstallieren, ist auf diese Weise nur ein eingungsschwankungen sind nicht die einzi- ziger Ansprechpartner zuständig. Entgen Faktoren, die das Verhalten des sprechende Systeme sind in der Lage, soNetzwerks beeinflussen. Wärme, Staub, wohl Rackmount-Lösungen als auch Luftfeuchtigkeit und Erschütterungen Standgehäuse aufzunehmen. Die Einkönnen ebenso zu seinem Ausfall führen. stiegskosten liegen allerdings höher als Ferner sind gerade wachsende Unterneh- bei einem reinen Stromversorgungsmen abhängig von räumlicher Flexibi- schutz. Dennoch rechnet sich die Anlität. Eine Schutzvariante, die diese un- schaffung in vielen Fällen, da diese Komterschiedlichen Aspekte in einer Kom- plettlösung bei einem Umzug mitgenomplettlösung zusammenfaßt, ist der soge- men werden kann und nicht in Gebäudenannte integrierte Schutz. Hierbei ist der installationen investiert wurde. Stromversorgungsschutz in einen Gestellrahmen oder in ein Doppelbodensy- ZENTRALER SCHUTZ MIT SEPARATER STROMLEITUNG Eine ideale Lösung, stem eingebettet. Dieses Konzept bietet neben der unter- gerade bei einer großen Anzahl an Verbrechungsfreien Stromversorgung auch brauchern, ist die zentrale Absicherung. eine Klimaanlage, Verkabelungsmana- Die USV wird mit einer eigenen Strom-

leitung installiert. Alle zu schützenden Systeme werden parallel an diese Leitung angeschlossen. Dieser Weg ist recht kostenaufwendig, da die eigene Stromleitung bei bestehenden Bauten nachinstalliert werden muß. Optimal ist es, ein solches Konzept zu planen, bevor das Gebäude gebaut wird oder bei einer anstehenden Renovierung. Allerdings lohnt sich der Gedanke an den zentralen Schutz erst ab einer Leistung von 10 kVA, richtig rentabel wird es etwa ab 30 kVA. Mit dem zentralen Konzept lassen sich beispielsweise auch unerwünschte Ausgleichströme über Netzwerkkarten vermeiden, da die einzelnen Systeme auf den verschieden Etagen des Gebäudes das gleiche Potential besitzen. Da jedoch beim zentralen Schutz nur eine einzige USV existiert, ist die Verwaltbarkeit eingeschränkt. Gerade Banken sind meist in mehreren Knoteninseln unterteilt, die unterschiedlich verwaltet werden müssen. In solchen Fällen bietet der zentrale Schutz keine geeignete Lösung. STROMVERSORGUNGSTECHNOLOGIEN Nach der Überlegung, welcher

Schutz für die jeweilige Applikation am günstigsten ist, stellt sich die Frage nach der Technologie der Stromversorgung. Der Netzwerkadministrator hat die Wahl zwischen Offline-, Online- und Line-Interactive-Technologie. – Offline-USV oder Stand-by-USV: Diese Technologie wird fast ausschließlich im unteren USV-Leistungsspektrum eingesetzt. Sie ist die einfachste und preisgünstigste Option. Offline-USV liefert der Last einen teilweise gefilterten Netzstrom, sinkt die Netzspannung unter ein gewisses Niveau, schaltet die USV die Batterie an einen Wechselrichter. Dieser sorgt für die Umwandlung des Gleichstroms der Batterie in Wechselstrom, den das Netzteil des Computers nutzen kann. Bei dieser Technologie kommt es allerdings zu einer unvermeidlichen Umschaltzeit zwischen Netzversorgung und Batterie, die empfindliche Anwendungen gefährden kann. Die meisten PCs können diese 5 bis 20 Millisekun-

L AN line Spezial Highlights I/2000

51

SERVER-TECHNIK

den überbrücken, die von Batterie und Wechselrichter benötigt werden, um Wechselstrom zu liefern. Für Standalone-PCs, kleinere Netzwerk-Server und -knoten, PoS-Terminals, Telefonanlagen und Kommunikationseinheiten ist diese Lösung im allgemeinen ausreichend und gut geeignet. – Dauerwandler- beziehungsweise Online-USV: Diese Technologie ist bei kritischen Anwendungen empfehlenswert. Sie sorgt dafür, daß es in keinem Fall zu einer Unterbrechung der Stromversorgung kommt, auch wenn Störungen im Netzstrom auftreten. OnlineUSV arbeitet zu diesem Zweck mit einer doppelten Wandlertechnik. Der Wechselstrom des Netzes wird ständig in Gleichstrom umwandelt und der Batterie zugeführt. Ein Wechselrichter wandelt den Gleichstrom in den für den Computerbetrieb benötigten Wechselstrom zurück. Zusätzlich werden Unter- und Überspannungen kompensiert, die eine Offline-USV nicht bewältigen könnte. Fällt der Strom aus, geschieht dies oft nicht abrupt, sondern nach und nach über mehrere Zyklen hinweg. Die Batterie der Online-USV gleicht das Nachlassen der Netzspannung aus. Am Wechselrichter sind keine Veränderungen bemerkbar, auch wenn der zugeführte Gleichstrom jetzt teils aus der Steckdose, teils aus der Batterie kommt. Fällt der Netzstrom komplett aus, so übernimmt die Batterie die gesamte Stromversorgung. Durch die Dauerwandlung ist sichergestellt, daß bei einem Stromausfall keine Umschaltpause eintritt und alle Störungen des Netzes beseitigt werden. Hochwertige USV-Systeme besitzen ein spezielles Batteriemanagement, um deren Funktionssicherheit und Lebensdauer zu optimieren. – Line-interaktive USV: Diese Variante bietet eine preiswerte, aber leistungsfähige Alternative. Sie stellt eine Hybridform aus Online- und Offline-USV dar und kombiniert die Vorteile der beiden Technologien. Zwar werden die Verbraucher wie bei einer OfflineUSV direkt vom Stromnetz versorgt,

52

L AN line Spezial Highlights I/2000

die Line-interaktive USV ist jedoch auf das Netz synchronisiert und springt bei einer Netzstörung übergangslos mit ihrem Wechselrichter ein. Allerdings existieren dabei Unterschiede zwischen den Geräten. Die Großzahl der Line-Interaktiven bietet Umschaltzeiten, die durchaus verträglich mit den meisten Applikationen sind. Es werden aber auch super-interaktive USVs angeboten, die sensible Anwendungen nahezu unterbrechungslos absichern können. Der Wechselrichter ist in diesem Fall ständig am Ausgang mit angeschlossen und lädt in umgekehrter Richtung die Batterien auf. Fällt das Versorgungsnetz aus, wird sofort die Wechselrichtung aktiviert, und

Skalierbare und integrierte USV-Lösungen lassen sich mit Schranksystemen realisieren

die angeschlossenen Geräte werden unterbrechungsfrei versorgt. Um nicht nur Netzausfällen besser gerecht zu werden, besitzen die LineInteraktiven eine Unterspannungskorrektur-Schaltung, mit der die Ausgangsspannung ohne Inanspruchnahme der Batterie wieder auf den zulässigen Toleranzwert gebracht wird. Aufgrund dieser Funktionen sind Line-interaktive USVs eine bessere Lösung als Offline-

Systeme. Zugleich sind sie eine preiswerte Alternative zu Online-Geräten, wenn eine komplette “Vorbehandlung” des Netzstroms nicht unbedingt erforderlich ist. RICHTIGE DIMENSIONIERUNG Zur Be-

stimmung der zu schützenden Gesamtlast sind die VA-Leistungswerte aller Geräte zu addieren. Die künftige USV sollte einen VA-Nennwert von mindestens dem 1,5fachen dieser Summe haben. Diese Reserve berücksichtigt die zusätzliche Leistungsaufnahme, die beim Einschalten der Geräte auftritt. Wird nur die Zeit benötigt, um gesichert die NetzwerkHardware abzuschalten, reichen fünf Minuten Batterie-Überbrückungszeit aus. Muß jedoch der vollständige Weiterbetrieb des Systems sichergestellt werden, sind längere Batteriebetriebszeiten erforderlich. Die Lebensdauer der Batterien ist abhängig von den Umgebungsbedingungen wie beispielsweise der Temperatur. Es empfiehlt sich daher der Kauf einer USV, bei der regelmäßig der Zustand der Batterien durch Tests überprüft wird und die über ein intelligentes Ladesystem verfügt. Insbesondere Server- und GebäudeUSVs müssen sich durch Managementfunktionen überwachen und regeln lassen. Das reicht von Software, die das Netzwerk in geordneter Weise abschaltet bis hin zu voller SNMP-Kommunikation (Simple Network Management Protocol), die die USV zu einem intelligenten Bestandteil des Netzwerks macht. Der Netzwerkmanager oder EDV-Leiter kann damit die Stromversorgung des Netzwerks überwachen und wird unmittelbar über alle potentiellen Problembereiche präventiv informiert. Ferner ist es möglich, die Stromversorgung des Netzwerks von einem entfernten Standort aus zu überwachen und zu steuern. Eine solche Software muß allerdings einfach zu installieren und zu benutzen sein und sich nahtlos in die vorhandenen Netzwerk-Betriebssysteme integrieren lassen. (Artur Radwan, Gesamtvertriebsleiter der Liebert GmbH/pf)

INTERNET-TECHNIK

INTERNET-KOMMUNIKATION UNTER DER LUPE

Vom Klick zur Site

AUFLÖSUNG DES NAMENS MIT DNS

Die Informationsrecherche im Web, oder schlicht das “Browsen“, gehört mittlerweile zum Alltag sowohl in der Berufs- wie auch in der privaten Welt. Der Anwender braucht dazu heute nicht mehr viel – er muß nicht einmal mehr wissen, was ein Uniform Resource Locator (URL) ist. Für Profis, die die Struktur des Internet-Angebots aktiv mitgestalten, hingegen ist es essentiell zu verstehen, was zwischen dem Abschicken einer Web-Adresse und dem Aufbau einer Internet-Seite (Page) am Bildschirm genau passiert.

it einem Browser wie Netscape/ AOL Communicator, MS-Explorer oder Opera kann man im Internet die Informationsangebote verschiedenster Firmen und Organisationen nutzen, einkaufen, sich zu Kursen anmelden, Diskussionen führen und vieles mehr. Man braucht nur eine Anlaufadresse zu haben wie zum Beispiel http://www.lanline.de und landet in einem Begrüßungsschirm, der Homepage. Es reicht auch aus, nur www.lanline.de anzugeben, da in der Regel HTTP die Voreinstellung der Brow-

M

56

L AN line Spezial Highlights I/2000

DER WEB-SERVER Da ist zum einen der Web-Server, der den Informationsdienst übernimmt. Er hat Dokumente im HTML-Format (Hypertext Markup Language) gespeichert und hält sie zum Abrufen durch Browser bereit. www.lanli ne.de beispielsweise ist der Name eines solchen Web-Servers, den es in verschiedensten Implementationen gibt. Mögliche Plattformen sind Unix/Linux, Netware, Windows NT und andere. Der Browser-Client trägt in den TCPHeader der Anfrage die Service-Adresse von HTTP (=80) ein. Der Empfängerrechner weiß damit später, für welchen Service auf diesem Rechner die Anfrage bestimmt ist. Damit der Browser mit dem Web-Server kommunizieren kann, muß es ein TCP/IP-Netzwerk geben. Dies existiert entweder firmenintern (Intranet), oder der Surfer nutzt eine bereits bestehende Verbindung über Router oder stellt per Modem eine Verbindung zu seinem Internet Service-Provider her, um das Internet zu nutzen.

ser ist. Von dort aus springt man über das Anklicken besonders markierter Stellen im Text oder über Grafiken zu weiteren Seiten – Neudeutsch Pages. Daß man dabei unter Umständen für verschiedene Elemente der Seite unterschiedliche Server kontaktiert, die auf der ganzen Welt verteilt sein können, braucht man nicht zu wissen. Die Bedienung der Browser ist einfach und intuitiv, also leicht und schnell erlernbar. Was aber läuft im Hintergrund ab? Und welche Dienste beziehungsweise Komponenten sind beteiligt?

Namen sind zwar für den Anwender praktisch und einfach zu handhaben, im TCP/IP-Netzwerk werden jedoch IPAdressen für die Kommunikation verwendet. Theoretisch könnte man eine Datei (HOSTS) erstellen und dort Namen den jeweiligen IP-Adressen zuordnen. Dies ist jedoch bei der Menge von Adressen, die man ansprechen möchte und bei der hohen Anzahl von Rechnern, die man damit versorgen müßte, nicht praktikabel. Daher installiert man in der Regel einen DNS-Server beziehungsweise nutzt einen vorhandenen DNS-Server des InternetService-Providers. DNS (Domain Name System) dezentralisiert die Haltung und Pflege der HOSTS-Datei. Die Welt der Internet-Hosts ist aufgeteilt in Domänen, die hierarchisch strukturiert sind. In jeder dieser Domänen gibt es einen oder mehrere DNS-Server, die die Rechner ihrer Domäne kennen. Sie werden verbunden mit den anderen DNSServern der hierarchisch höheren DNSDomänen, so daß sie mit deren Hilfe auch Auskunft über Rechner geben kön-

Bild 1: Die Internet Dienste haben ihre speziellen Service-Port-Adressen: Hier ein Auszug aus der Datei SERVICES.

nen, die nicht in ihrer eigenen Domäne bekannt sind. Der Rechner, der einen Namen in eine IP-Adresse auflösen soll, muß mindestens einen DNS-Server kennen. Eingetragen wird die IP-Adresse des DNS-Servers bei den Eigenschaften des TCP/IP-

Bild 3: Die IP-Adresse des DNS-Servers wird bei den Eigenschaften des TCP/IP-ProtokollStacks in den Netzwerkeigenschaften des Rechners eingetragen

Protokoll-Stacks in den Netzwerkeigenschaften des Rechners (Bild 3). Bevor ein Rechner seinen HTTP-Request losschicken kann, wendet er sich also an seinen DNS-Server und fragt ihn nach der IP-Adresse des Web-Servers. Dafür benutzt er die Port-Adresse für DNS (53) (Bild 4). Wir gehen der Einfachheit halber zunächst davon aus, daß dieser DNS-Ser-

Bild 2: Die Welt der Internet-Hosts teilt sich in hierarchisch strukturierte Domänen

ver sich im selben Netzwerk wie der an- seine eigene Adresse als Absender fragende Rechner befindet. Um mit ihm (Bild 5). kommunizieren zu können, braucht er Gehen wir zunächst wieder von der dessen Netzwerkkartenadresse, denn das einfacheren Bedingung aus, daß der Paket, das er losschickt, wird zwar alle Web-Server sich im selben Netzwerk beanderen Rechner im Netzwerk erreichen, findet. Dann nämlich kann der Client das die Netzwerkkarten nehmen jedoch nur Paket direkt an die Netzwerkkarte des die Pakete auf, die an sie adressiert sind. Web-Servers adressieren, die er per ARP Wenn er vor nicht allzu langer Zeit schon kennt/holt. Nur, woher weiß der Rechner, einmal mit dem Rechner kommuniziert daß sich der Adressat im selben Netzhat, steht dessen MAC-Adresse bereits in werk befindet? seiner ARP-Tabelle (Address Resolution Protocol, das dazu benutzt wird, für IP- DIE IP-ADRESSE Eine IP-Adresse besteht Adresssen von Rechnern, die sich im sel- aus vier Oktets (4 Byte) und beinhaltet ben Netzwerk befinden, die MAC- sowohl die Adresse des Netzwerks (der Adressen zu holen). Wenn nicht, schickt “Straße”) als auch die “Hausnummern” er einen ARP-Broadcast ins Netz, um für (die Adressen der Rechner). Es gibt fünf die IP-Adresse, die er ja kennt, die ent- verschiedene Klassen (Klasse A-E), wosprechende MAC-Adresse zu erhalten. bei nur Klasse A, B und C als “normale” Der Rechner mit der entspechenden IP- Adressen vergeben werden. Klasse D Adresse (in diesem Fall der DNS-Server) wird für besondere Adressen (zum Beiantwortet ihm mit seiner MAC-Adresse. spiel für die Kommunikation von RouJetzt kann er endlich seinen DNS-Re- tern) verwendet, Klasse E ist für weitere quest loswerden, der DNS-Server schickt Zwecke reserviert. Beipiel: 192.168.1.104 ist eine Adresihm die IP-Adresse des Web-Servers zurück. Übrigens: www ist der Name des se der Klasse C. Bestimmt wird das Rechners, auf dem der Web-Server läuft. durch das erste Byte. Klasse C bedeutet Die meisten WebServer heißen so, das muß aber nicht sein. Endlich kann der Client seinen WebRequest korrekt mit der IP-Adresse des Web-Servers adressieren. Diese trägt er in den IP-Header Bild 4: Der Browser-Rechner holt sich die IP-Adresse des Web-Servers als Zieladresse ein, SUPPORT in der Domäne NOVELL.DE

LLAN line Spezial Highlights I/2000

57

INTERNET-TECHNIK

I P - A d r e s s e 195.109.215.40, befindet sich also in einem anderen Netzwerk. Jetzt braucht der Absenderrechner ein Gateway (einen Router), der das Paket korrekt weiterleitet. Jeder Rechner, der mit Rechnern in anderen Netzwerken kommunizieren Bild 5: Das Paket ist fertig geschnürt und kann auf die Reise gehen soll, muß seinen Router kennen, der sich im selben Netzstandardmäßig, daß die ersten 3 Byte als werk befindet (Bild 7). Netzwerkadresse interpretiert werden, Der Rechner holt sich die MAC-Adresdas letzte Byte als Host-(= Rechner-) se des Routers und schickt ihm das Paket Adresse. Genauer gesagt: wie zu inter- zu. Er selbst ist im MAC-Header der Abpretieren ist, wird durch die Subnetzmas- sender. Wohlgemerkt: An den IP-Adreske definiert, die die Rechner in ihrer IP- sen im IP-Header ändert sich nichts – AbKonfiguration definiert haben müssen. Die kann man entweder per Hand vergeben, oder man nutzt den DHCP-Service (Dynamic Host Configuration Protocol), mit dessen Hilfe IP-Adressen dynamisch oder statisch verteilt werden. DHCP beBild 6: Die Klassen von IP schränkt sich jedoch nicht nur auf die Adreßvergabe, man kann auch weitere Konfigurationsdaten (unter anderem die sender ist der Rechner, der vom WebAngabe des DNS-Servers) damit bekannt- Server etwas will, Empfänger ist der geben. Web-Server (Bild 8). Alle Bits, die in der Subnetzmaske auf 1 gesetzt sind, werden als Netzwerkadresse DER ROUTER Der Router hat die Aufgabe, interpretiert – alle, die auf 0 stehen, als Pakete, die er zur Weiterleitung erhält, auf Host-Adresse. (Eine vom Standard abwei- den richtigen Weg zu bringen. Ein Router chende Subnetzmaske erlaubt es, ein Klas- verfügt über eine Routing-Tabelle, in der se-B- oder -C-Netz in verschiedene Sub- steht, über welche seiner Netzwerkkarten netze zu unterteilen; Dies ist notwendig, beziehungsweise über welche anderen wenn man mehrere Netze hat, aber nur ei- Router er ein Netzwerk erreichen kann. Die Netzwerkkarte akzeptiert das Paket, da im ne Netzwerkadresse). Hat der Absenderrechner beispielswei- MAC-Header ja ihre Adresse steht und se die Adresse 192.168.1.104 und der reicht das Paket an IP weiter. Der Router Zielrechner die Adresse 192.168. 1.21, prüft die Zieladresse hinsichtlich der sieht der Sender sofort, daß sich der Netzwerkadresse und sieht in der Tabelle Adressat im selben Netzwerk befindet. nach, wie das Netzwerk zu erreichen ist. Dann verwendet er ARP, um sich dessen Entweder, es handelt sich um ein Netzwerk, Netzwerkkarten-Adresse zu holen und mit dem er direkt verbunden ist – dann holt ihm anschließend das Paket zu schicken. er sich per ARP wiederum die MACJetzt wird es etwas komplizierter: Der Adresse des Endempfängers und schickt Zielrechner hat beispielsweise die ihm das Paket zu – oder er stellt fest, daß er

58

L AN line Spezial Highlights I/2000

dieses Netzwerk nur über einen anderen Router erreichen kann – in diesem Fall schickt er das Paket weiter an den Router, der als Next-Hop für dieses Netzwerk in seiner Routing-Tabelle eingetragen ist. Ein Router muß nicht alle Netzwerke der Welt kennen, aber genau wie die Workstation braucht er für alle Netzwerke, die ihm selber nicht bekannt sind, einen StandardRouter (Default Gateway). Wird ein Paket von einem Router zum anderen gereicht, ändern sich immer die MAC-Absenderund Zieladressen im Paket, bis schließlich der letzte Router auf dem Weg erreicht ist – derjenige, der mit dem Netzwerk verbunden ist, in dem sich der Web-Server befindet. Der letzte Router holt sich die MACAdresse des Web-Servers per ARP und trägt diese in den MAC-Header ein. BEARBEITUNG DER ANFRAGE Endlich

hat die Web-Anfrage den Web-Server erreicht. Die Netzwerkkarte akzeptiert das

Paket, da es ja für sie bestimmt ist, und reicht es an die Netzwerk-Software weiter (in unserem Fall IP). IP erkennt an der

Bild 7: IP Adresse und Standard-Router

IP-Adresse, daß dieses Paket für diesen Rechner bestimmt ist und reicht die Daten an das Protokoll weiter, das im IPHeader genannt ist: In unserem Fall TCP, da HTTP immer mit TCP zusammenarbeitet. Andere Services arbeiten mit UDP zusammen (so zum Beispiel Versionen von NFS, ein Dateidienst in der InternetWelt). TCP wiederum sieht im TCP-Hea-

der nach, für welchen Service auf diesem Rechner die Daten bestimmt sind. Der Browser- Bild 8: Detailsicht auf die Internet-Kommunikation Client hatte dort den Port 80 als Adresse eingetragen (= HTTP). Der Web-Server sie. Und jetzt geht das Ganze den umgebekommt also die Anfrage und bearbeitet kehrten Weg. Als Port-Adresse des Empfängers trägt er die ursprüngliche Absender-Port-Adresse ein (in diesem Fall hanNetwork Address Translation delt es sich um eine Adresse höher als 1024, die sogenannten dynamischen Noch eine Ergänzung: Unser Client arbeitet mit einer sogenannten “privaten” IPPorts. Der Absender-Port ist 80. Die IPAdresse. Das bedeutet, daß diese Adresse im Internet offiziell garantiert nicht vergeben Adresse des Anfragers wird in den IPwurde und wird. Ein Teilnehmer im Internet braucht jedoch eine offizielle Adresse. Header als Zieladresse eingetragen, die Dafür gibt es den Network-Address-Translation-Dienst (NAT), der sich inoffizielle Abeigene IP-Adresse als Absender. Als senderadressen merkt und als offizielle Absenderadresse seine eigene offizielle Adresse angibt. Der Router beziehungsweise die Firewall tritt quasi als Stellvertreter im Internet nächstes erfolgt wieder der Check, ob das auf. Wenn die Antwort zurückkommt, weiß er sie wieder umzuadressieren. Paket an einen Rechner im selben NetzDie privaten Adressen haben den Vorteil, daß man nur einige wenige offizielle Adreswerk gehen soll oder ob Router dazwisen benötigt und sich intern eine Netzwerkadresse aussuchen kann, um seine Hosts zu schen geschaltet sind... adressieren (10.0.0.0 - 10.255.255.255 - die Adresse des historischen ARPA-Net, (Ingrun Preuss-Hock, 172.16.0.0 - 172.31.255.255 und 192.168.0.0 - 192.168.255.255). Master CNI bei edcom/sm)

LLAN line Spezial Highlights I/2000

59

INTERNET-TECHNIK

XML ALS SCHNITTSTELLE

Warum kompliziert, wenn’s einfach geht? Die neue Web-Sprache XML (Extensible Markup Language) macht den Datenaustausch zwischen betriebswirtschaftlicher Standard-Software via Internet insbesondere für kleine und mittelständische Unternehmen interessant. Denn XML eignet sich nicht nur als Übertragungsformat fürs Web, sondern auch fürs Unternehmensnetz, um dort die Kommunikation zwischen verschiedenen Anwendungen zu vereinfachen.

it der Entwicklung von XML er- plettes XML-Framework als interne Komhalten Anwender von ERP-Syste- munikationsbasis auf. men (ERP: Enterprise Resource PlanMit XML ist als universelle Technik ning) ein Werkzeug, das die Marktdurch- für E-Commerce-Lösungen und im spedringung sowie die Organisation von Da- ziellen auch für EDI (Electronic Data Inten jeglicher Art ganz erheblich erleich- terchange) entwickelt worden. Dabei soltert. So strebt das Werkzeug XML aus len XML-basierte Lösungen im Gegender Internetumgebung auch in die be- satz zu klassischen EDI-Lösungen erhebtriebswirtschaftliche Software. lich kostengünstiger sein. Der Austausch von Daten steht oder fällt mit einem einheitlichen und allgemeingül- XML ALS METASPRACHE XML ist ein tigen Übertragungsformat. Das heißt, daß offenes textbasiertes Format. XML-Doeine einfache und flexible Integration von kumente können “wohlgeformt” (well Daten unterschiedlicher Unternehmen notwendig ist, um diese in die Geschäftslogik des jeweiligen InhouseSystems zu übertragen. Verwenden die Unternehmen XML nicht nur als Übertragungsformat, sondern auch für die interne Kommunikation, dann vereinfacht sich die gesamte Datenverarbeitung erheblich. ERP-Hersteller wie SAP und Apertum bieten bereits XML-Schnittstellen an, Apertum baut sogar ein kom- Die Elemente eines XML-Dokuments

M

60

L AN line Spezial Highlights I/2000

formed) und darüber hinaus gültig (valid) sein. Ein wohlgeformtes Dokument genügt den formalen XML-Anforderungen. Das heißt, daß die Informationen, also Syntax und Hierarchie, in die XML-typische Tag-Struktur eingebettet sind. Bei gültigen Dokumenten besitzt jedes Tag zudem eine Definition. Diese Dokumententypdefinitionen (Document Type Definitions oder DTDs) legen die zulässigen Inhalte und Attribute für die einzelnen Elemente fest. Um ein bestimmtes Element wie “name” zu ermitteln, analysiert oder zerlegt der XML-Parser das Dokument. Er vergleicht die Struktur der Dokumente mit den Definitionen der dazugehörigen DTDs und stellt so eine fehlerfreie Weiterverarbeitung sicher. Dabei können Anwendungen verschiedene Informationen einlesen, analysieren und abarbeiten. XML ist also selbstbeschreibend und nicht nur ein Datenformat, sondern vielmehr eine Metasprache, die nicht nur die formale Struktur des Dokuments erfaßt, sondern auch den Aufbau organisiert. Dieser Aufbau folgt den Grundmustern der DTDs. Eine DTD kann also auch als Grammatik einer Sprache angesehen werden, die Tags mit Attributen und deren Schachtelung definiert. In der DTD-Datei sind die Definitionen zu den Elementen einer Dokumentenstruktur und deren Attribute hinterlegt, ebenso die logischen Strukturen der Felder untereinander. Dieses grundsätzliche DTD-Konzept ermöglicht es, einzelne Tags mit verschiedenen Eigenschaften unterschiedlichen Dokumenten zuzuweisen. Diese allgemeingültigen Definitionen erlauben es Programmierern, kompatible Anwendungen zu schreiben, die zum Beispiel mit verschiedenen Kundendatensätzen zu arbeiten vermögen. In XML-Dokumenten verschiedener Firmen können gleiche und zusätzliche Elemente vorhanden sein. In der Verarbeitung wird dann nur die Sichtweise mit den jeweils gewünschten Elementen benutzt. Soll beispielsweise die Telefonnummer aus einem Adreßelement extrahiert werden, ist dies mit jedem der Do-

INTERNET-TECHNIK

Die Verbindung zwischen XML und XSL besteht in den Tags. Eine XSL-Datei kann ein XMLFormat in praktisch jede Sicht übertragen. So taucht ein Über die DTD-Datei ermittelt der XML-Parser die Dokumententypbestimmter Name in definitionen (DTDs) der Elemente dem einen Style Sheet als Kunde, in kumente möglich, sofern ein solches Ele- dem anderen als Patient oder als Gast auf. ment vorhanden ist. Die XML-Datei selbst verändert sich allerdings nicht, es handelt sich dabei um PRÄSENTATION UND DATENHALexakt die gleiche Datei. Dementsprechend können auch verschiedene Daten TUNG GETRENNT Bei der Entwicklung von betriebswirtschaftlicher Software gleicher Struktur in dasselbe Style Sheet werden bereits Daten und Geschäftsre- eingelesen werden. geln erfolgreich mit objektorientierten Web-Designer machen sich diesen Technologien getrennt. Ähnlich arbeitet Vorteil, also die Trennung von Daten und auch XML. Hier stellt der Entwickler mit Präsentation, bereits zur Aufbereitung ihHilfe der Extensible Style Sheet Langua- rer Seiten zunutze. XSL erzeugt dann eige (XSL) die XML-Dokumente in Style ne gültige HTML-Datei. Natürlich bietet Sheets dar. Dabei sind Präsentations- und sich diese Präsentationsform auch im Datenschicht voneinander getrennt. Die- ERP-Umfeld an – ideal für Web-Frontse Entwicklung steht im Gegensatz zu ends. XSL kann aber noch wesentlich HTML, in der Daten und Layout eine mehr: Die Besonderheit ist, daß XSL Einheit bilden. Folglich kann jeder Ge- XML-Daten in klassische EDI-Formate schäftspartner mit einem XML-basierten oder proprietäre Formate transformieren System seine eigenen Geschäftsregeln kann. anwenden, denn die Daten liegen in reiner Form vor. So ist es zum Beispiel XML IM BUSINESS-TO-BUSINESS-BEmöglich, die Daten einer Rechnung auch REICH Während für traditionelle Übermit Hilfe unterschiedlicher Style Sheets tragungsformate mit EDI kostspielige an verschiedene Nutzeranforderungen Konverter angeschafft werden müssen, anzupassen, ohne daß die XML-Datei um die Formate anzupassen, können Anverändert werden muß. Diese Flexibilität sätze auf der Grundlage von XML auf solche “Krücken” verzichten. ist entscheidend.

So liegen die Vorteile von XML auf der Hand: Die zu übertragenden Daten werden lediglich gemappt, wobei das Mapping vollständig über die grafische Oberfläche erfolgen kann. Apertum bietet zum Beispiel einen eigenen BusinessTransaction-Designer, mit dem XML-Inhalte in die Business-Logik integriert werden können. Das Mapping selbst ist eine XML-Datei als Importvorlage, die auf dem Rechner des Datenempfängers oder in globalen Repositories gespeichert wird. Ein System kann dabei verschiedene XML-Formate unterstützen, weil jeweils nur eine Importvorlage – wiederum ein XML-Dokument – erstellt werden muß. Damit verringert sich die Anzahl der Konverter, weil nur noch nach XML konvertiert werden muß. Konverter werden sogar ganz überflüssig, wenn alle Anwender XML-Formate benutzen. Die XML-Datenspeicherung ist neuerdings auch in objektorientierten Datenbankverwaltungssystemen verfügbar. XML-Daten sind hier aus Informationselementen zusammengesetzt, die stark verlinkt sind und hierarchische Strukturen und Bezeichnungsmechanismen nutzen. Daher sind auch andere Datenzugriffsmöglichkeiten möglich: kontextsensitive Abfragen und Navigation – alles auf der Basis der Baumstruktur. Die Funktionen stellen somit hohe Anforderungen an die Datenbanktechnologie. Der Fokus bei der Arbeit mit XMLDateiformaten liegt im Austausch von Dateninhalten und Datenstrukturen. Die

BTK Software & Consulting AG Rudolf-Diesel-Str. 5 82205 Gilching

Mit Hilfe der Style Sheet Language (XSL) kann der Entwickler XML-Dokumente in HTML darstellen

62

L AN line Spezial Highlights I/2000

Das Dokument läßt sich dann zum Beispiel im IE5-Format ausgeben

klassische EDI-Do- XML benutzt, als Firma A noch mit dem kumente wie Pricat klassischem Edifact-Datenformat gear(Produktkatalog), beitet hat. Für den Lieferanten XY war es Orders (Auftrag, dank der Schnittstelle nie ein Problem, Bestellung) und alle anderen Dateiformate mittels XSL zu Partin (Kundenin- generieren. Firma A hat dagegen mit formation) direkt mehreren kostspieligen Konvertern arzur Kommunikation beiten müssen. mit dem Webshop Jetzt spielt die Firma A mit dem Geverwenden. Die gra- danken, ihre Produkte mittels eines fische Aufbereitung Webshops über das Internet zu verkauder Daten erfolgt im fen. Der Handel per Internet sollte hierWebshop wiederum zu in die Geschäftsprozesse des ERPper XSL. Dadurch Systems integriert sein, damit alle VorMit XSL kann der Entwickler auch XML in ein Edifact-NAD-Segment ergibt sich auch hier gänge automatisiert werden können. transformieren (Name and Address) eine saubere Tren- Die Leistungsfähigkeit der bestehenden nung von Datenhal- Logistik wird auf diese Weise voll ausAnwender haben somit die Freiheit, ihre tung und Präsentation. Besonders schön geschöpft. Standardisierte GeschäftsGeschäftsprozesse zu implementieren, an dieser Lösung ist die Gleichbehand- prozesse führt das System ohne Reiohne diese mit dem Dateiformat des Ge- lung von Business-to-Business- und Bu- bungsverluste auf elektronischem Wege schäftspartners übereinzustimmen. Diese siness-to-Consumer-Kommunikation durch. Für Firma A sind Effizienzsteilassen sich später durch das Mapping ab- aus ERP-Sicht. gerungen in den Geschäftsprozessen sostimmen. wie in der Gesamtleistung klar erkennDabei ist absehbar, daß die Weiterent- EIN BEISPIEL In diesem Rahmen läßt bar. Und sie erwartet, daß sich die Invewicklung von XML als plattformüber- sich folgendes Szenario ausmalen: Firma stition in XML schnell auszahlt, weil sie greifendes Format für betriebswirtschaft- A wickelt sämtliche Geschäftsprozesse die Technik sowohl für die Business-toliche Standard-Software EDI als Kom- mit ihrem Lieferanmunikationsmedium weiter vorantreiben ten XY über EDI ab. wird. Im Business-to-Business-Bereich Das bringt in erster sind zahlreiche Anwendungsmöglichkei- Linie Zeitersparnis beim Lieferanten, Und so sieht der Edifact-Ausschnitt nach der Transformation aus ten denkbar. denn die Daten müsXML IM BUSINESS-TO-CONSUMERsen nun nicht mehr BEREICH Das Gleiche gilt für virtuelle manuell erfaßt werden. Falscherfassung Business- als auch für die Business-toMärkte im Internet, sie sind längst keine als Fehlerquelle wird ausgeschlossen, Consumer-Kommunikation einsetzen Zukunftsmusik mehr. XML ist auch im da die Daten direkt in das Warenwirt- kann. Business-to-Consumer-Bereich voll ein- schaftssystem des Geschäftspartners satzfähig. E-Commerce-Systeme gehen eingeschrieben werden. Zudem läuft FAZIT XML als Datenformat bietet einiHand in Hand mit passenden Warenwirt- der Datentransfer zeitnah ab, so daß der ge Vorteile: Anstatt Unternehmen zu schaftssystemen, um den Nutzen voll Lieferant rasch auf die Bestellung von zwingen, ihre eigenen Systeme und Geauszuschöpfen. Die resultierende Effek- Firma A reagieren kann. Bei der Rech- schäftsvorgänge an die EDI-Daten anzutivität, Kostenersparnis und die Möglich- nungsübertragung profitiert A nicht nur passen, werden sich diese Daten dynakeit zeitnaher Reaktionen auf Kunden- vom Wegfall der manuellen Eingabe, misch an die in den Firmen existierenden wünsche sind für viele Unternehmer die sondern auch die oft schwierige Zuord- Systeme anpassen. Und durch den Einausschlaggebenden Vorteile einer sol- nung bei der Rechnungsprüfung ist satz von XML als Standardformat wird chen kombinierten Lösung. eine Verbindung von Web-Technologien automatisiert. Im Internet-Bereich werden derzeit die Seit neuestem hat sich Firma A für mit konventionellen Datenhaltungstechmeisten XML-Anwendungen entwickelt XML als Datenformat entschieden, weil niken möglich. und begeistert aufgenommen. Ist die mit XML eine Schnittstelle gegeben ist, (Heike Bathe, Frank Michael Beer/db) ERP-Kommunikation bereits in XML die auch für den geplanten Verkauf im Ingelöst, dann ist der Schritt zur integrier- ternet sinnvoll ist. Firma A hat sich von Die Autoren arbeiten beide im E-Comten E-Commerce-Lösung fast schon ge- den guten Erfahrungen des Lieferanten merce-Geschäftsfeld der BTK Software tan. Denn der Shop-Entwickler kann XY überzeugen lassen. Dieser hat schon & Consulting AG in Gilching

L AN line Spezial Highlights I/2000

63

INTERNET-TECHNIK NETZWERKMARKT

PROXY-TECHNIK FÜR EINSTEIGER

Proxy-Server als “All-in-one-Lösung” Bis zur Jahrtausendwende wird das Internet nach Brancheneinschätzungen von bis zu 80 Prozent aller Unternehmen weltweit genutzt werden. Eine Summe, die besonders für die Netzwerkadministratoren eine neue Herausforderung darstellt: Die Anbindung vieler Mitarbeiter an das WWW kann zu einem echten Problem werden, da das offene Netz zahlreiche Gefahren in sich birgt. Um die Sicherheitsanforderungen dennoch zu erfüllen, reicht eine Firewall allein häufig nicht mehr aus. Nur ein Proxy-Server in Zusammenarbeit mit einer Firewall kann ein Netzwerk gegenüber dem Internet

“ONLY ALLOW”, “DENY” UND FILTER

vollständig absichern.

In vielen Unternehmen macht sich die Angst vor unproduktiver Nutzung des Internets durch die Mitarbeiter breit. Um diesen Bedenken Rechnung zu tragen und den Verkehr zwischen dem Firmennetzwerk und dem Internet zu protokollieren, führt der Proxy “Only Allow”- oder “Deny”-Listen. Werden Server in der “Only-Allow”Liste eingetragen, dürfen die Anwender nur Dokumente auf den angegebenen Servern beziehungsweise Domains aus dieser Liste anfordern. Einträge in der “Deny”-Liste dienen hingegen dazu, den Benutzern diese Server oder Domains zu verwehren. Durch die Unterstützung von Filterlisten von Fremdherstellern wird dem Administrator das manuelle Erfassen von Zugriffslisten abgenommen. Die Domain-Listen werden automatisch aktualisiert. Proxy-Server sind ein logischer Ort für die Benutzer- und Gruppenverwaltung hinsichtlich der Zugänglichkeit zum Internet. Einige Proxies beschränken den Zugang zum Netz für ganze Gruppen, andere können darüber hinaus sogar den Zugang auf einzelne Anwender beschränken und auch die Kombination Benutzer-/Internet-Protokoll verwalten. Der Zugang zu InternetDiensten kann zusätzlich auf festgelegte Zeitbereiche eingeschränkt werden.

in Proxy ist die Schnittstelle zwischen Unternehmen und Internet und wird wie eine Schleuse zwischen dem einzelnen PC und dem Netzwerk eingebaut. Dazu muß der Proxy-Server auf einem Rechner installiert werden, mit dem der Zugriff zum Internet möglich ist. Sobald alle Arbeitsplätze entsprechend konfiguriert sind, übernimmt er als “All-in-one-Lösung” die Zugangskontrolle, Virenprüfung, Benutzerauthentifizierung und die Anbindung an das Internet. Versucht ein Benutzer ein Dokument im Internet abzurufen, wird die Anfrage durch den Proxy-Server entgegengenommen und – wenn nötig – an den entsprechenden Server im Internet weitergeleitet. Die Antwort wird dann an den jeweiligen Benutzer zurückgeliefert. Für den ZielServer im Internet agiert der Proxy als Client. Proxy-Server können für viele Dienste konfiguriert werden und unterstützen in der Regel mehrere offene Standards: So sind unter anderem HTTP zum Web-Surfen, FTP für den Filetransfer, SMTP und POP3 für den E-Mail-Verkehr und viele andere Protokolle als native Proxies implementiert.

E

64

nen Request eine HTTPS-Verbindung benötigt, muß zuvor eine mit SSL (Secure Sockets Layer) verschlüsselte Verbindung zwischen Server und Client aufgebaut werden. Diese Dokumente sollten nicht im Cache abgelegt werden. Durch die Verwendung von zwei Proxies in verschiedenen LANs ist es möglich, eine protokollunabhängige sichere Verbindung über das Internet aufzubauen. Sobald ein Request an das andere LAN angefordert wird, übernehmen die beiden Proxies die sichere Übertragung und verschlüsseln den Datentransfer. Dadurch bleiben dem Unternehmen die Kosten für eigens gemietete und abgesicherte Telefonleitungen erspart.

L AN line Spezial Highlights 1/2000

Der Systemadministrator entscheidet in letzter Konsequenz darüber, welche Dienste der Proxy-Server zuläßt und welche nicht. Der Proxy übernimmt folglich die Rolle des Zuteilers und überwacht den Netzverkehr. Dies wird durch die Implementation unterschiedlicher Technologien gewährleistet: PROXY-SERVER UND FIREWALLS Ein höheres Sicherheitskonzept entsteht, wenn der Proxy zusätzlich zur Firewall installiert wird. Dabei stelle man sich die Firewall als “Checkpoint Charly” vor. Jeder Datenverkehr wird an diesem Punkt gestoppt, und jedes Datenpaket wird von der Firewall auf Paketebene aufgrund ihrer Sicherheitsrichtlinien überprüft. Der Proxy übernimmt den indirekten Zugang zum Internet über die Firewall, wobei nur Anfragen, die der entsprechenden Konfiguration entsprechen, zulässig sind. Dadurch ergibt sich ein Höchstmaß an Sicherheit, das mit der heutigen Technologie überhaupt erreichbar ist. HTTPS – HTTP MIT SSL-VERSCHLÜSSELUNG HTTPS ist eine Variation des

Standardprotokolls HTTP. Wird für ei-

Online Damit läßt sich jeglicher Mißbrauch des Internets einschränken: Erst nach erfolgreicher Identifikation des Benutzers wird der Zugang zum Internet durch den Proxy erlaubt. Computerviren sind eine weitere, sehr ernstzunehmende Gefahr. Besonders, da sie sich mittlerweile in erster Linie über Mail-Attachments oder direkt über das WWW übertragen. Einer Studie der International Computer Security Association (ICSA) zufolge kommt ungefähr jeder vierte Virus per Mail-Attachment ins Haus, während sich jeder fünfte bei Downloads aus dem Internet einschleicht. Daher ist es heute in nahezu allen Fällen unerläßlich, Antiviren-Software einzusetzen. Außerdem müssen ActiveX und Java-Applets kontrolliert werden, da diese Programme den Nährboden für gefährliche Viren liefern können. Geschieht kein Blocking, können Hacker durch beide Anwendungen direkt in die Firmennetzwerke eingreifen. Der Proxy überprüft deshalb die Downloads einzelner Files und gewährt lediglich “Trusted Sites” den Durchgang. Die Statistikdaten sind von jedem Rechner im Netzwerk mit der entsprechenden Berechtigung abrufbar. Durch die Überwachungsprotokolle können alle aufgebauten Verbindungen und Autorisierungsvorgänge überwacht werden. Viele Proxies erlauben auch die Vergabe von Rules. Dadurch kann die Verwendung von bestimmten Port-Adressen erlaubt oder verboten werden. Darüber hinaus lassen sich auch die IP-Adressen einschränken, von denen Requests an den ProxyServer geschickt werden dürfen. Unter Verwendung eines Proxies ist nur eine einzige IP-Adresse für die Außenwelt sichtbar. Diese Tatsache macht es Eindringlingen schwer, potentielle Angriffsziele innerhalb des Firmennetzwerks zu lokalisieren. Durch “Information Hiding” werden die internen Netzwerkstrukturen versteckt. Eine weitere zentrale Aufgabe von Proxy-Servern ist die Reduktion von Wartezeiten für den Benutzer und des

Datenverkehrs in das Internet. Ein moderner Proxy-Server sollte sowohl HTTP-Caching als auch Cascading beherrschen. Unter HTTP-Caching versteht man die Speicherung von Dokumenten auf der lokalen Festplatte, damit die Verfügbarkeit für spätere Abfragen gewährleistet ist. Nur wenn die Seite noch nicht abgelegt ist, leitet der Proxy die Anforderung an den entsprechenden Server im Internet weiter. Durch diesen Mechanismus entsteht eine virtuelle Erhöhung der Bandbreite, und die Antwortzeiten für die Benutzer werden um ein Vielfaches verkürzt. Ist das Datenvolumen bei der Kommunikation ins Internet sehr hoch, ermöglicht der Proxy-Server durch Cascading, die Last des HTTP-Caches auf mehrere Proxy-Server aufzuteilen. FAZIT Ein Proxy verringert in seiner Eigenschaft als Server und Client die Leitungs- und Administrationskosten um ein Vielfaches. Die Gründe dafür sind zahlreich: – Es wird nur eine offizielle IP-Adresse benötigt. – Durch die einfache Konfiguration und die Unterstützung bei der Konfiguration durch diverse Zusatz-Tools werden die Administratoren entlastet. – Der Kauf einer Firewall kann überflüssig werden, da viele der notwendigen Sicherheitstechnologien im Proxy implementiert sind. – Es werden keine zusätzlichen Produkte benötigt, da die meisten Proxies bereits die gängigsten Protokolle unterstützen. – Die Kosten für Telefonleitung und die Wartezeiten für die Benutzer werden reduziert, da häufig benötigte Dokumente lokal im Cache abgelegt werden. – Verbindungen, die für einen bestimmten Zeitraum ohne Datenübertragung offen sind, werden automatisch beendet. (Thomas Hoffman, Computer Software Manufaktur GmbH, Wien/mw)

http://www.lanline.de Das Netzwerk für Netzwerk-Profis

Volltextarchiv

Das Volltextarchiv mit Hunderten von Artikeln aus allen AWiZeitschriften liefert Ihnen im Handumdrehen maßgeschneidertes Profi-Wissen.

Marktübersichten

Über 100 Markt- und Anbieterübersichten schaffen Durchblick im Produktangebot und helfen bei Ihrer Investitionsplanung.

Stellenmarkt

Ein neuer Job gefällig? Hier haben Sie die Wahl zwischen mehreren tausend aktuellen Angeboten speziell für DV-Profis.

verlag münchen wir informieren spezialisten.

L AN line Spezial Highlights 1/2000

65

INTERNET-TECHNIK

GRUNDLAGEN DER FIREWALLS

Erweiterungen gefragt Obwohl der Firewall-Markt in den vergangenen Jahren stark gewachsen ist, können viele der heute auf dem Markt erhältlichen Lösungen ihren Ursprung bis zu den frühen Anfängen der kommerziellen Firewall-Produkte nicht verleugnen. Resultat: Alle Produkte basieren auf denselben Basistechnologien mit denen schon die frühesten Systeme ausgerüstet waren.

ie meisten Firewall-Lösungen basieren auf einer oder zwei zugrundeliegenden Technologien – der Paketfilterung oder den Proxies der Anwendungsstufe. Einige Produkte kombinieren diese beiden Technologien, andere erweitern oder verbessern diese Basistechnologien. Die ersten auf dem Markt erhältlichen Firewalls waren auf paketfilternden Routern aufgebaut. Die in den Routern integrierte Fähigkeit, Pakete, die bestimmten Filterregeln genügten, zurückzuweisen, wurde ausgenutzt, um zwischen dem internen Netz eines Unternehmens und dem Internet oder anderen öffentlichen Netzen eine Sicherheitsbarriere aufzubauen. Das Ziel war, eine Sammlung von Regeln zur Paketfilterung zusammenzustellen, die den berechtigten Verkehr am Router passieren läßt, aber jeden Versuch eines unberechtigten Zugriffs auf das geschützte interne Netzwerk abblocken würde. Diese Lösung war attraktiv, weil nur geringe Investitionen notwendig waren. In den meisten Fällen konnte ein Router als “Firewall” eingesetzt werden. Problematisch an dieser frühen Generation von “Firewalls” war dabei, daß der Sicherheitsmechanismus, also das Filtern der Pakete, nur eine niedrige Sicherheitsstufe erlaubte. Die Regeln für das Filtern, die für die Sicherheitsbarriere verantwortlich zeichneten, mußten erst geschrieben werden, so daß sie auf dieser niedrigen Stufe auch funktionierten. Dies erwies sich als sehr schwierig, zumindest für alle etwas

D

66

LAN line Spezial Highlights I/2000

anspruchsvolleren Sicherheitskonfigurationen, da Router auf der Stufe des Internet Protocol (IP) arbeiten. Auf diesem Level besteht der Internet-Verkehr lediglich aus einer Reihe von einzelnen Paketen. Es ist dabei nicht möglich festzustellen, welches Paket zu welcher Netzwerkverbindung gehört, wenn lediglich die Header der IPPakete untersucht werden. Es kann unter Umständen sogar schwierig sein, zu ermitteln, ob ein einzelnes Paket zu einer Verbindung gehört, die aus dem geschützten internen Netzwerk heraus oder die außerhalb des Routers im ungeschützten öffentlichen Netzwerk agiert. Jedes Sicherheitssystem, das auf der Paketfilterung basiert, arbeitet deshalb in einer verbindungs- und statuslosen Umgebung. In diesem Zusammenhang bedeutet “statuslos”, daß das Paketfilterungssystem – üblicherweise ein Router – keine Informationen über den Status von offenen Verbindungen verwenden kann, die ihm bei der Entscheidungsfindung helfen würden, ob ein einzelnes Paket abgelehnt oder angenommen werden soll. Demgegenüber werden die Netzwerk-Services und die Definition dieser Services, die die Grundlage für eine Security Policy bilden, in den Begriffen von Verbindungen ausgedrückt. Ein klar definierter Sicherheitsstatus ist aber ein wesentlicher Ausgangspunkt aller Firewall-Installationen. Auch wenn es möglich ist, einen verbindungsorientierten Sicherheitsstatus in Form von Regeln einer verbindungslosen

und statuslosen Paketfilterung auszudrücken, werden die dazu benötigten Regeln sehr schnell sehr aufwendig. Ein Sicherheitssystem, das auf komplizierten Regeln beruht, hat zweifellos einen schwachen Punkt – und das ist die Person, die diese Regeln konfigurieren soll. Die Regeln der Paketfilterung, die notwendig sind, um einen effektiven Sicherheitsstatus zu realisieren, enthalten eine ganze Anzahl gegenseitiger Abhängigkeiten und hängen eventuell auch davon ab, in welcher Reihenfolge diese Regeln angewendet werden. Und was besonders schwer wiegt: Die Komplexität gestaltet es für einen Administrator sehr schwierig, einen Satz von Regeln zu lesen und sich dann sicher zu sein, daß diese Regeln auch den beabsichtigten Sicherheitsgrad bieten. Es bedarf einer sorgfältigen Analyse, um genau zu verstehen, was jede einzelne Regel bedeutet und wie sie mit anderen Regeln zusammenspielt. Dies macht das Update einer Firewall-Konfiguration besonders zeitaufwendig und fehleranfällig. Ein Fehler an einer beliebigen Stelle reduziert den Wirkungsgrad des gesamten Sicherheitssystems. Das Problem ist insbesondere in FirewallSystemen akut, weil die gravierendsten Fehler – in diesem Fall das Erlauben eines Services, der abgelehnt hätte werden sollen – am schwierigsten zu entdecken sind. Einfach zu findende Fehler sind diejenigen, die einen Service blockieren, der einem Anwender aber hätte erlaubt werden sollen. PROXY-FIREWALLS Die Probleme und Einschränkungen von Firewall-Systemen, die auf den Techniken der Paketfilterung basieren, haben die Entwicklung einer neuen Firewall-Technologie beschleunigt, die als Application Level Gateways (ALG) beziehungsweise als Proxy-Server bekannt ist. Der Ausdruck Proxy-Server wird in einer ganzen Reihe von anderen Zusammenhängen verwendet, insbesondere in Verbindung mit World-Wide-Web-Servern (WWW). Die Proxy-Server, die in einen WWW-Server eingebaut sind, erfüllen nicht immer eine Sicherheitsfunktion. Oft werden sie nur dazu benutzt, die Leistungsfähigkeit bei Zugriffen zu verbes-

sern, indem die häufig abgerufenen Informationen im Cache gehalten werden. Aber selbst wenn ihnen keine Sicherheitsrolle zukommt, bauen die meisten Proxy-Server auf ähnlichen Prinzipien wie ApplicationGateways auf, die für Sicherheitszwecke entwickelt wurden. Application Level Gateways arbeiten auf der Anwendungsstufe. Die Funktionsweise ist folgende: Sowohl Inbound- als auch Outbound-Verbindungsanfragen werden abgefangen und eine Entscheidung über die Zulassung der Verbindung wird auf Basis eines definierten Sicherheitsstatus getroffen. Im Gegensatz zur Arbeit auf dem IP-Level, wo der Netzwerkverkehr als eine Reihe von zusammenhanglosen Paketen oder Datagrammen erscheint, sind ALGs auf der Stufe des TransmissionControl-Protokolls (TCP) zu Hause. TCP ist dasjenige Protokoll, das für das Zustandekommen und die Aufrechterhaltung von Verbindungen von deren Quelle bis zu deren Ziel (End-to-end) verantwortlich ist. End-to-end bedeutet also die Strecke von der Client-Workstation, die eine spezielle Anwendung anfordert, bis zum Server, der dieser Anfrage nachkommt. Da die meisten Anwendungen nach diesem verbindungsorientierten Modell arbeiten, macht es Sinn, das Sicherheitssystem auf diesem Level zu realisieren. ALGs fangen eine Netzwerkverbindung ab und schalten sich zwischen den anfordernden Client und den Server. Die Funktionalität variiert von Produkt zu Produkt. Einige ALG-Firewalls sind transparent, der Client bekommt gar nicht mit, daß er ein Gateway passiert. Andere ALGs verlangen eine spezielle Prozedur oder ein Setup auf der ClientWorkstation. Die generelle Vorgehensweise von ALGs illustriert die Grafik. Im Gegensatz zu einer einzigen Endezu-Ende-Verbindung gibt es hier zwei getrennte Verbindungen – eine vom Client zum Gateway und eine zweite zum gewünschten Server. Das Gateway entscheidet darüber, ob es die ursprüngliche Verbindungsanfrage erlaubt und dann den gesamten Verkehr während der Verbindungsdauer weiterleitet – oder eben nicht. In den meisten ALG-Firewalls dient ein separates Set von Gateways für die In-

bound- und Outbound-Verbindungen, so daß dementsprechend unterschiedliche Sicherheitsanforderungen umgesetzt werden können. Firewall-Systeme mit Paketfilterung, bei denen die Richtung der Verbindung nicht offensichtlich wird, stehen also in extremem Gegensatz dazu. INSPECTION Die Einschränkungen der Firewalls mit Paketfilterung und der Erfolg von Systemen, die auf dem Application-Gateway basieren, haben zur Weiterentwicklung der Paketfiltertechniken geführt. Eine Reihe von Herstellern – darunter auch Check Point, Entwickler des Firewall-1-Systems – haben maßgeblich an den Verbesserungen dieser Technologie mitgewirkt. Statefull Inspection (sorgfältige Kontrolle) geht über die Begrenzungen des bloßen Paketfilterns hinaus. Die nähere Betrachtung dieser Technologie zeigt, daß

STATEFULL

das Sicherheitssystem immer noch mit der Prüfung einzelner Pakete beschäftigt ist. Statefull Inspection erweitert nur das zugrunde liegende Filtern der Pakete, indem der Anwendungstyp festgestellt wird, der ein einzelnes Paket erzeugt hat. Statefullness bedeutet, daß eine kurze Historie vorangegangener Pakete festgehalten wird, um zu versuchen, eine Beziehung zwischen Paketen, die zu einer bestimmten Verbindung gehören, herzustellen. Was immer noch fehlt, ist eine getrennte ProxyBehandlung für jede einzelne Verbindung vom Anfang bis zum Ende. Der zusätzliche Nutzen, den Application-Level-Server anbieten, kann von dieser Technologie nicht erreicht werden – als da sind: Content Filtering und das Eingrenzen der während der Verbindung erlaubten Operationen. (Peter Cox, Vice President Europe, Borderware Technologies Inc./mw)

LAN line Spezial Highlights I/2000

67

ZUGANGSTECHNOLOGIEN NETZWERKMARKT

MODEMS FÜRS BREITBANDKABEL

CATV-Netz wird IP-fähig Kabelmodems sind ein wichtiges Glied in der Reihe modernen, superschneller TK-Access-Technologien. Sowohl technologisch als auch vom Stand der Standardisierung her sowie von der Fülle verfügbarer Produkte wäre diese Form des Zugriffs durchaus schon markttauglich. Während dies in den USA auf breiter Basis unter Beweis gestellt wird, dümpelt die Szene in Deutschland machtlos vor sich hin. Selbst die ANGA, der Verband, in dem fast alle privaten CATV-Aktivisten organisiert sind, wirkt im Moment gegenüber der Verzögerungspolitik der Deutschen Telekom etwas planlos. Die Telekom besitzt noch etwa drei Viertel des deutschen Breitbandkabelnetzes.

ie Liberalisierung des Telekommunikationsmarkts dauert nun schon knapp 2 Jahre an. In vielen Bereichen hat der Markt eine dramatische Belebung erfahren und die Kunden genießen immense Preisvorteile. Gleichwohl ist der Wettbewerb im TK-Markt noch längst nicht erschöpft – er stagniert im Moment vor der “Interconnection-Hürde”: Die “25,40 DM”-Entscheidung der Regulierungsbehörde für Telekommunikation und Post (RegTP) als monatliche Gebühr, die die neuen Telefongesellschaften für die Teilnehmeranschlußleitung der Telekom bezahlen müssen, sorgte für eine gewisse Lähmung. Mit dieser Gebühr im Nacken wird es für TK-Dienstleistungsunternehmen schwer, konkurrenzfähige Sprachund Datendienste auf diesem Wege anzubieten. Sie sehen nun ihre Chance zur Überbrückung der sogenannten “Last Mile” in alternativen Zugangstechnologien. Naheliegend ist hierbei die Nutzung bereits verfügbarer Infrastrukturen zum Endkunden wie beispielsweise das Energieverteilnetz, Signalleitungen und das Breitbandkabelnetz. Die breitbandigen Fernseh-Kabelnetze (CATV/BK-Netz) verbinden über eine

D

68

L AN line Spezial Highlights I/2000

hierarchische Architektur einen begrenzten Teilnehmerkreis. An der Spitze stehen regionale Kopfstellen, die den Zugang zu Hochgeschwindigskeitsnetzen aufrecht erhalten. Zur Teilnehmerseite hin regeln die Kopfstellen den Datentransport durch das Kabelnetz mittels eines Cable-ModemTermination-System (CMTS). Die maximale Geschwindigkeit liegt im Downstream (also in der Empfangsrichtung) bei 30 MBit/s. Im Upstream (also in Senderichtung) sind bis zu 10 MBit/s möglich, allerdings nur, wenn das Netz für den bi-

direktionalen Datenverkehr gerüstet ist. In Deutschland ist dies zumindest bei dem im Telekom-Besitz befindlichen Teil nicht der Fall, weswegen die Kabelmodems hier das normale Telefonnetz als Rückkanal nutzen. Wie das Beispiel USA zeigt, wo das Netz fast durchgängig rückkanalfähig ist, lassen sich über ein solches Netz auch bandbreitenhungrige Anwendungen wie Streaming Video/Video-on-Demand kostengünstig anbieten. Gemeinsame Protokollbasis für alle Anwendungen inklusive Sprache/Telefonie ist übrigens einhellig das IP-Protokoll. Laut unabhängigen Marktforschern wird allein der westeuropäische Markt in den nächsten fünf Jahren auf ein Volumen von mehr als acht Millionen Einheiten – das entspricht 1,9 Milliarden Dollar – mit jährlichen Wachstumsraten zwischen 30 und 100 Prozent prognostiziert. Die im Bereich der CATV-Netze beziehungsweise -Modems aktiven Hersteller kommen bislang größtenteils aus den USA – ein kleiner Teil aus Fernost und ein noch kleinerer aus Europa. Populäre Namen in dieser Riege sind etwa 3Com, Nortel/Bay Networks, Cabletron, Cisco, Hayes, Motorola, NEC, Samsung, Terayon, Toshiba und Zenith. In Deutschland sind beispielsweise Elsa und Siemens aktiv. STANDARDS Das Zauberwort bei den Kabelmodems heißt MCNS/DOCSIS. MCNS bedeutet “Multimedia Cable Network System” und ist ein Zusammenschluß der US-Kabelgesellschaften Comcast Cable

Bild 1: Alcatel optimiert als Systemlieferant zusammen mit unterschiedlichen Betreibern die Netzinfrastruktur und unterstützt gleichzeitig die Einführung neuer Dienste. Das Unternehmen bietet hierfür eine umfangreiche Palette an Zugangslösungen für hochbitratige Übertragungen inklusive Kabelmodems an.

Communications, Cox Communications, Tele-Communications und Time Warner Cable mit dem Ziel, einen weltweit gültigen Kabelmodemstandard zu definieren, was inzwischen auch gelungen ist. DOCSIS bezeichnet die technische Spezifikation dieses Standards und steht für “Data Over Cable Service Interface Specification”. MCNS und DOCSIS gelten im Rahmen der ITU-Empfehlung J.112 als international anerkannte Standards für die Datenkommunikation über Fernsehkabelnetze. Schon 1994 hatte sich eine Gruppe von Herstellern im Institute of Electronic and Electronical Engineering (IEEE) zur Arbeitsgruppe IEEE 802.14 für die Ausarbei-

DTAG: 17 Mio. Kabelnutzer 37% 30%

dukte verschiedener Hersteller weitgehend zusammen. VERBREITUNG UND AUSBAU IN DEUTSCHLAND In Deutschland gibt es

über 21 Millionen Kabelanlagennutzer. Davon beziehen etwa 17,3 Millionen angeschlossene Wohneinheiten (WE) ihr Signal von der Deutschen Telekom AG (DTAG). Vier Millionen angeschlossene WE werden von Kabelkopfstationen privater Netzbetreiber versorgt. Die Telekom versucht schon seit geraumer Zeit, ihr Kabelnetz zu veräußern. Interessenten ließen immer wieder ab. Sie kalkulieren natürlich die Renovierungskosten in ihre Investition ein, und unter diesen Voraussetzungen war

Private Netzbetreiber: 4 Mio. Kabelnutzer

67%

10% 3% 3 bis 50 WE

Folgende Liste nennt einige besonders auch in Deutschland aktive (und in der ANGA organisierte) Hersteller von Kabelmodems: ADC Telecommunications GmbH, Alcatel SEL, Aktiengesellschaft, BKtel communications GmbH, 3 Com GmbH, Eckmann Datentechnik GmbH & Co. KG , Ericsson GmbH, Grundig Vertriebs-GmbH Produktabteilung Sat, Hughes Network Systems, Ltd.Kapsch, AGKATHREIN-Werke AG, Motorola GmbH, Multimedia Group, Nortel Dasa Network Systems GmbH & Co. KG, Philips GmbH Video Communications, Richard Hirschmann GmbH & Co, Siemens AG, Wavetek, Wandel & Goltermann Inc.

33% 20%

Ein-/Zweifamilienhäuser

Systemhersteller für Kommunikationsanlagen in Breitband-Kabelnetzen (Auswahl)

50 bis >500 WE

500 WE >1000 WE

Bild 2: Verteilung der Kabelnutzer in Deutschland. An der Aufteilung hat sich nichts wesentliches geändert Stand: Ende 1996

tung eines gemeinsamen Standards zusammengeschlossen. Ende 1997 veröffentlichte IEEE 802.14 einen Entwurf. Der eigentliche Standard läßt aber bis heute auf sich warten. Der Unterschied zu MCNS liegt vor allem in der Media-Access-Control-Ebene (MAC). Die IEEE 802.14 hält ATM für den besseren Weg von der Kopfstelle zum Kabelmodem, während die Mitglieder der MCNS Ethernet- und IP-Technik favorisieren. Das IP-Lager hat sich gegen die ATMFraktion durchgesetzt. Noch bis Anfang dieses Jahres wies die Standardisierung auch bei MCNS/DOCSIS Mängel im Detail auf. Doch mittlerweile arbeiten die Pro-

der Preis, den die Telekom für ihr Kabelnetz bisher verlangte, offenbar zu hoch. Außerdem will die Telekom jetzt plötzlich zunächst nur 35 Prozent ihres Kabelnetzes veräußern. Über den technischen Ausbauzustand bestehender privater Verteilanlagen in Deutschland ist keine exakte Statistik verfügbar, weshalb der Bestand nur abgeschätzt werden kann. Der Ausbaustatus des Rückwegs ist sehr unterschiedlich und noch schwieriger zu quantifizieren. Der Frequenzbereich liegt in älteren Netzen zwischen 5 und 20 MHz und reicht in modernen Netzen bis 65 MHz. Es wird aber

davon ausgegangen, daß der Rückweg in den meisten Netzen noch nicht benutzt wird, beziehungsweise nicht benutzbar ist. KEIN WEG ZURÜCK? Viele CATV-Netze – besonders in Deutschland – sind immer noch als reine Verteilnetze ausgelegt; die Aufrüstung zu HFC-Netzen und die Installation von bidirektionalen Verstärkern an den Kopfstellen sind mit hohem Investitionsaufwand verbunden, für den speziell die Deutsche Telekom keinerlei Notwendigkeit sieht. Eine Alternative zu Zweiwege-Kabelmodems, die Daten zum und vom Provider über Kabel senden und empfangen, ist der Umweg über das Telefonnetz. Die meisten Kabelmodems sind sogar für einen Rückkanal über Telefon gerüstet. Allerdings ist diese Lösung unbefriedigend für Anwender, die in beide Richtungen mit hohen Datenraten arbeiten wollen. Die Installation eines Kabelmodems soll sehr einfach ablaufen. Es wird auf der einen Seite an den PC angeschlossen, auf der anderen mit dem TV-Kabelanschluß verbunden. Zusätzlich werden allerdings ein Splitter und ein Hochpaßfilter benötigt. Der Splitter trennt die TV-Signale von den

L AN line Spezial Highlights I/2000

69

ZUGANGSTECHNOLOGIEN NETZWERKMARKT

Übersicht: Kabelnetzbetreiber in Deutschland

300 MHz 5%

862 MHz 15%

606 MHz 20% 450 MHz 60% Bild 3: Ausbaustatus der DTAG-Netze nach nutzbarem Frequenzbereich

Daten für den PC. Ein Hochpaßfilter ist oft nötig, weil die Modems so starke Signale aussenden können, daß der TV-Empfang davon beeinflußt wird. Die Modems sind entweder auf einer PCI-Bus-Karte untergebracht, oder es handelt sich um eine externe Box, die meist über USB mit dem PC kommuniziert. Das externe Modem wird an der Ethernet-Schnittstelle mit dem PC verbunden. Vorteil dieses Anschlusses ist die Möglichkeit, mehrere PCs an ein Modem anzuschließen und damit den Kabelanschluß für ein ganzes LAN zur Verfügung zu stellen. PROJEKTE IN DEUTSCHLAND Netzbe-

treiber, die ihr Breitband-Kabelnetz (BKNetz) für multimediale Dienste zur Verfügung stellen, sind noch rar am Kommuni-

kationsmarkt. So ist der Multimediazugang über Kabel zum größten Teil noch in der Phase von Pilotprojekten wie etwa “Infocity”, für das Otelo sein Kabelnetz zur Verfügung gestellt hat. An Infocity waren 8000 Haushalte angebunden. Derzeit bereitet Netcologne gemeinsam mit Alcatel als Modemlieferant Internet-Dienste via Kabel vor. Der Münchner Kabelnetzbetreiber und Solution-Provider Pentakom hat bereits 10.000 Wohnungen mit Kabelanschlüssen versorgt, die in diesem Fall sogar über einen Rückkanal verfügen. Nortel Dasa Network Systems und Tss haben eine Allianz zur gemeinsamen Einführung der digitalen Telefonie über das Fernsehkabel besiegelt. Tss bietet seit kurzem im Bezirk Berlin Mitte privaten Telefonkunden kostengünstige Tarife über das TV-Kabel an.

Zunächst sollen über das Kabel allerdings hauptsächlich Internet-Dienste angeboten werden. Jedoch sind aufgrund der zur Verfügung stehenden Bandbreite auch andere Anwendungen realisierbar: Video- und Audio-Streaming, Videoconferencing, Virtual Private Networks, multimediale E-Mails und so weiter. Die Kabeltelefonie wird – wie auch im Falle Tss – durch VoIP (Voice over IP-Sprachübertragung realisiert. Beim Netzbetreiber werden die Gespräche dann über Gateways in das “normale” Telefonnetz geleitet. (Stefan Mutschler)

Point to Multipoint

Downstream

Upstream Multipoint to Point

Kopfstation

Hausübergabepunkt Bild 4: Bidirektionale Datenübertragung im BK-Netz

70

L AN line Spezial Highlights I/2000

Mehr als 73 Kabelnetzbetreiber sind derzeit im ANGA-Verband (www.anga.de) organisiert. Die folgende Liste nennt eine Auswahl. ANTEC Betriebsgesellschaft für Communikationsanlagen mbH, Antennentechnik Weser-Ems GmbH, Bayerische Antennenberatung GmbH Bayernwerk Netkom GmbH bk-tel Breitband und Telekommunikationssysteme Bosch Telecom GmbH Brandenburgische Kabel- und Antennenvertriebsgesellschaft mbH Cablecom Holding AG Digitale Telekabel AG Gesellschaft für Rundfunkversorgung mbH INNOCOM Schwerin Kabel GmbH KK Kabelnetz Kiel GmbH & Co. KG Kabelcom Rheinhessen GmbH KABELCOM Wolfsburg GmbH KFL Kabelfernsehen Leipzig GmbH KFS Kabelfernsehen Stuttgart GmbH KMG Kabel-Fernsehen Hannover GmbH Neubrandenburger Kabelfernsehanlagen GmbH Ost Telecommunikations GmbH PentaKom Penta Kommunikations Systeme GmbH RFT radio-television Brandenburg GmbH RKS TELECOM Südwest GmbH SAT DirektTele Columbus GmbH Tss – telekabel service süd GmbH URBANA Telekommunikation GmbH

Grafiken und statistische Infos: Dipl.Ing. Ralf Kallenborn

EINFÜHRUNG VON XDSL-DIENSTEN

Das Netz muß dafür vorbereitet sein Geschäftliche und private Anwender verlangen verstärkt nach einer Übertragungslösung für “bandbreitenverschlingende” Anwendungen wie Internet-Zugang, Video-on-demand, Fernstudium oder Telecommuting. Um dieser wachsenden Nachfrage gerecht zu werden, greifen viele Service-Provider in der Telekommunikationsindustrie zum Beispiel auf generische digitale Teilnehmerleitungen (Digital Subscriber Lines: DSL) über bestehende Netze zurück. Allerdings sind gerade die Messung und die Qualifikation der Zugangsnetze kritische Faktoren beim erfolgreichen Aufbau von xDSL.

as Interesse an der xDSL-Technologie ist hoch, verspricht sie doch eine große Bandbreite an Datenraten und Diensten über Zugangsnetzwerke verschiedener Länge. Die Datenraten und Netzanforderungen variieren je nach xDSL-Service und reichen von 160 kBit/s bis hinauf zu 52,8 MBit/s. Die digitalen Dienste orientieren sich dabei weitgehend an den Anwendern von ISDN, HDSL und SDSL. Erste xDSLTestimplementierungen sind bereits erfolgt, während kommerzielle Entwicklungen sich noch im frühen Stadium befinden, wobei ADSL eine Pionierrolle zukommt. Der wesentliche Vorteil von xDSL liegt darin, daß diese Breitbanddienste nicht die konventionellen Telefonnetze (PSTN, Public Switched Telephone Network) belasten, die dafür nicht ausgelegt sind. Einige Dienste wie ADSL erlauben auch den Einsatz von analogen Standardtelefondiensten (POTS: Plain Old Telephone Service) auf derselben Leitung. Damit kann das herkömmliche Twisted-Pair-Kabel gleichzeitig für Sprach- und Datenübertragung genutzt werden. Insbesondere ist die Qualifizierung der Twisted-Pair-Verkabelung ein kritischer Faktor bei der erfolgreichen Installation von xDSL. Der jeweilige Zustand der Kupferleitungen kann ein wichtiges Hindernis

D

bei der xDSL-Implementierung darstellen. Das kann beispielsweise zur Folge haben, daß Netzwerkbetreiber zunächst umfangreiche Tests, Reparaturen oder Modifikationen durchführen müssen, bevor sie die Dienste anbieten können. Sie und andere Dienstleister müssen sich also erst mit der Problemstellung der POTS auseinandersetzen, wenn sie planen, xDSL zu implementieren. Dabei ist die Dokumentationsprüfung nicht immer der schnellste und sicherste Weg um zu entscheiden, ob sich ein bestehendes TwistedPair-Kabel für schnelle digitale Transferdienste eignet oder nicht. Am wichtigsten ist jedoch der Aspekt, daß der Planer schon vor der Installation des Netzwerks eine Vorgehensweise festlegt, wie die Ursachen für eventuelle Probleme bei der Implementierung von xDSL-Diensten schnell und effektiv identifiziert und lokalisiert werden können. Eine schnelle und erfolgreiche Implementierung erfordert eine logische Abfolge von Tests für die Vorqualifizierung der Leitung und Lokalisierung von potentiellen Problemen. Zwei gängige Elemente in einer Sprachübermittlung beeinflussen dabei meist die Nutzbarkeit des Systems: die Pupin-Spule und die Abzweiger. Diese Elemente müssen entweder entfernt oder mo-

difiziert werden, um eine digitale Übertragung zu ermöglichen. Außerdem müssen für xDSL zusätzliche Anforderungen erfüllt werden, die über die bisherigen Spezifikationen für die POTS hinausgehen. So werden höhere Frequenzen eingesetzt, die außerhalb des normalen POTS-Spektrums liegen. Prinzipiell gibt es zwei Typen von xDSL-Diensten: Diejenigen, die mit den POTS-Spezifikationen kompatibel sind, aber nicht dasselbe Spektrum (etwa von 0 bis 4 kHz) teilen und diejenigen, die nicht kompabitel zu den POTS sind und ein überlappendes Spektrum haben. Zudem existieren noch verschiedene xDSL-Services, die in überlappenden Spektren arbeiten, was zu weiteren Schwierigkeiten führen kann. Neben diesen grundsätzlichen Problemen können auch Fehler auf der Leitungsebene auftreten, die zur Unterbrechung der Dienste führen, so daß die Modem-”Synchronisation” nicht kontinuierlich durchgeführt werden kann. Typischerweise zählen dazu: – eine Unterbrechung der POTS-Dienste, durch Kurzschluß, offene Schleifen oder Wassereinbruch, – Fehler, die zur Unterbrechung von Nicht-POTS-Diensten führen wie vertauschte Leitungspaare, – Elemente, die für die POTS-Dienste erforderlich sind wie Pupin-Spulen und Leitungsabzweiger. Es gibt aber auch Einflüsse, die nicht zur Unterbrechung aber zur Leistungseinschränkung von xDSL-Systemen mit variabler Kapazität (ADSL, RADSL) führen: – physikalische Fehler, die zum Beispiel Nicht-POTS-Dienste beinflussen können wie unabgeschlossene Stubs (gebrückte Abzweiger) oder schlechte Abschlüsse, die zu Reflektionen oder einer reduzierten Signal/Rausch-Rate führen können, – externe Umwelteinflüsse als Rauschquellen können ebenfalls zu einem reduzierten Signal-Rausch-Verhältnis mit negativem Einfluß auf die xDSL-Performance führen. Das wichtigste externe Störungspotential ist aber die Beeinflussung der digitalen Dienste durch Übersprechen von benach-

L AN line Spezial Highlights I/2000

71

ZUGANGSTECHNOLOGIEN

barten Kabeln in derselben Kabelgruppe. Dieses Problem kommt daher, daß die verschiedenen digitalen Dienste überlappende Spektren haben. Mit dem verstärkten Aufkommen der digitalen Dienste wird sich dieses Problem noch erhöhen. Und andere externe Rauschquellen, die ein Frequenz-

lysiert. Ein derartiges System deckt aber nicht den Physical-Layer-Test ab. Somit benötigt der Administrator mindestens ein weiteres Testgerät, um lokale physikalische Störungen aufzuzeigen. Mit TimeDomain-Reflektometern (TDRs) lassen sich zum Beispiel vertauschte Kabelpaare oder schlechte Abschlüsse identifizieParameter ISDN ADSL HDSL IDSL SDSL VDSL ren. Kapazitive MeßAnzahl von geräte können teilofPaaren 2 1 2 1 1 1 Bit-Rate fene Schaltungsteile (MBit/s) 0,144
View more...

Comments

Copyright © 2020 DOCSPIKE Inc.