1.6. Organisation des Internet

1.6.1. Standards
1.6.2. Eindeutige Nummern und Namen
1.6.3. Netztopologie

1.6.1. Standards


      We reject: kings, presidents and voting.
      We believe in: rough consensus and running code.
      
       Wir lehnen ab: Könige, Präsidenten und Abstimmungen
       Wir glauben an: informellen Konsens und funktionierenden Code.      
      

     

David D. Clark ([Clark], S. 19)

Die Bedeutung von Standards bei Kommunikationsprotokollen ist so hoch einzuschätzen wie die von Normen in der industriellen Produktion oder von Containern im Welthandel, also essentiell für die Zusammenarbeit organisatorisch und räumlich getrennter Beteiligter. Die oben bereits erwähnten herstellerunabhängigen Standards des Internet werden überwiegend von den Arbeitsgruppen der Internet Engineering Task Force (IETF) entwickelt.

Entgegen den insbesondere nationalen Standardisierungsgremien hat die IETF streng genommen noch nicht einmal den Status einer Organisation - sie hat keine Mitglieder, sondern "nur" individuelle Teilnehmer. Jede/r Interessierte kann sich auf den Mailinglisten der IETF und ihrer Arbeitsgruppen eintragen und mitarbeiten. Ebenso offen sind die dreimal jährlich stattfindenden Arbeitstreffen. Die Mitarbeit ist freiwillig und unbezahlt. Der auf den ersten Blick erstaunliche Ertrag an Standardisierungsleistung der IETF community (siehe die Liste der RFCs) hat als Grundlage natürlich die technische Kompetenz der Beteiligten, aber auch die weitgehende Abwesenheit von Anzugträgern ([Hoffman], S. 16) ist sicher hilfreich. Statt derer scheint Idealismus im Spiel zu sein: "The IETF community wants the Internet to succeed because we believe that the existence of the Internet, and its influence on economics, communication, and education, will help us to build a better human society." (Die IETF-Gemeinschaft will dass das Internet erfolgreich ist, weil wir glauben, dass die Existenz des Internet und sein Einfluss auf Ökonomie, Kommunikation und Bildung uns helfen wird eine bessere menschliche Gesellschaft aufzubauen.) ([Alvestrand], S. 2).

Neben Offenheit und Freiwilligkeit sind noch mehrere Aspekte der IETF Arbeit methodisch interessant. Zunächst die klar zu formulierenden Zielvorgaben für die Arbeitsgruppen sowie ihre zeitliche Befristung. Es sollen ja aktuelle Probleme und Anforderungen im Internet behandelt werden - für Grundlagenforschung gibt es die Internet Research Task Force (IRTF). Der vergleichsweise knappe Zeitrahmen bevorzugt - im Unterschied zu den bisher üblichen Standardisierungsverfahren - Entwicklungen von eher knappen, doch dafür erweiterbaren Standards, die spätere Entwicklungen nicht vorwegnehmen, aber ermöglichen. Die Arbeitsgruppen der IETF haben zwar einen koordinierenden Vorsitzenden, aber Entscheidungen werden in einem informellen Konsens gefällt ("rough consensus"). Erst wenn (fast) alle Teilnehmer die Gegenargumente für entkräftet halten, kann eine technische Lösung empfohlen werden. Das verschafft den technischen Argumenten Vorrang vor Taktiererei oder sonstigen (mono-)politischen Interessen. Damit schließlich eine Empfehlung den Status eines Standards erlangen kann, müssen mindestens zwei unabhängige Implementierungen vorliegen, die zusammen funktionieren und damit einen praktischen Nachweis für die Tauglichkeit des Standards darstellen.

Der offene Standardisierungsprozess im Internet und dessen Entwicklung vom frühen ARPANET und seinen ersten RFCs (als die Network Working Group eine Handvoll Aktiver zählte, s. das Zitat von RFC3 oben) zur heutigen IETF mit über 100 Arbeitsgruppen, über 1000 Teilnehmern auf Arbeitstreffen und insgesamt über 5000 publizierten RFCs ist sicher einer der wichtigeren Gründe, warum wir (d.h. diejenigen von uns, die Datennetzwerke nutzen) in einer Internet-Welt leben und nicht in einer ISO/OSI Welt.

Nicht nur der Vollständigkeit halber sei erwähnt, dass die IETF zwar eher als community oder Prozess denn als Organisation bezeichnet werden kann, aber dass sie selbst(-)organisiert ist und in (formale) organisatorische Zusammenhänge eingebettet ist. Dies sind (in aufsteigender Reihenfolge) die Internet Engineering Steering Group (IESG), das Internet Architecture Board (IAB) und schließlich die Internet Society (ISOC), s. [Hovey]. Die ISOC hat über 80 Organisationsmitglieder und über 28000 individuelle Mitglieder. Neben der organisatorischen Rahmenstruktur für den Standardisierungsprozess agiert sie u.a. als Fürsprecherin eines ungehindert zugänglichen, unzensierten Internet auch auf globaler politischer Ebene, etwa den UN-Projekten WSIS (World Summit on the Information Society) und IGF (Internet Governance Forum).

1.6.2. Eindeutige Nummern und Namen

Für das Funktionieren des Datenaustauschs zwischen den Systemen im Internet braucht es zunächst standardkonforme Software. Außerdem ist aber auch die konkrete Zuordnung verschiedener operativer Parameter erforderlich.

Die wichtigste dieser Zuordnungen ist die einer IP-Adresse. Dabei muss sichergestellt werden, dass jede Adresse zu einem gegebenen Zeitpunkt höchstens einmal vergeben ist. Das entspricht dem Problem der Vergabe von Telefonnummern im Telefonnetz. Es ist klar dass nicht zwei verschiedene TeilnehmerInnen die gleiche Nummer haben sollten.

Das zweitwichtigste dieser Probleme ist die Zuordnung der - im Vergleich zu den IP-Adressen gedächtnisfreundlichen - Domainnamen.

Die "Oberhoheit" über die Zuordnung der Adressen und Domainnamen hat die IANA (Internet Assigned Numbers Authority), die bis 1998 im Wesentlichen aus Jon Postel, einem Internet-Urgestein bestand. Die IANA wurde dann Teil der 1998 gegründeten ICANN (Internet Corporation for Assigned Names and Numbers), mit Hauptsitz in Kalifornien. ICANN ([ICANN], [Hofmann]) ist formal eine gemeinnützige Firma ("nonprofit public benefit corporation"), die frühere Verträge der US-Regierung mit akademischen und kommerziellen Stellen zur Koordination der Parametervergabe fortführte. Auch wenn die US-Regierung als historischer Sponsor des Internet damit formal diese Kontrolle an eine nicht-Regierungs-Organisation abgab, ist dieser Abgabeprozess auch nach 10 Jahren noch nicht abgeschlossen.

Die nennenswerteste Änderung, die durch ICANN erzielt wurde, ist eine weitgehende Auflösung des früheren NSI Monopols bei Domainnamen, die aber schon vor der Institutionalisierung der ICANN in Angriff genommen worden war. Etwas vereinfacht - und im Gegensatz zu der populären Formulierung "Weltregierung des Internet" - kann man ICANN beschreiben als (Selbst-)Regulierungsinstanz der Domainnamenwirtschaft unter Aufsicht des US-Handelsministeriums. Dabei hat das, was da bewirtschaftet wird, nämlich der Domainnamensraum, von sich aus zunächst gar keine Warenform, sondern musste durch juristische Verknappungskonstrukte (Markennamen, geistiges Eigentum) erst einmal entsprechend eigentumsförmig zugerichtet werden (s.o. mtv.com). Die im Jahre 2000 praktizierte Direktwahl von je einem ICANN-Direktor je Kontinent durch die InternetnutzerInnen blieb auch ein einmaliges Ereignis und wurde wegreformiert. Die Gründe dafür kann man in [Müller-Maguhn], der "Regierungs erklärung" des damals von den europäischen NutzerInnen gewählten Direktors, erahnen:-)

Ein derartiger kommerzieller Abgriff wie bei den Domainnamen ist mit den - technisch grundlegenderen - IP-Adressen glücklicherweise nicht geschehen. Hier erfolgt die Vergabe in etwa kontinentweise organisiert durch sog. RIRs (Regional Internet Registries), in Europa das RIPE NCC [RIPE]. Sie finanzieren sich durch Umlagen auf ihre Mitglieder, die ISPs (Internet Service Provider), welche auch gemeinschaftlich die jeweiligen Vergaberichtlinien in ihrer Region bestimmen. Ein ähnliches Selbstverwaltungsmodell findet sich übrigens auch bei der für die Vergabe von .de Domains zuständigen Organisation DENIC, einer Genossenschaft.

Die gravierenden Unterschiede zwischen den Regulationsprozessen bei ICANN (politisch-wirtschaftlich) und insb. den RIRs (technisch-wirtschaftlich) haben einen technischen Angelpunkt: die Rootserver des DNS, deren operative Kontrolle die letztlich wirkende Autorität über den Domainnamensraum darstellt. Die Nutzung von IP-Adressen hingegen erfordert zwar Eindeutigkeit und von daher eine koordinierte Vergabe, aber operativ keine zentralen Strukturen (s.o.).

1.6.3. Netztopologie

Wie im Internet das Problem gelöst wird, die gegenseitige Erreichbarkeit von z.Z. vmtl. über 500 Millionen hosts [ISC] ohne zentrale Instanzen herzustellen, ist nicht nur von technischem Interesse. Ein host ist entweder direkt in einem LAN oder durch Zugang per Einwahl (Modem, ISDN) bzw. Zugangskonzentrator (DSL, TV-Kabel) Teil eines IP-Subnetzes. Außerhalb dieses Subnetzes muss nichts über die einzelnen hosts des Subnetzes bekannt sein, sondern nur über die Erreichbarkeit des gesamten Subnetzes. Subnetze sind - was die Verbindungen zum Internet angeht - Teil einer Organisation, die sich um diese Verbindungen kümmert. Eine Gruppe von Subnetzen, die eine gemeinsame Administration hinsichtlich ihrer Verbindungen ins Internet hat, wird Autonomes System ("AS") genannt. Meist ist dies ein ISP, aber auch Universitäten oder größere Firmen haben bisweilen eigene Verbindungen ins Internet.

Die AS tauschen mit ihren jeweiligen AS-Nachbarn, zu denen sie eine Verbindung haben, Informationen über die Erreichbarkeit von Subnetzen aus. Zunächst natürlich über ihre jeweils eigenen Subnetze, wobei deren Informationen vorher nach Möglichkeit zu größeren Blöcken aggregiert werden. Die Adressvergabestrategien der RIRs (s.o.) zielen u.a. darauf ab, solche Aggregierungen zu ermöglichen, um dadurch die Menge im Internet zirkulierender routing Informationen so gering wie möglich zu halten. Des Weiteren werden aber auch routing Informationen, also Adressblöcke und der Weg zu ihnen, von den Nachbarn an deren Nachbarn weitergegeben, und das tun diese Nachbarn wiederum auch etc., sodass sich über die jeweiligen Nachbarschaftsverbindungen die Information über die Erreichbarkeit eines gewissen Subnetzes (bzw. des ihn enthaltenden Adressblocks) lawinenartig im gesamten Internet verbreitet.

Die zu übertragenden Datenpakete schließlich, z.B. für eine nameserver Abfrage oder die Übertragung einer Webseite, können dann genau auf dem umgekehrten Weg wie die routing Informationen, die den Zieladressen der Pakete entsprechen, ans Ziel gelangen. Die Einheit - d.h. die vollständige wechselseitige Erreichbarkeit - des gesamten Internet basiert also letztlich nur auf bilateralen Vereinbarungen zwischen je zwei AS zur Herstellung einer Nachbarschaftsbeziehung.

Jedes AS muss per Definition mindestens zwei Nachbarn haben, denn ansonsten wären seine Subnetze hinsichtlich des externen routings Teil seines einzigen Nachbarn und damit Teil von dessen AS. Dieses Grundkonzept der Redundanz wirkt auf verschiedenen Ebenen des Internet und führt damit trotz und wegen der Größe des Internet zu dessen erstaunlicher Stabilität.

Durch die Kommerzialisierung des Internet sind die Nachbarschaftsbeziehungen überwiegend kommerziell und meist entweder eine Kundenbeziehung oder eine peering-Beziehung. Im ersten Fall kauft das kleinere AS (Kunde) vom größeren AS (Provider) die Leistung, dass Kundenpakete durch das Netz des Providers transportiert werden und darüber hinaus zum Rest des Internet (transit). Damit dieser Provider die Kundenpakete (und seine eigenen) auch an den Rest des Internet weiter transportiert bekommt, ist er selbst wiederum (transit-)Kunde eines oder mehrerer noch größerer AS und/oder er kann Teile des Internet durch peering-Beziehungen zu - meist etwa gleich großen - AS erreichen. Diese kommerzielle Struktur des Internet führt allerdings rein technisch gesehen zu suboptimalem routing. Dies wird kompensiert zum einen durch die diversen IX (s.o.), an denen die Provider mit vielen anderen Providern kostengünstig peering-Beziehungen aufbauen können, und durch die während der New Economy[tm] aufgebauten Überkapazitäten bei den Glasfaserverbindungen [Bleich]. Durch deren Geschwindigkeit wird auch ein suboptimales routing für die NutzerInnen nicht spürbar, im Gegensatz zum sog. World Wide Wait der 1990er Jahre.

Außer den erwähnten Glasfaserstrecken besteht der "Körper" des Internet noch aus Rechenzentren sowie auf der anderen Seite den Anschlussleitungen zu den Endkunden und deren hosts. Die landgebundenen überörtlichen Glasfaserverbindungen gehören Wege(rechts)inhabern z.B. entlang von Pipelines, Überlandleitungen, Auto- und Eisenbahnen, also im Wesentlichen Energieversorgungs- und Telekommunikationskonzernen. Übertragungskapazitäten werden an Transportnetzbetreiber ("Carrier") und Internetprovider weiterverkauft. Die Rechenzentren des Internet befinden sich meist unmittelbar bei einem IX oder umfassen einen solchen, weil an einem IX Glasfasern verschiedener backbones zusammenlaufen und Bandbreite zum Rest des Internet dort kostengünstig zu bekommen ist. Diese Rechenzentren bestehen aus Hunderten von 19-Zoll-Schränken, in denen wiederum jeweils Dutzende von Servern betrieben werden, sowie der zugehörigen unterbrechungsfreien Stromversorgung und Klimatisierung. Die Betreiber der Server mieten sich von den Betreibern der Rechenzentren Schränke oder Teile von Schränken um ihre Server unter stabilen Bedingungen und mit hoher Geschwindigkeit und großer Bandbreite im Internet zugreifbar zu machen. Verbindung zum Internet bekommen sie dort von einem im Rechenzentrum präsenten Provider oder, wenn sie selbst AS sind, durch die oben genannten transit- und/oder peering-Beziehungen zu mehreren dort präsenten Providern.

Soviel zu den "Dezentralen" des Internet, kommen wir zur Peripherie: an den Rändern des Internet befinden sich Privat- und Firmenkunden. Sie bezahlen Zugangsanbieter ("access provider") für die Bereitstellung einer Verbindung zum Internet um dann (üblicherweise) die von Servern angebotenen Dienste zu nutzen. Wenn Firmen selbst Dienste anbieten, sei es für die Internet-Öffentlichkeit oder zum Zugriff von Außenmitarbeitern oder Filialen auf das interne Netz, dann lassen sie sich meist über andere (symmetrische) Leitungstypen anbinden. Büros oder Privatpersonen die nur auf Dienste zugreifen werden mit billiger vermarkteten, asymmetrischen Leitungen angebunden.

Die Leitungen am Rande des Internet, die sog. letzte Meile zu den Endkunden, gehören in der BRD den Nachfolgern des Postmonopols, also der Telekoma und den Betreibern von Kabelfernsehnetzen. Aber auch die Zugangsmöglichkeit über Mobilfunknetze sei erwähnt. Im Falle der Kupferadern zu den Endkunden muss der Erbmonopolist Telekoma die Konkurrenzkonzerne zu staatlich von der sog. Bundesnetzagentur definierten Konditionen die Kupferadern nutzen lassen. Die über Zugangsleitungen ans Internet angeschlossenen hosts schließlich gehören den jeweiligen Endnutzern.

Die für das Internet wohl relevantesten Kapitalakkumulationen sind die in den Bereichen backbone-Leitungen, Endkundenanschlussleitungen, Hersteller von Übertragungstechnik und Routern für Carrier und Provider, Dienste für Endkunden (z.B. Google, werbefinanzierte Mailprovider), Softwarehersteller für Endkunden (Micro$oft). Diesen steht - in der IT-Branche traditionell - keine nennenswerte gewerkschaftliche Organisierung der Werktätigen gegenüber.