Kapitel 1. Das Internet

Inhaltsverzeichnis

1.1. internet-Technologie
1.1.1. Digital
1.1.2. Unabhängigkeit vom Übertragungsmedium
1.1.3. Paketorientierung
1.1.4. Beliebige Verbindungen zwischen allen hosts
1.1.5. Herstellerneutrale, offene Standards
1.1.6. Quantitative Offenheit
1.1.7. Qualitative Offenheit
1.2. Entwicklung des Internet
1.2.1. Militärisch-wissenschaftliche Wurzeln, "packet switching"
1.2.2. ARPANET
1.2.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet
1.2.4. Kommerz und WWW
1.3. Organisation des Internet
1.3.1. Standards
1.3.2. Eindeutige Nummern und Namen
1.3.3. Netztopologie und Besitzverhältnisse
1.4. Probleme und Kritik des Internet
1.4.1. Kapitalismus und/oder Innovation
1.4.2. Der Staat
1.4.3. Datenmüll und Verbrechen
1.4.4. Kollektive Vereinzelung

Das Internet ist die offene Form der geschlossenen Anstalt.

Sprichwort.

Das Internet ist das weltweit größte Datenübertragungsnetz, das auf internet-Technologie basiert.

Zunächst folgt ein Abriss zentraler Merkmale der Technologie des Internet als Grundlage für die anschließenden Darstellungen seiner organisatorischen und gesellschaftlichen Dimensionen. Dabei ist Internet mit großem I "das" Internet, während "internet" mit kleinem i ein beliebiges Datenübertragungsnetz meint, das internet-Technologie verwendet, unabhängig davon, ob eine Verbindung zu "dem" Internet besteht oder nicht. Das englischsprachige Wort "internet" kann als Zusammenziehung von "interconnected networks" gelesen werden, meint also miteinander verbundene Netzwerke, ein Netz von Netzen. Die im Folgenden angegebenen Quellen sind soweit möglich über das Internet abrufbare Originalarbeiten und daher überwiegend englischsprachig. Wer Muße für eine ausführlichere deutschsprachige Darstellung hat, dem sei das Internet Kapitel ([Grassmuck], S. 179ff) des Buches "Freie Software" empfohlen, welches sowohl zum download als auch staatlich subventioniert als Papierausgabe von der Bundeszentrale für politische Bildung bereitgestellt wird. Ebenfalls brauchbar und im Internet abrufbar sind [Musch] und [Gillies].

1.1. internet-Technologie

1.1.1. Digital

Dies bedeutet, dass Daten digitalisiert werden müssen, ehe sie in einem internet übertragen werden können. Digitalisierung ist die Rasterung eines physikalischen Originals in seine digitale Kopie. Ob der damit unvermeidlich verbundene Qualitätsverlust relevant ist, müssen letztlich die NutzerInnen der Kopie entscheiden. So ist die Bevorzugung von Vinyl-Platten gegenüber Audio-CDs bei einer Minderheit von HiFi-Freaks sicher nicht (nur) deren kollektiver Halluzination geschuldet, sondern Resultat des fundamentalen Unterschieds zwischen analoger und digitaler (d.h. kontinuierlicher und diskreter) Abbildung. Für den Hausgebrauch wird dieser Unterschied aber immer weniger relevant, da Digitalisierungstechnik Massenware geworden ist (Hendi, Digitalkamera, DVBT, ...). Und selbst wenn jemand noch einen Analog-Telefonanschluss mit Omas Telefon als Endgerät hat, so ist spätestens in der nächsten Vermittlungsstelle Schluss mit analog, weil dort digitalisiert werden muss, denn auch das Telefonnetz ist mittlerweile im Innern komplett digitalisiert. Insofern ist die Digitalität von internet-Technologie nichts aufregend Neues, bildet aber wegen der perfekten Kopierbarkeit digitaler Daten eine wichtige konzeptionelle Grundlage des Internet und seiner Nutzung.

1.1.2. Unabhängigkeit vom Übertragungsmedium

Die Unabhängigkeit vom Übertragungsmedium ist zwar als technisches Prinzip spannend, aber für den Hausgebrauch auf den ersten Blick uninteressant. Schaut man sich aber die diversen Zugangsmöglichkeiten der HausgebraucherInnen zum Internet an, so ist dies für das Wachstum der TeilnehmerInnenzahlen am Internet doch sehr relevant, kann der Zugang doch über analoge (Modem) oder digitale (ISDN) Telefonanschlüsse erfolgen, über DSL wie über Kabelfernsehanschlüsse, über Funk (WLAN) oder Satellit etc. Alles geht, solange das Medium eine digitale, bidirektionale Übertragung erlaubt. Entsprechendes gilt auch im Inneren des Internet, wo zunehmend optische Übertragungswege wegen ihrer hohen Bandbreite genutzt werden.

1.1.3. Paketorientierung

Auch die Paketorientierung eines internet ist für dessen NutzerInnen erstmal unsichtbar. Sie besagt, dass zusammengehörige Daten in kleine Pakete aufgeteilt werden und unabhängig voneinander durch das internet über Zwischenknoten zu ihrem Ziel transportiert werden. Da jedes Paket Ursprungs- und vor allem die Zieladresse selbst enthält, muss ein Zwischenknoten ("router") nichts über den Datenstrom wissen, zu dem ein Paket gehört, er muss das Paket nur einen Schritt näher zu seinem Ziel bringen. Dies ist nicht nur ein wesentlicher Unterschied zur inneren Logik der leitungsorientierten Telefonnetze sondern konzeptionell relevant, da sie die Endknoten wichtiger macht und die Zwischenknoten des Netzes voneinander unabhängiger.

1.1.4. Beliebige Verbindungen zwischen allen hosts

Technischer Sinn eines internet ist es, jederzeit beliebige Verbindungen zwischen allen angeschlossenen Geräten (hosts) zu ermöglichen. D.h. u.a., dass alle NutzerInnen die jederzeitige Möglichkeit haben (sollen), bei Interesse auf die von jedem der verschiedenen hosts in ihrem internet zur Verfügung gestellten (Daten)Dienste zuzugreifen. Umgekehrt kann prinzipiell jede/r TeilnehmerIn selbst solche Dienste anbieten, solange sein Computer (host) im jeweiligen internet erreichbar ist. Unter dem Stichwort "file sharing" ist der/die LeserIn ja vielleicht schon einmal einem Kollateralschaden dieses grundlegenden internet-Konzepts begegnet.

1.1.5. Herstellerneutrale, offene Standards

Mit den herstellerneutralen Standards kommen wir nun auf die meta-technische Ebene des Internet-Prozesses. Die im Internet angewandte Standardisierungsmethodik [Bradner], [Crocker] ist u.a. eine wichtige Sicherung gegen Monopolisierungsversuche - eine reale Gefahr, die immer wieder gern von Bill Gates Firma veranschaulicht wird. Da in einem internet Geräte und Programme unterschiedlicher Hersteller kooperieren müssen, ist eine Beachtung der Standards für die Hersteller unverzichtbar um "mitspielen" zu können. Damit die Standards aber auch etwas taugen und zu einer Akzeptanz der von ihnen jeweils beschriebenen Technik bei den NutzerInnen beitragen, sollten technische Expertise, ökonomische Umsetzung und NutzerInneninteressen möglichst an einem Strang ziehen.

Dies ist im Internet offenbar besser gelöst als in den traditionellen Gremien, die auf national strukturierten Normungsgremien basieren, denn anders wäre das rasante Wachstum des Internet technisch gar nicht umsetzbar gewesen. Zum Vergleich sei hier beispielhaft an die Monopolbemühung "BTX" der seligen Bundespost erinnert oder an die Verbreitung von OSI-Protokollen im Vergleich zu internet-Protokollen (s. dazu [Rutkowski], [Crocker]). Wobei brauchbare OSI-Bemühungen auch als internet-Techniken assimiliert werden, z.B. X.500, und neuerdings die ITU (Internationale Fernmeldeunion, eine Unterorganisation der UN) sich für Hochleistungsprotokolle (bei) der IETF (Internet Engineering Task Force) bedient bzw. sich mit ihr arrangieren muss (s. [ITU], [IAB]), da internet-nahe Protokolle wie Ethernet und MPLS sich auch in Transportnetzen ausbreiten, die sowohl dem Telefonnetz als auch dem Internet zugrunde liegen.

1.1.6. Quantitative Offenheit

Wachstum braucht quantitative Offenheit, und die ist im Internet zum einen durch die offene Netzwerkarchitektur (s.o. Unabhängigkeit vom Übertragungsmedium bis beliebige Verbindungen) fundiert, zum anderen durch das Fehlen von Verknappungsinstanzen, wie staatliche Lizenzvergabe oder ganz allgemein Monopole. So erfordert etwa die Einbindung eines neuen internet in "das" Internet lediglich drei Schritte: erstens das Herstellen einer geeigneten physikalischen Übertragungsverbindung, zweitens eine koordinierte Vergabe eindeutiger IP (internet protocol) Adressen an den neuen Teil des Internet, und drittens die Bekanntmachung der neuen Verbindung in den globalen Routingtabellen durch diejenigen, die die Verbindung mit dem neuen Teil des Internet hergestellt haben. Der Clou: das neue internet, das dadurch Teil des großen Internet geworden ist, kann nun (entsprechende Übertragungskapazitäten vorausgesetzt) seinerseits weitere, bisher abgekoppelte internets in "das" Internet assimilieren.

Das u.a. dadurch ermöglichte rasante Internet-Wachstum insb. seit Mitte der 1990er Jahre hat allerdings insofern eine absolute Schranke, als dass die Zahl verschiedener IPv4-Adressen wg. deren fester Länge von 32 bit mit ca. 4 Milliarden endlich ist. Hier ist ein Ende der technischen Fahnenstange absehbar, aber es gibt ("natürlich") auch technische Konzepte dagegen, wie etwa das mangelverwaltende NAT (mehrere Rechner teilen sich eine Adresse und sind dadurch keine vollwertigen hosts mehr) oder vor allem das neue internet protocol IPv6 mit 128 bit Adressen ("genug für alle und alles":).

1.1.7. Qualitative Offenheit

Ohne pauschal einem "Umschlagen der Quantität in Qualität" nach- oder gegenzureden: es ist das bisherige quantitative Wachstum des Internet nicht ohne qualitatives Wachstum denkbar. So wurde z.B. kurz nach dem Umstellen des damaligen ARPANET von NCP auf (das noch heute gebrauchte) IPv4 1983 das domain name system (DNS) entwickelt. Es war nötig, um das gewachsene Netz trotz der vielen hosts für Menschen nutzbar zu halten, die sich nunmal (Domain)Namen besser merken können als Ziffernkolonnen (IP-Adressen, die sich darüber hinaus bei Netzwerkänderungen ebenfalls ändern). Das DNS ist nichts weniger als eine dezentral verwaltete und betriebene globale Datenbank.

Seit den 1990ern wird BGP als Routingprotokoll zwischen den autonomous systems (AS, ca. "Provider") genutzt, um die Illusion, dass jede jeden im Internet erreichen kann, trotz des quantitativen Wachstums real bleiben zu lassen. Zur Zeit (Ende 2008) enthalten die damit dezentral verwalteten globalen Routing Tabellen etwa 30000 AS mit insg. 270000 sog. IPv4-Präfixen (ca. "Netze").

Die Integration immer neuer Techniken, wie z.B. e-mail, Ethernet, Unix, das World Wide Web oder Internettelefonie, war einerseits eine Reaktion auf quantitatives Wachstum (Anzahl der hosts und der TeilnehmerInnen, verfügbare Bandbreite und Rechenleistung), andererseits auch die Voraussetzung für qualitatives Wachstum. Rückgrat des qualitativen Wachstumsprozesses wiederum ist der offene Standardisierungsprozess (s.o.). Nicht nur technologische Qualitätssprünge wechselwirken mit quantitativen, auch organisatorische, wie in der ersten Hälfte der 1990er der Übergang vom überwiegend staatlich finanzierten Forschungsnetz zum marktförmig kommerziellen, das heißt in unserer Epoche: kapitalistischen Internet.