1.5. Entwicklung des Internet

1.5.1. Militärisch-wissenschaftliche Wurzeln, "packet switching"
1.5.2. ARPANET
1.5.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet
1.5.4. Kommerz und WWW

Abbildung 1.1. Zeitleiste

Entwicklung des Internet


1.5.1. Militärisch-wissenschaftliche Wurzeln, "packet switching"

The definition of enemy is still open.

(Die Definition von Feind ist noch offen.)

Paul Baran [Baran III]

Nach dem "Sputnik-Schock" 1957 wurde im US-Kriegsministerium die (D)ARPA ((Defense) Advanced Research Projects Agency) gegründet. Ziel war der militärtechnologische Fortschritt zwecks Überlegenheit gegenüber der UdSSR. Die Forschungsbehörde DARPA arbeitete mit vielen amerikanischen Forschungseinrichtungen zusammen und förderte deren Arbeiten. Neben unmittelbar militärischen Projekten wurde auch Grundlagenforschung gefördert, etwa im Bereich der Computertechnologie. Einer der frühen Visionäre der Computernutzung im allgemeinen und von Computernetzwerken im speziellen war der Wissenschaftler am MIT (Massachusetts Institute of Technology) J.C.R. Licklider, dieser schrieb bereits 1960(!):

"It seems reasonable to envision, for a time 10 or 15 years hence, a 'thinking center' that will incorporate the functions of present-day libraries together with anticipated advances in information storage and retrieval and the symbiotic functions suggested earlier in this paper. The picture readily enlarges itself into a network of such centers, connected to one another by wide-band communication lines and to individual users by leased-wire services. In such a system, the speed of the computers would be balanced, and the cost of the gigantic memories and the sophisticated programs would be divided by the number of users." ([Licklider I], S. 8)

"Mit den zu erwartenden Fortschritten bei der Informationspeicherung und -aufbereitung und den zuvor in diesem Text vorgeschlagenen symbiotischen Funktionen scheint es vorstellbar zu sein, dass innerhalb der nächsten 10 oder 15 Jahre ein 'Denkzentrum' die Funktionen heutiger Büchereien übernimmt. Das Bild vervollständigt sich zu einem Netzwerk solcher Zentren, untereinander verbunden durch Breitband-Kommunikationsleitungen und verbunden mit einzelnen Benutzern die Leitungsdienste mieten. In solch einem System würde die Geschwindigkeit der Computer ausbalanciert und die Kosten der gigantischen Speicher und der ausgeklügelten Programme würde durch die Anzahl der Benutzer geteilt."

Licklider war von 1962-1964 beim ARPA als Direktor des Information Processing Techniques Office für die Forschungsförderung zuständig und schrieb dort zum Verhältnis von Militär und Forschung:

"I am hoping that there will be, in our individual efforts, enough evident advantage in cooperative programming and operation to lead us to solve th[e] problems and, thus, to bring into being the technology that the military needs. When problems arise clearly in the military context and seem not to appear in the research context, then ARPA can take steps to handle them on an ad hoc basis. As I say, however, hopefully, many of the problems will be essentially as important, in the research context as in the military context." [Licklider II]

Ich hoffe dass es bei unseren individuellen Anstrengungen genug evidente Vorteile durch kooperatives programmieren und arbeiten geben wird, so dass wir die Probleme lösen können und somit die Technologie bereit stellen die das Militär braucht. Wenn Probleme im militärischen Kontext auftauchen, aber scheinbar nicht im wissenschaftlichen Kontext, dann kann ARPA kurzfristig Schritte unternehmen um diese Probleme zu lösen. Aber wie ich schon sagte, werden hoffentlich viele der Probleme im wissenschaftlichen Kontext ebenso essentiell wichtig sein wie im militärischen Kontext.

Zu dieser Zeit wurde im "militärischen Kontext" bereits sehr detailliert über ausfallsichere Kommunikationsnetze nachgedacht, die gegnerische Angriffe auf die "command and control" Infrastruktur bestmöglich überstehen sollten. Am RAND, dem ersten US think tank, der unmittelbar nach dem 2. Weltkrieg zur fortgesetzten Zusammenarbeit zwischen Militär, Industrie und Wissenschaft gegründet wurde [RAND], wurde 1964 eine Reihe von Schriften herausgegeben. Darin beschrieb Paul Baran die Grundzüge des "Distributed Adaptive Message Block Network", eines digitalen, paketorientierten, dezentralen Kommunikationsnetzes [Baran I], [Baran II]. In Barans Konzept wurden Daten nicht mehr auf einem zentralen Rechner gesammelt, sondern in ein Computernetzwerk eingespeist. Die Daten gelangten über die unterschiedlichsten Verknüpfungen vom Startrechner zum Zielrechner. Dadurch war ein Totalausfall des Netzes kaum mehr zu befürchten.

Abbildung 1.2. Zentrale, dezentrale, verteilte Kommunikationsnetze

Zentrale, dezentrale, verteilte Kommunikationsnetze - Aus Barans Beschreibung eines digitalen, paketorientierten, vermaschten Kommunikationsnetzes


Mitte der 1960er, aber offenbar unabhängig von Baran hatte der britische Physiker und Mathematiker Donald Davies am dortigen National Physical Laboratory (NPL) ähnliche Konzepte erarbeitet [Davies], [Barber]. Und schließlich hatte der MIT-Wissenschaftler Leonard Kleinrock in der ersten Hälfte der 1960er Jahre zur Theorie der Leistungsfähigkeit digitaler Netze gearbeitet. Diese drei Wurzeln fanden vmtl. erst auf einer Konferenz 1967 zusammen, als der beim ARPA für das ARPANET verantwortliche MIT-Wissenschaftler von einem britischen Kollegen über Barans Arbeit bei RAND erfuhr [Roberts II], [Leiner]. Bis dahin waren Erfahrung und Konzept der Roberts-Gruppe gerade einmal auf der Ebene einer Kopplung von zwei Computern [Roberts I] angekommen. Erst mit Barans "packet switching" als Netzwerkprinzip [Baran I], [Davies] war die Basis des ARPANET komplett, auch wenn Roberts (mittlerweile?) das Gegenteil behauptet ([Roberts II] vs. [Barber], [Baran III]).

Bild, jpg: IMP, Vorläufer der heutigen Router

IMP - Interface Messaging Processor - Vorläufer der heutigen Router - Quelle: http://www.webstart.com/jed/service/

Die britische Gruppe entwickelte - mangels weitergehender Förderung immerhin - ein lokales paketorientiertes Netz (LAN = local area network) mit der relativ hohen Bandbreite von 1 Mb/s, das bis in die 1980er Jahre am NPL in Benutzung war.

Jeder Großrechner verwendete damals eine eigene, zu einem anderen System gänzlich inkompatible, Sprache. Standards zum Datenaustausch zwischen Großrechnern gab es noch nicht. Es mussten nicht nur Netzwerkprotokolle entwickelt werden, sondern auch Definitionen für einheitliche Schnittstellen. Damit beauftragte die ARPA Ende 1968 die Technologiefirma BBN (Bolt, Beranek, Newman).

Die Großrechner direkt untereinander zu verbinden wäre wahrscheinlich so ohne weiteres nicht machbar gewesen. BBN löste das Problem indem jeder Großrechner lokal an einen eigenständigen Rechner angeschlossen wurde, dem so genannten IMP ("Interface Message Processor"). Die IMPs wiederum wurden dann miteinander vernetzt und bildeten das eigentliche Netzwerk. Die IMPs können als Vorläufer der heutigen Router betrachtet werden.

Der erste IMP wurde im September 1969 an Kleinrocks Gruppe an der UCLA (University of California at Los Angeles) geliefert. Ende 1969 bildeten IMPs mit den zugehörigen hosts an vier Standorten den operativen Anfang des ARPANET. Verbunden waren sie über 50 kb/s Leitungen. Die Bandbreite war auf Anregung der britischen Gruppe gegenüber dem ursprünglichen Konzept deutlich erhöht worden [Roberts II], [Leiner].

Trotz des militärischen Hintergrundes waren die Entwicklungsarbeiten am ARPANET nicht "classified", sondern (fach)öffentlich, was die Einbeziehung von und Wechselwirkung mit anderen am Thema arbeitenden Gruppen erleichterte und die Entwicklung sicher beschleunigt und verbessert hat (s. z.B. die kanadischen und westeuropäischen RFC-Empfänger in ([NWG] S. 5f)).

1.5.2. ARPANET

War das nun entstehende ARPANET als Vorläufer des Internet militärisch oder nicht? Streng genommen: nicht militärisch, da die früheren Arbeiten am RAND nicht in die ursprüngliche Konzeption des ARPANET einflossen, insbesondere nicht unter der Fahne von "command and control".

Barans packet switching Konzepte sind allerdings klar militärisch motiviert, und da sie im ARPANET ebenso wie im Folgenetz Internet Anwendung fanden, waren bzw. sind diese "indirekt militärisch", da sie diese Technologie benutzen. Paradoxerweise war Baran selbst das Konzept deshalb sehr wichtig, weil ein erstschlagsresistentes militärisches Kommunikationsnetz einen Atomkrieg insgesamt unwahrscheinlicher macht - egal welche Atommacht es als erstes implementiert [Baran III], deshalb hatte er es ja auch publiziert [Baran II]. Und zwar wegen der dadurch zu erwartenden "Kosten" eines Erstschlags für den Angreifer, da dieser einen Gegenschlag des Angegriffenen nicht mehr durch das Ausschalten ein(ig)er Zentrale(n) sicher verhindern könnte. Nicht weniger paradox, dass die dafür wichtigen Prinzipien der Dezentralität und Redundanz selbst für anarchistische Gesellschaftsvorstellungen wichtig sind.

Von größerer praktischer Relevanz als solche Grundsatzdiskussionen dürfte aber sein, dass der cash flow für das ARPANET von der Militärbehörde ARPA kam. Den beteiligten Wissenschaftlern kann man diese Verstrickung insofern nicht vorwerfen, als dass es keine Alternative zur Finanzierung ihrer Ideen einer räumlich verteilten Computernutzung gab. Die im kommerziellen Bereich thematisch Zuständigen, die Telefongesellschaften, waren nicht mobilisierbar. Monopolisiert-verknöchert steckten sie im alten mentalen Bezugssystem der Leitungsvermittlung fest. Packet switching hätte für die Telefongesellschaften eine Revolution dargestellt.

Bild, gif: 1969: Die ersten 4 Knoten des Arpanet

1969: Die ersten 4 Knoten des Arpanet - Quelle: http://www.computerhistory.org

Das ab 1969 implementierte ARPANET war also der erste praktische Versuch eines WAN (wide area network) auf der Basis von packet switching. (Zumindest der erste öffentlich bekannte Versuch: Baran [Baran III] erwähnt einen erfolgreichen, geheimen militärischen Test mit einem Dutzend Funkstationen, vmtl. Anfang oder Mitte der 1960er. Dabei, so sagt er, wurde ein (digitales) Fernschreibsignal durch Frequenzmodulation unhörbar in ein ansonsten amplitudenmoduliertes Funksignal eingebracht und unbemerkt mitübertragen - ein genialer hack.)

Zunächst galt es, das ARPANET überhaupt funktionsfähig und benutzbar zu machen, was durchaus (ebenso wie die Arbeit am NPL) als Pionierleistung bezeichnet werden kann. Die von BBN gelieferten IMPs boten die Transportmöglichkeit für die Datenpakete. Für die Nutzung des Netzes durch die AnwenderInnen fehlten noch die host-to-host Protokolle. Die Datenpakete müssen nicht nur zum Zielrechner transportiert werden, sondern es muss auch angegeben werden welches der dort laufenden Programme das jeweilige Paket erhalten soll. Die überregionale, wechselseitige Nutzung von Computerkapazitäten und Programmen zwischen allen vom ARPA geförderten Gruppen war schließlich der proklamierte Sinn des ARPANET.

Im Unterschied zur Gruppe am NPL waren die am ARPANET beteiligten Gruppen räumlich weit verteilt und ohne übergeordneten "Chef", der das genaue weitere Vorgehen dekretiert hätte. So organisierten die beteiligten Gruppen den zur Spezifikation und Implementierung der host-to-host Protokolle erforderlichen Diskurs selbst, der im April 1969 (also Monate vor der Lieferung der ersten IMPs) zu den ersten RFCs (request for comment) führte. Zur Veranschaulichung sei der paradigmatische RFC3 zitiert:

"The Network Working Group seems to consist of Steve Carr of Utah, Jeff Rulifson and Bill Duvall at SRI, and Steve Crocker and Gerard Deloche at UCLA. Membership is not closed. [...] The content of a NWG note may be any thought, suggestion, etc. related to the HOST software or other aspect of the network. Notes are encouraged to be timely rather than polished. [...]

These standards (or lack of them) are stated explicitly for two reasons. First, there is a tendency to view a written statement as ipso facto authoritative, and we hope to promote the exchange and discussion of considerably less than authoritative ideas. Second, there is a natural hesitancy to publish something unpolished, and we hope to ease this inhibition." [Crocker]

"Die Netzwerk-Arbeitsgruppe (NWG) scheint aus Steve Carr aus Utah, Jeff Rulifson und Bill Duvall am SRI, und Steve Crocker und Gerard Deloche am UCLA zu bestehen. Die Gruppe ist offen für weitere Mitglieder. [...] Der Inhalt einer NWG-Mitteilung kann jeder Gedanke, Vorschlag etc. sein, der sich mit der HOST Software oder anderen Aspekten des Netzwerks beschäftigt. Statt perfekter Formulierungen sollen Mitteilungen besser frühzeitig erfolgen. [...]

Diese Standards (oder das Fehlen derselbigen) sind aus 2 Gründen explizit formuliert worden. Erstens gibt es die Tendenz geschriebene Aussagen schon wegen der Schriftform als maßgeblich anzusehen und wir hoffen den Austausch von und die Diskussion vor allem über nicht so maßgebliche Ideen zu fördern. Zweitens gibt es eine natürliche Zurückhaltung etwas noch nicht perfektes zu veröffentlichen und wir hoffen diese Hemmung abzuschwächen.

Dieser offene, anti-autoritative Stil dürfte (neben dem ARPA cash flow;-) wesentlichen Anteil an der nun beginnenden Erfolgsgeschichte haben. Diese führt vom NCP (network control program) über Applikationsprotokolle wie telnet (ab RFC97) und ftp (ab RFC114), die heute noch in Gebrauch sind. Und kaum dass ARPANET funktionierte und langsam wuchs, wurden neue Anwendungen ersonnen, allen voran e-mail (ab RFC196), welche für den Austausch unter den Beteiligten und damit die weitere Evolution des Netzes katalytisch war.

Im Oktober 1972 wurde das ARPANET auf der ersten internationalen Konferenz über Computerkommunikation in Washington D.C. öffentlich demonstriert. Mit nicht weniger als dem Echtzeitzugriff vom Konferenzort auf über 40 entfernte hosts (s. RFC372, RFC384) und deren Programme über das ARPANET. Es folgt 1973 die Internationalisierung durch eine Verbindung nach Großbritannien zum UCL (University College London), ein technischer und (anti)bürokratischer hack [Kirstein].

1.5.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet

Ebenfalls 1973 beginnen bereits die Arbeiten an der nächsten Protokollgeneration namens TCP (transmission control protocol). Sinn des neuen Protokolls war die Möglichkeit, Verbindungen zwischen Computern in verschiedenen Netzen herstellen zu können, insbesondere sollte das ARPANET mit Satelliten- und Bodenfunknetzen verbunden werden, was natürlich auch für militärische Anwendungen und damit die Geldgeber interessant war. Ebenso von Funknetzen inspiriert war die gleichzeitige Arbeit am Ethernet, der noch heute vorherrschenden Technik für lokale Netze (LANs).

Aus beiden Entwicklungen geht schließlich 1978 TCP/IP Version 4 (RFC790 ff) hervor. TCP/IP abstrahiert von den zugrunde liegenden Transportnetzen um das Zusammenschalten intern ganz verschieden strukturierter Netze zu ermöglichen. Dazu wurden alle Funktionen außer dem reinen Transport der Pakete vom Netz in die Software der hosts verlagert. IPv4 ist die heute noch überwiegende Protokollfamilie im Internet. Im Laufe des Jahres 1982 wird das ARPANET selbst komplett von NCP auf TCP/IP umgestellt. Vom Department of Defense (US Kriegsministerium) wird es als Standard bei der Beschaffung von Computerausrüstung verwendet.

Bild, png: BSD Daemon

BSD-Daemon - Nicht nur Linux hat sein Maskottchen, Copyright 1988 by Marshall Kirk McKusick

1983 erscheint BSD (Berkeley Software Distribution), ein frei verfügbares Unix Betriebssystem, in der Version 4.2. In diese ist - gefördert von der ARPA - TCP/IP integriert worden. Die inter-Netzwerkfähigkeit war Bestandteil des Betriebssystems geworden. Damit konnte sich internet Technologie in akademischen Kreisen schnell verbreiten.

Parallel zum ARPANET hatten sich auch international diverse paketorientierte Netzinfrastrukturen gebildet. Auch in den USA selbst kam nur ein kleiner, eher elitärer Teil aller Forschungs- und Bildungseinrichtungen in den Genuss einer Anbindung ans ARPANET. So gab es weltweit viele Anstrengungen zur Ermöglichung von vernetztem Datenaustausch und darauf basierender Kommunikation zwischen Einrichtungen und später, mit dem Aufkommen von PCs (personal computer), auch Einzelpersonen. Dies wäre (mindestens) eine weitere Geschichte wert, wir begnügen uns aus Platzgründen mit Stichworten wie Tymnet, Cyclades, Telenet, X.25, uucp, Usenet, BITNET, CSNET, FidoNet.

Ab 1981 förderte die NSF (National Science Foundation) das CSNET (Computer Science Network), welches nicht durch ARPA geförderte Einrichtungen miteinander und dem ARPANET verband. Dazu wurden zunächst e-mail gateways genutzt. Gateways ermöglichen die Datenübertragung zwischen hosts die verschiedene Protokolle benutzen. Das Gateway 'übersetzt' ein Protokoll in ein anderes. Später wurde im CSNET dann auch TCP/IP verwendet, seitdem der de facto Standard des inter-networking.

Über das CSNET schließen sich auch international weitere Einrichtungen an das frühe Internet an, vergrößern es damit vor allem auch personell und machen internet-Technologie bekannter. Nicht nur technisch, auch organisatorisch ist ein heterogenes internet entstanden - das Internet.

Bild, gif: NSFNET Backbone 1986

NSFNET Backbone 1986

Bild, gif:NSFNET Backbone 1992

NSFNET Backbone 1992

In einem nächsten Schritt fördert die NSF ab 1985 ein TCP/IP basiertes Netz (NSFNET) zwischen Supercomputerzentren. Dieses Netz konnte von den angeschlossenen Netzen (wie CSNET) kostenlos zum Zugriff auf die Supercomputer genutzt werden. Ein solches Hauptnetzwerk, das alle Teile des internet miteinander verband wurde internet-backbone genannt. Heutzutage wird diese Bezeichnung benutzt, um den „Kern“ des aktuellen Internet zu beschreiben.

Es beginnt ein deutliches Wachstum des jungen Internet, indem sich an die vom NSF geförderten regionalen Netzwerke immer mehr lokale Netzwerke anschließen. Das eigentliche ARPANET ist nur noch ein kleiner Teil des Internet. Die militärischen hosts wurden 1983 sicherheitshalber in ein separates MILNET ausgelagert. 1990 wird das ARPANET endgültig außer Betrieb genommen.

1991 wird der NSFNET backbone von 1,5 Mb/s auf 45 Mb/s Verbindungen aufgerüstet, ein Novum für packet switching. Ein weiterer Meilenstein ist der erste operative Einsatz des Routing-Protokolls BGP (border gateway protocol). Die Einführung von BGP war nötig, um das routing für die stark wachsende Zahl direkt und indirekt angeschlossener Netze noch handhaben zu können. 1995, am Ende des NSFNET waren bereits über 50.000 Netze aus über 90 Ländern angeschlossen (NSFNET, S. 33).

Der Vollständigkeit halber sei erwähnt, dass es direkte Internet-Konnektivität in der BRD seit 1989 gibt und dass die folgende Durchsetzungsgeschichte von TCP/IP zunächst dem Muster "Kampf der Infizierten gegen die Institutionen" folgt (s. [Kalle]).

1.5.4. Kommerz und WWW

Die Förderung einer eigenen akademischen Netzinfrastruktur durch die NSF war zeitlich und vom Fördervolumen begrenzt. Die regionalen Netze sollten bzw. mussten auch andere Finanzierungsquellen aufbauen.

Da das NSFNET backbone des damaligen Internet war, galten seine Nutzungsbedingungen (s. [NSF], S. 79f) auch für alle indirekt angeschlossen Netze, da deren traffic (Datenverkehr) notwendigerweise meistens über diesen backbone ging ([NSFNET], S.34). Darin waren kommerzielle Aktivitäten wie Werbung untersagt - der backbone wurde ja aus Steuermitteln finanziert. Erst 1991 wurden die Nutzungsbedingungen geändert, und das NSFNET auch zur Nutzung für wissenschaftliche Zwecke durch kommerzielle Forscher freigegeben (vgl. [CNI] und [NSF], S. 79) und kommerzieller transit traffic gegen Entgelt zugelassen ([NSF], S. 23).

Der zunehmende kommerzielle Druck, das Internet auch fürs Business nutzen zu können, führte zu Spannungen mit der akademischen Nutzergemeinde und staatlichen Stellen ([NSFNET] S. 31f). Dies hätte sich vmtl. früher oder später in einem separaten kommerziellen internet manifestiert, wenn die NSFNET-Administration nicht sowieso schon durch die Involvierung von MCI und IBM auf Kommerzkurs gewesen wäre ([NSFNET], S. 7ff).

Nach zweimaliger Verlängerung der Förderung wird der NSFNET backbone 1995 schließlich stillgelegt. Mittlerweile existierten auch kommerzielle Provider, die den traffic transportieren konnten. Zu Konzepten und Details der Ablösung des NSFNET siehe ([Halabi], S. 7-25).

Die Funktion das Internet zusammen zu halten, wurde an die kommerziellen Betreiber übergeben ([NSFNET] S. 40ff). Dafür wurde ein neues Element in die Internetarchitektur eingeführt, das bis heute üblich ist: die Internetknoten, auch IX oder NAP genannt (internet exchange bzw. network access point).

Ein IX ist ein Gebäude mit entsprechender Infrastruktur, an denen die (überwiegend kommerziellen) Internet Provider untereinander traffic austauschen können ("peering"). Falls das Zielnetzwerk nicht direkt über das IX, zu dem ein Provider eine Verbindung hat, erreichbar ist, kann er traffic an überregionale Netzbetreiber übergeben ("transit"). Es gibt zur Zeit weltweit über 100 solcher Internet-Knotenpunkte. Der größte in der BRD ist das DE-CIX in Bankfurt. Durch den zunehmenden traffic von und nach Osteuropa ist das DE-CIX mittlerweile einer der weltgrößten Internet-Knotenpunkte. Dort sind alle größeren Provider vertreten, mit erwähnenswerter Ausnahme des Erbmonopolisten Telekoma (s. [DE-CIX]).

Überregionale Netzbetreiber haben heute eigene nationale, internationale oder gar interkontinentale backbones, so dass es heute diverse backbones im Internet gibt, nicht mehr nur einen wie zu Zeiten des NSFNET. Bei aller gebotenen Kritik am Kommerz ist das ein Vorteil für die Ausfallsicherheit und ein (weiterer) antimonopolistischer Aspekt des Internet.

Der Kommerzialisierung der Infrastruktur folgte zunächst die Kommerzialisierung der Dienste. Mit dem Wegfall der Nutzungsbedingungen des NSFNET begann die Kommerzialisierung der Inhalte. Schon 1989 wurden erste Mailgateways zwischen dem Internet einerseits und MCI Mail und CompuServe andererseits eingerichtet.

Im gleichen Jahr startete der erste kommerzielle Provider (world.std.com), der Kunden per Modemeinwahl Zugang zum Internet ermöglichte.

Die Kommerzialisierung der Inhalte wurde (unbeabsichtigterweise) katalysiert durch eine Innovation aus dem wissenschaftlichen Bereich, dem world wide web ("WWW"). 1990 wurde am Genfer Hochenergiephysikzentrum CERN die erste Websoftware entwickelt und genutzt, um auf heterogene Dokumenten- und Datenbestände mit einer einheitlichen Benutzeroberfläche zuzugreifen. Grundideen sind Hypertext, Trennung von Datenformaten und ihrer Darstellung, Dezentralität, Erweiterbarkeit [Berners-Lee].

Um Hypertext, also miteinander verknüpfte Dokumente, dezentral aufbauen zu können, braucht man eine Identifikationsmöglichkeit für Dokumente. Außerdem ist eine darauf beruhende Zugriffsmöglichkeit erforderlich, die bei Vorlage der Dokumentenkennung das Dokument beschafft. Für beides bot das Internet eine gute Grundlage, auch weil mit dem DNS bereits ein Namensraum für den Echtzeitzugriff auf Netzwerkressourcen vorhanden war. Die offene internet Architektur bot Möglichkeiten für die Kommunikation zwischen dem Programm des Benutzers ("browser") und den Servern bestehende Protokolle zu nutzen (z.B. ftp). Es konnte aber auch ein für Hypertext spezialisiertes Protokoll entwickelt werden (http, hypertext transfer protocol). Für das Format der Hypertextdokumente wurde auf einen vorhandenen ISO Standard zurückgegriffen, nämlich SGML (standard generalized markup language), um das im WWW noch heute verwendete HTML (hypertext markup language) zu spezifizieren.

Graphische oder gar multimediale Inhalte waren zwar im Konzept des WWW vorgesehen ("Hypermedia"), aber zunächst von geringer Bedeutung im Vergleich zu textuellen Informationen und ihrer Verknüpfung. Das änderte sich, als auch für mainstream PCs graphische Webbrowser verfügbar wurden, insbesondere 1993 das freie Mosaic, später von den gleichen Entwicklern das kommerzielle Netscape (heute wieder "befreit" als Mozilla/Firefox). Damit konnten auch Menschen ohne Kenntnis der internet Protokolle und ihrer jeweiligen Nutzung auf Ressourcen im Internet zugreifen - mit der Maus auf die Hyperlinks zu klicken reichte bereits aus zur Navigation in diesem ständig wachsenden Informationsuniversum namens WWW. So wie e-mail die sog. Killerapplikation des frühen ARPANET und der späteren Zusammenschaltungen verschiedener Netze war, so wurde das WWW die Killerapplikation des entwickelten Internet. Die neue Qualität des WWW, die Verknüpfung der Inhalte und der leichte Zugang zu diesen, ist eine konsequente Weiterentwicklung des Internetprinzips, nämlich der beliebigen Verbindungen zwischen angeschlossenen Rechnern, auf die Ebene der Inhalte.

Das WWW, eigentlich nur ein Dienst unter vielen im Internet, führte zu einem enormen quantitativen Wachstum des Internet, da sich nun auch die gesellschaftlich leider übliche Rollenverteilung von Konzern und Konsument abbilden ließ. Die Integration von Graphiken und Fotos in den Hypertext ermöglichte dann auch das Angebot von virtuellen Hochglanzprospekten und Illustrierten für die nun immer mehr ins Internet strömenden "Normalos".

Mit mehr verfügbarer Bandbreite ließen sich auch Audiodaten und bewegte Bilder integrieren, sodass das WWW mittlerweile auch als Ersatz für Radio und Fernsehen dient - mit dem Vorteil, von den festen Programmen der Sender unabhängig zu sein, also jederzeit auf beliebige der im WWW angebotenen Inhalte zugreifen zu können. Die scheinbar kostenlose Selbstberieselung im WWW zahlt der Surfer durch ein Bombardement mit Werbebotschaften und der Erfassung seiner Nutzungsdaten. Dass die staatlich ermächtigten Wegelagerer von der GEZ auf internetfähige PCs nun auch noch eine "Gebühr" für die von Anderen erbrachten Leistungen kassieren dürfen, ist ein ironisches Sahnehäubchen auf der Torte des frisch gekürten Massenmediums Internet.

Mit den Konzernen kamen auch die Markennamen ins Internet, und damit der Streit um Domainnamen. Im Internet wurden sie ursprünglich nur als Gedächtnisstütze für Menschen eingeführt. Es gab nur die einfachst mögliche Regelung zur Verteilung der Domainnamen: wer zuerst kommt, mahlt zuerst. Damit die Konsumenten aber möglichst schnell ohne Umwege ihre Nase an der virtuellen Schaufensterscheibe des Konzerns plattdrücken können, hat dieser ein Interesse, dass der zugehörige Domainname dem Markennamen entspricht (einer der ersten Fälle war 1994 mtv.com [McKenna]). Zur Durchsetzung dieses kommerziellen Interesses konnten die Juristen nun auch das Internet zu ihrem Herrschaftsbereich erklären.

So fehlte nicht viel, bis auch die staatlichen Gesetzgeber merkten, dass sie sich dort breit machen können. Ja sogar müssen, um der Gesellschaft mögliche rechtsfreie Räume, insbesondere eine eigene Öffentlichkeit, zu nehmen und obendrein ihre staatlichen, bisweilen totalitären Kontroll- und Überwachungsgelüste mit digitaler Perfektion umsetzen zu können (Stichworte: Telekommunikationsüberwachungsverordnung, Vorratsdatenspeicherung, China). Denn im Laufe der Geschichte des WWW ist nicht nur der Konsum von Inhalten einfacher geworden, sondern auch die Möglichkeiten, selbst zu publizieren.