1.2. Entwicklung des Internet

1.2.1. Militärisch-wissenschaftliche Wurzeln, "packet switching"
1.2.2. ARPANET
1.2.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet
1.2.4. Kommerz und WWW

Abbildung 1.1. Zeitleiste

Entwicklung des Internet


1.2.1. Militärisch-wissenschaftliche Wurzeln, "packet switching"

The definition of enemy is still open.

Paul Baran [Baran III]

Nach dem "Sputnik-Schock" 1957 wurde im US-Kriegsministerium die (D)ARPA ((Defense) Advanced Research Projects Agency) gegründet, als Forschungsförderungsinstitution für militärtechnologischen Fortschritt zwecks Überlegenheit gegenüber der UdSSR. Neben unmittelbar militärischen Projekten wurde auch Grundlagenforschung gefördert, etwa im Bereich der Computertechnologie. Einer der frühen Visionäre der Computernutzung im allgemeinen und von Computernetzwerken im speziellen war der Wissenschaftler am MIT (Massachusetts Institute of Technology) J.C.R. Licklider, dieser schrieb bereits 1960(!):

"It seems reasonable to envision, for a time 10 or 15 years hence, a 'thinking center' that will incorporate the functions of present-day libraries together with anticipated advances in information storage and retrieval and the symbiotic functions suggested earlier in this paper. The picture readily enlarges itself into a network of such centers, connected to one another by wide-band communication lines and to individual users by leased-wire services. In such a system, the speed of the computers would be balanced, and the cost of the gigantic memories and the sophisticated programs would be divided by the number of users." ([Licklider I], S. 8)

Licklider war von 1962-1964 beim ARPA als Direktor des Information Processing Techniques Office für die Forschungsförderung zuständig und schrieb dort zum Verhältnis von Militär und Forschung:

"I am hoping that there will be, in our individual efforts, enough evident advantage in cooperative programming and operation to lead us to solve th[e] problems and, thus, to bring into being the technology that the military needs. When problems arise clearly in the military context and seem not to appear in the research context, then ARPA can take steps to handle them on an ad hoc basis. As I say, however, hopefully, many of the problems will be essentially as important, in the research context as in the military context." [Licklider II]

Zu dieser Zeit wurde im "militärischen Kontext" bereits sehr detailliert über ausfallsichere Kommunikationsnetze nachgedacht, die gegnerische Angriffe auf die "command and control" Infrastruktur bestmöglich überstehen sollten. Am RAND, dem ersten US think tank, der unmittelbar nach dem 2. Weltkrieg zur fortgesetzten Zusammenarbeit zwischen Militär, Industrie und Wissenschaft gegründet wurde [RAND], wurde 1964 eine Reihe von Schriften herausgegeben, in denen Paul Baran die Grundzüge des "Distributed Adaptive Message Block Network", eines digitalen, paketorientierten, vermaschten Kommunikationsnetzes, darstellt und analysiert [Baran I], [Baran II].

Abbildung 1.2. Zentrale, dezentrale, verteilte Kommunikationsnetze

Zentrale, dezentrale, verteilte Kommunikationsnetze - Aus Barans Beschreibung eines digitalen, paketorientierten, vermaschten Kommunikationsnetzes


Mitte der 1960er, aber offenbar unabhängig von Baran hatte der britische Physiker und Mathematiker Donald Davies am dortigen National Physical Laboratory (NPL) ähnliche Konzepte erarbeitet [Davies], [Barber]. Und schließlich hatte der MIT-Wissenschaftler Leonard Kleinrock in der ersten Hälfte der 1960er Jahre zur Theorie der Leistungsfähigkeit digitaler Netze gearbeitet. Diese drei Wurzeln fanden vmtl. erst auf einer Konferenz 1967 zusammen, als der beim ARPA für das ARPANET verantwortliche MIT-Wissenschaftler von einem britischen Kollegen über Barans Arbeit bei RAND erfuhr [Roberts II], [Leiner]. Bis dahin waren Erfahrung und Konzept der Roberts-Gruppe gerade einmal auf der Ebene einer Kopplung von zwei Computern [Roberts I] angekommen. Erst mit Barans "packet switching" als Netzwerkprinzip [Baran I], [Davies] war die Basis des ARPANET komplett, auch wenn Roberts (mittlerweile?) das Gegenteil behauptet ([Roberts II] vs. [Barber], [Baran III]).

Die britische Gruppe entwickelte - mangels weitergehender Förderung immerhin - ein lokales paketorientiertes Netz (LAN = local area network) mit der relativ hohen Bandbreite von 1 Mb/s, das bis in die 1980er Jahre am NPL in Benutzung war.

Das ARPA beauftragte die Produktion von IMPs (interface message processor) bei BBN (Bolt, Beranek, Newman - Technologiefirma im Umfeld des MIT), deren erster im September 1969 an die UCLA (University of California at Los Angeles) an Kleinrocks Gruppe geliefert wurde. Ende 1969 bildeten IMPs mit den zugehörigen hosts an vier Standorten den operativen Anfang des ARPANET. Verbunden waren sie über 50 kb/s Leitungen - die Bandbreite war auf Anregung der britischen Gruppe gegenüber dem ursprünglichen Konzept deutlich erhöht worden [Roberts II], [Leiner].

Trotz des militärischen Hintergrundes waren die Entwicklungsarbeiten am ARPANET nicht "classified", sondern (fach)öffentlich, was die Einbeziehung von und Wechselwirkung mit anderen am Thema arbeitenden Gruppen erleichterte und die Entwicklung sicher beschleunigt und verbessert hat (s. z.B. die kanadischen und westeuropäischen RFC-Empfänger in ([NWG] S. 5f)).

1.2.2. ARPANET

War das nun entstehende ARPANET als Vorläufer des Internet militärisch oder nicht? Streng genommen: nicht militärisch, da die früheren Arbeiten am RAND nicht in die ursprüngliche Konzeption des ARPANET einflossen, insbesondere nicht unter der Fahne von "command and control".

Barans packet switching Konzepte sind allerdings klar militärisch motiviert, und da sie im ARPANET ebenso wie im Folgenetz Internet Anwendung fanden, waren bzw. sind diese "indirekt militärisch", da sie diese Technologie benutzen. Paradoxerweise war Baran selbst das Konzept deshalb sehr wichtig, weil ein erstschlagsresistentes militärisches Kommunikationsnetz einen Atomkrieg insgesamt unwahrscheinlicher macht - egal welche Atommacht es als erstes implementiert [Baran III], deshalb hatte er es ja auch publiziert [Baran II]. Und zwar wegen der dadurch zu erwartenden "Kosten" eines Erstschlags für den Angreifer, da dieser einen Gegenschlag des Angegriffenen nicht mehr durch das Ausschalten ein(ig)er Zentrale(n) sicher verhindern könnte. Nicht weniger paradox, dass die dafür wichtigen Prinzipien der Dezentralität und Redundanz selbst für anarchistische Gesellschaftsvorstellungen wichtig sind.

Von größerer praktischer Relevanz als solche Grundsatzdiskussionen dürfte aber sein, dass der cash flow für das ARPANET von der Militärbehörde ARPA kam. Den beteiligten Wissenschaftlern kann man diese Verstrickung insofern nicht vorwerfen, als dass es keine Alternative zur Finanzierung ihrer Ideen einer räumlich verteilten Computernutzung gab, denn im kommerziellen Bereich waren die thematisch Zuständigen, die Telefongesellschaften, nicht mobilisierbar, da sie monopolisiert-verknöchert waren und so im alten mentalen Bezugssystem der Leitungsvermittlung feststeckten, dass packet switching eine Revolution dargestellt hätte.

Das ab 1969 implementierte ARPANET war also der erste praktische Versuch eines WAN (wide area network) auf der Basis von packet switching. (Zumindest der erste öffentlich bekannte Versuch: Baran [Baran III] erwähnt einen erfolgreichen, geheimen militärischen Test mit einem Dutzend Funkstationen, vmtl. Anfang oder Mitte der 1960er. Dabei, so sagt er, wurde ein (digitales) Fernschreibsignal durch Frequenzmodulation unhörbar in ein ansonsten amplitudenmoduliertes Funksignal eingebracht und unbemerkt mitübertragen - ein genialer hack.)

Zunächst galt es, das ARPANET überhaupt funktionsfähig und benutzbar zu machen, was durchaus (ebenso wie die Arbeit am NPL) als Pionierleistung bezeichnet werden kann. Im Unterschied zur Gruppe am NPL waren die am ARPANET beteiligten Gruppen räumlich weit verteilt und ohne übergeordneten "Chef", der das genaue weitere Vorgehen dekretiert hätte. Da die von BBN gelieferten IMPs nur die Transportmöglichkeit für Datenpakete boten, fehlten insb. die host-to-host Protokolle, ohne die es keine Nutzung des Netzes für AnwenderInnen gab. Die überregionale, wechselseitige Nutzung von Computerkapazitäten und Programmen zwischen allen vom ARPA geförderten Gruppen war aber der (proklamierte) Sinn des ARPANET. So organisierten die beteiligten Gruppen den zur Spezifikation und Implementierung dieser Protokolle erforderlichen Diskurs selbst, der im April 1969 (also Monate vor der Lieferung der ersten IMPs) zu den ersten RFCs (request for comment) führte. Zur Veranschaulichung sei der paradigmatische RFC3 zitiert:

"The Network Working Group seems to consist of Steve Carr of Utah, Jeff Rulifson and Bill Duvall at SRI, and Steve Crocker and Gerard Deloche at UCLA. Membership is not closed. [...] The content of a NWG note may be any thought, suggestion, etc. related to the HOST software or other aspect of the network. Notes are encouraged to be timely rather than polished. [...]

These standards (or lack of them) are stated explicitly for two reasons. First, there is a tendency to view a written statement as ipso facto authoritative, and we hope to promote the exchange and discussion of considerably less than authoritative ideas. Second, there is a natural hesitancy to publish something unpolished, and we hope to ease this inhibition." [Crocker]

Dieser offene, anti-autoritative Stil dürfte (neben dem ARPA cash flow;-) wesentlichen Anteil an der nun beginnenden Erfolgsgeschichte haben. Diese führt vom NCP (network control program) über Applikationsprotokolle wie telnet (ab RFC97) und ftp (ab RFC114), die heute noch in Gebrauch sind. Und kaum dass ARPANET funktionierte und langsam wuchs, wurden neue Anwendungen ersonnen, allen voran e-mail (ab RFC196), welche für den Austausch unter den Beteiligten und damit die weitere Evolution des Netzes katalytisch war.

Im Oktober 1972 wurde das ARPANET auf der ersten internationalen Konferenz über Computerkommunikation in Washington D.C. öffentlich demonstriert. Mit nicht weniger als dem Echtzeitzugriff vom Konferenzort auf über 40 entfernte hosts (s. RFC372, RFC384) und deren Programme über das ARPANET. Es folgt 1973 die Internationalisierung durch eine Verbindung nach Großbritannien zum UCL (University College London), ein technischer und (anti)bürokratischer hack [Kirstein].

1.2.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet

Ebenfalls 1973 beginnen bereits die Arbeiten an der nächsten Protokollgeneration namens TCP (transmission control protocol). Sinn des neuen Protokolls war die Möglichkeit, Verbindungen zwischen Computern in verschiedenen Netzen herstellen zu können, insbesondere sollte das ARPANET mit Satelliten- und Bodenfunknetzen verbunden werden, was natürlich auch für militärische Anwendungen und damit die Geldgeber interessant war. Ebenso von Funknetzen inspiriert war die gleichzeitige Arbeit am Ethernet, der noch heute vorherrschenden Technik für lokale Netze (LANs).

Aus beiden Entwicklungen geht schließlich 1978 TCP/IP Version 4 (RFC790 ff) hervor. TCP/IP abstrahiert von den zugrunde liegenden Transportnetzen um das Zusammenschalten intern ganz verschieden strukturierter Netze zu ermöglichen. Dazu wurden alle Funktionen außer dem reinen Transport der Pakete vom Netz in die Software der hosts verlagert. IPv4 ist die heute noch überwiegende Protokollfamilie im Internet. Im Laufe des Jahres 1982 wird das ARPANET selbst komplett von NCP auf TCP/IP umgestellt. Vom Department of Defense (US Kriegsministerium) wird es als Standard bei der Beschaffung von Computerausrüstung verwendet.

1983 erscheint BSD (Berkeley Software Distribution), ein frei verfügbares Unix Betriebssystem, in der Version 4.2. In diese ist - gefördert von der ARPA - TCP/IP integriert worden. Die inter-Netzwerkfähigkeit war Bestandteil des Betriebssystems geworden. Damit konnte sich internet Technologie in akademischen Kreisen schnell verbreiten.

Parallel zum ARPANET hatten sich auch international diverse paketorientierte Netzinfrastrukturen gebildet. Auch in den USA selbst kam nur ein kleiner, eher elitärer Teil aller Forschungs- und Bildungseinrichtungen in den Genuss einer Anbindung ans ARPANET. So gab es weltweit viele Anstrengungen zur Ermöglichung von vernetztem Datenaustausch und darauf basierender Kommunikation zwischen Einrichtungen und später, mit dem Aufkommen von PCs (personal computer), auch Einzelpersonen. Dies wäre (mindestens) eine weitere Geschichte wert, wir begnügen uns aus Platzgründen mit Stichworten wie Tymnet, Cyclades, Telenet, X.25, uucp, Usenet, BITNET, CSNET, FidoNet.

Ab 1981 förderte die NSF (National Science Foundation) das CSNET (Computer Science Network), welches nicht durch ARPA geförderte Einrichtungen miteinander und dem ARPANET verband. Zunächst über e-mail gateways, später auch als Echtzeitkopplung unter Verwendung von TCP/IP, seitdem der de facto Standard des inter-networking. Über das CSNET schließen sich auch international weitere Einrichtungen an das frühe Internet an, vergrößern es damit vor allem auch personell und machen internet-Technologie bekannter. Nicht nur technisch, auch organisatorisch ist ein heterogenes internet entstanden - das Internet.

In einem nächsten Schritt fördert die NSF ab 1985 ein TCP/IP basiertes backbone Netz (NSFNET) zwischen Supercomputerzentren, das von angeschlossenen Netzen (wie CSNET) kostenlos zum Zugriff auf die Supercomputer genutzt werden kann. Es beginnt ein deutliches Wachstum des jungen Internet, indem sich an die vom NSF geförderten regionalen Netzwerke immer mehr lokale Netzwerke anschließen. Das eigentliche ARPANET, von dem die militärischen hosts 1983 sicherheitshalber in ein separates MILNET getrennt wurden, ist nur noch ein kleiner Teil des Internet und wird 1990 endgültig außer Betrieb genommen.

1991 wird der NSFNET backbone von 1,5 Mb/s auf 45 Mb/s Verbindungen aufgerüstet, ein Novum für packet switching. Ebenso die erste operative Nutzung von BGP (border gateway protocol), um das routing für die stark wachsende Zahl direkt und indirekt angeschlossener Netze noch handhaben zu können - am Ende des NSFNET 1995 waren es bereits über 50000 Netze aus über 90 Ländern (NSFNET, S. 33).

Der Vollständigkeit halber sei erwähnt, dass es direkte Internet-Konnektivität in der BRD seit 1989 gibt und dass die folgende Durchsetzungsgeschichte von TCP/IP zunächst dem Muster "Kampf der Infizierten gegen die Institutionen" folgt (s. [Kalle]).

1.2.4. Kommerz und WWW

Die Förderung einer eigenen akademischen Netzinfrastruktur durch die NSF war zeitlich und vom Fördervolumen begrenzt, sodass die regionalen Netze auch andere Finanzierungsquellen aufbauen sollten bzw. mussten. Da aber das NSFNET der backbone des damaligen Internet war, galten seine Nutzungsbedingungen (acceptable use policy (AUP), s. [NSF], S. 79f) auch für alle indirekt angeschlossen, da ihr traffic (Datenverkehr) notwendigerweise meistens über diesen backbone ging ([NSFNET], S.34). Darin waren kommerzielle Aktivitäten wie Werbung untersagt - der backbone wurde ja aus Steuermitteln finanziert. 1991 wurde die AUP auch zur Nutzung für wissenschaftliche Zwecke durch kommerzielle Forscher freigegeben (vgl. [CNI] und [NSF], S. 79) und kommerzieller transit traffic gegen Entgelt über den backbone zugelassen ([NSF], S. 23). Der zunehmende kommerzielle Druck, das Internet auch fürs Business nutzen zu können, der auch zu Spannungen mit der akademischen Nutzergemeinde und staatlichen Stellen führte ([NSFNET] S. 31f), hätte sich vmtl. früher oder später in einem separaten kommerziellen internet manifestiert, wenn die NSFNET-Administration nicht sowieso schon durch die Involvierung von MCI und IBM auf Kommerzkurs gewesen wäre ([NSFNET], S. 7ff).

Nach zweimaliger Verlängerung der Förderung wird der NSFNET backbone 1995 schließlich stillgelegt, nachdem auch kommerzielle Provider existierten, die den traffic statt des NSFNET backbone transportieren konnten. Zu Konzepten und Details der Ablösung des NSFNET siehe ([Halabi], S. 7-25). Für diese Übergabe der Funktion, das Internet zusammen zu halten, an die kommerziellen Betreiber ([NSFNET] S. 40ff), wurde ein neues Element in die Internetarchitektur eingeführt, das bis heute üblich ist. Diese Internetknoten werden IX oder auch NAP genannt (internet exchange bzw. network access point). Das sind Gebäude mit entsprechender Infrastruktur, an denen die (überwiegend kommerziellen) Internet Provider untereinander traffic austauschen können ("peering"). Falls das Zielnetzwerk nicht direkt über das IX, zu dem ein Provider eine Verbindung hat, erreichbar ist, kann er traffic an überregionale Netzbetreiber übergeben ("transit").

Es gibt z.Z. weltweit über 100 solcher Internet-Knotenpunkte. Der größte in der BRD und durch den zunehmenden traffic von und nach Osteuropa mittlerweile einer der weltgrößten ist das DE-CIX in Bankfurt, an dem alle größeren Provider vertreten sind, mit erwähnenswerter Ausnahme des Erbmonopolisten Telekoma (s. [DE-CIX]). Überregionale Netzbetreiber haben eigene nationale, internationale oder gar interkontinentale backbones, sodass es heute diverse backbones im Internet gibt, nicht mehr einen wie zu Zeiten des NSFNET. Bei aller gebotenen Kritik am Kommerz ist das ein Vorteil für die Ausfallsicherheit und ein (weiterer) antimonopolistischer Aspekt des Internet.

Der Kommerzialisierung der Infrastruktur folgte zunächst die Kommerzialisierung der Dienste, und mit dem Wegfall der AUP die Kommerzialisierung der Inhalte. Schon 1989 wurden erste Mailgateways zwischen dem Internet einerseits und MCI Mail und CompuServe andererseits eingerichtet.

Im gleichen Jahr startete der erste kommerzielle Provider (world.std.com), der Kunden per Modemeinwahl Zugang zum Internet ermöglichte.

Die Kommerzialisierung der Inhalte wurde (unbeabsichtigterweise) katalysiert durch eine Innovation aus dem wissenschaftlichen Bereich, dem world wide web ("WWW"). 1990 wurde am Genfer Hochenergiephysikzentrum CERN die erste Websoftware entwickelt und genutzt, um auf heterogene Dokumenten- und Datenbestände mit einer einheitlichen Benutzeroberfläche zuzugreifen. Grundideen sind Hypertext, Trennung von Datenformaten und ihrer Darstellung, Dezentralität, Erweiterbarkeit [Berners-Lee].

Um Hypertext, also miteinander verknüpfte Dokumente, dezentral aufbauen zu können, braucht man erstens eine Identifikationsmöglichkeit für Dokumente, und zweitens eine darauf beruhende Zugriffsmöglichkeit, die bei Vorlage der Dokumentenkennung das Dokument beschafft. Für beides bot das Internet eine gute Grundlage, auch weil mit dem DNS (domain name system) bereits ein Namensraum für den Echtzeitzugriff auf Netzwerkressourcen vorhanden war. Die offene internet Architektur bot Möglichkeiten, für die Kommunikation zwischen dem Programm des Benutzers ("browser") und den Servern bestehende Protokolle zu nutzen (z.B. ftp), aber auch ein für Hypertext spezialisiertes zu entwickeln (http, hypertext transfer protocol). Für das Format der Hypertextdokumente wurde auf einen vorhandenen ISO Standard zurückgegriffen, nämlich SGML (standard generalized markup language), um das im WWW noch heute verwendete HTML (hypertext markup language) zu spezifizieren.

Graphische oder gar multimediale Inhalte waren zwar im Konzept des WWW vorgesehen ("Hypermedia"), aber zunächst von geringer Bedeutung im Vergleich zu textuellen Informationen und ihrer Verknüpfung. Dies änderte sich, als auch für mainstream PCs graphische Webbrowser verfügbar wurden, insb. 1993 das freie Mosaic, später von den gleichen Entwicklern das kommerzielle Netscape (heute wieder "befreit" als Mozilla/Firefox). Damit konnten auch Menschen ohne Kenntnis der internet Protokolle und ihrer jeweiligen Nutzung auf Ressourcen im Internet zugreifen - mit der Maus auf die hyperlinks zu klicken reichte bereits aus zur Navigation in diesem ständig wachsenden Informationsuniversum namens WWW. So wie e-mail die sog. Killerapplikation des frühen ARPANET und der späteren Zusammenschaltungen verschiedener Netze war, so wurde das WWW die Killerapplikation des entwickelten Internet. Die neue Qualität des WWW, die Verknüpfung der Inhalte und der leichte Zugang zu diesen, ist eine konsequente Weiterentwicklung des Internetprinzips, nämlich der beliebigen Verbindungen zwischen angeschlossenen Rechnern, auf die Ebene der Inhalte.

Das WWW, eigentlich nur ein Dienst unter vielen im Internet, führte zu einem enormen quantitativen Wachstum des Internet, da sich nun auch die gesellschaftlich leider übliche Rollenverteilung von Konzern und Konsument abbilden ließ. Die Integration von Graphiken und Fotos in den Hypertext ermöglichte dann auch das Angebot von virtuellen Hochglanzprospekten und Illustrierten für die nun immer mehr ins Internet strömenden "Normalos".

Mit mehr verfügbarer Bandbreite ließen sich auch Audiodaten und bewegte Bilder integrieren, sodass das WWW mittlerweile auch als Ersatz für Radio und Fernsehen dient - mit dem Vorteil, von den festen Programmen der Sender unabhängig zu sein, also jederzeit auf beliebige der im WWW angebotenen Inhalte zugreifen zu können. Die scheinbar kostenlose Selbstberieselung im WWW zahlt der Surfer durch ein Bombardement mit Werbebotschaften und der Erfassung seiner Nutzungsdaten. Dass die staatlich ermächtigten Wegelagerer von der GEZ auf internetfähige PCs nun auch noch eine "Gebühr" für die von Anderen erbrachten Leistungen kassieren dürfen, ist ein ironisches Sahnehäubchen auf der Torte des frisch gekürten Massenmediums Internet.

Mit den Konzernen kamen auch die Markennamen ins Internet, und damit der Streit um Domainnamen. Im Internet sind sie ja ursprünglich nur als Gedächtnisstütze für Menschen und technisch zur Abstraktion von den zugrunde liegenden IP-Adressen eingeführt worden, sodass es nur die einfachst mögliche Regelung zur Verteilung der Domainnamen gab: wer zuerst kommt, mahlt zuerst. Damit die Konsumenten aber möglichst schnell ohne Umwege ihre Nase an der virtuellen Schaufensterscheibe des Konzerns plattdrücken können, hat dieser ein Interesse, dass der zugehörige Domainname dem Markennamen entspricht (einer der ersten Fälle war 1994 mtv.com [McKenna]). Zur Durchsetzung dieses kommerziellen Interesses konnten die Juristen nun auch das Internet zu ihrem Herrschaftsbereich erklären.

So fehlte nicht viel, bis auch die staatlichen Gesetzgeber merkten, dass sie sich dort breit machen können. Ja sogar müssen, um der Gesellschaft mögliche rechtsfreie Räume, insbesondere eine eigene Öffentlichkeit, zu nehmen und obendrein ihre staatlichen, bisweilen totalitären Kontroll- und Überwachungsgelüste mit digitaler Perfektion umsetzen zu können (Stichworte: Telekommunikationsüberwachungsverordnung, Vorratsdatenspeicherung, China). Denn im Laufe der Geschichte des WWW ist nicht nur der Konsum von Inhalten einfacher geworden, sondern auch die Möglichkeiten, selbst zu publizieren.