Anarchismus und Internet

- Entwicklung und Situation des Internet sowie seine wechselseitigen Bezüge zum Anarchismus -

AutorInnenkollektiv um Frank Nord

Versionsinformation: DocBooksource $Revision: 1.30 $

Textvariante: Ausführliche Version für Internet-EinsteigerInnen. ("maxi")

Zusammenfassung

Der erste Teil dieses Textes beschreibt das Internet - seine technischen Grundideen, seine geschichtliche Entwicklung, seine Organisation und einige seiner Probleme.

Im zweiten Teil wird das Internet in wechselseitiger Beziehung zum Anarchismus betrachtet. Es werden Eigenschaften des Internet wie Dezentralität, Einheit und Wachstumsdynamik zur Inspiration für den Anarchismus interpretiert. Umgekehrt wird der Anarchismus zur Analyse praktischer und ideologischer Probleme des Internet herangezogen. Schließlich werden konkrete Handlungsbereiche für die libertäre Internetnutzung aufgezeigt.

Der erste Teil des Textes kann auch für sich alleine gelesen werden. Der zweite Teil baut auf den Erklärungen des ersten Teils auf.

Der Text ist in drei Varianten ("mini", "midi" und "maxi") verfügbar. Die vor allem im ersten Teil kürzere "mini" Variante entspricht dem Text des Beitrages "Anarchismus und Internet" in der Anthologie Anarchismus 2.0(ISBN 3-89657-052-8), die von Hans Jürgen Degen und Jochen Knoblauch herausgegeben wurde und im April 2009 im Schmetterling Verlag erschien. In der "maxi" Variante des Textes werden Begriffe und Zusammenhänge des Internet ausgiebig dargestellt, damit sie auch für Laien verständlich sind.

Die jeweils aktuelle Version dieses Textes wird über das Internet auf folgender Website verfügbar gemacht: http://projekte.free.de/anarchismus-und-internet/


Inhaltsverzeichnis

Einleitung
1. Das Internet
1.1. Austausch zwischen vielen verschiedenen Geräten
1.2. Arten von Netzen
1.2.1. LAN
1.2.2. WAN
1.2.3. Internet
1.3. Dienste
1.4. internet-Technologie
1.4.1. Digital
1.4.2. Unabhängigkeit vom Übertragungsmedium
1.4.3. Paketorientierung
1.4.4. Beliebige Verbindungen zwischen allen hosts
1.4.5. Herstellerneutrale, offene Standards
1.4.6. Quantitative Offenheit
1.4.7. Qualitative Offenheit
1.5. Entwicklung des Internet
1.5.1. Militärisch-wissenschaftliche Wurzeln, "packet switching"
1.5.2. ARPANET
1.5.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet
1.5.4. Kommerz und WWW
1.6. Organisation des Internet
1.6.1. Standards
1.6.2. Eindeutige Nummern und Namen
1.6.3. Netztopologie
1.7. Probleme und Kritik des Internet
1.7.1. Kapitalismus und/oder Innovation
1.7.2. Der Staat
1.7.3. Datenmüll und Verbrechen
1.7.4. Kollektive Vereinzelung
2. Internet undstattoder Anarchismus
2.1. Vom Internet lernen ...
2.1.1. Dezentralität und Einheit
2.1.2. Gedankenexperiment: Anarchismus als Internet
2.2. Vom Anarchismus lernen ...
2.2.1. Regulation von unten
2.2.2. Freiheit mit Staat und Markt?
2.3. Praktische Möglichkeiten
2.3.1. "Bildet Banden!"
2.3.2. Konzerne - nein danke!
2.3.3. Freie, open source Software
2.3.4. Verschlüsselung, Sicherheit und Anonymität
Quellen
Index

Abbildungsverzeichnis

1.1. Zeitleiste
1.2. Zentrale, dezentrale, verteilte Kommunikationsnetze

Einleitung

Aus einer anarchistischen Perspektive betrachten wir mit diesem Text [ FNord ] das Internet, seine Technologie und seine historischen und gesellschaftlichen Dimensionen. Voraussetzung dafür ist zumindest eine ungefähre Vorstellung davon, wie das Internet funktioniert. Deshalb kommen wir um einige technische Erklärungen nicht herum.

Da im Verlaufe dieses Beitrags auch viele technische Begriffe auftauchen werden, zur Klarstellung eines vorweg: Eine rein technische Lösung zur Befreiung der Gesellschaft (von Herrschaft, Ausbeutung, Staat, ...) kann es nicht geben. "Befreiung" ist ein an Menschen gebundener Begriff. Nur sie können die urhebende und beurteilende Instanz einer Befreiung sein. Es ist aber auch klar, dass Menschen, die sich befreien (wollen), dazu organisatorische und auch technische Hilfsmittel benutzen. Von der klandestinen Kommunikation über die aufklärerische Betätigung der Druckerpresse bis hin zu bewaffneten Milizen findet sich ein breites Spektrum historisch jeweils verfügbarer organisatorischer und technischer Mittel auch bei anti-autoritären, anarchistischen Befreiungsbestrebungen. Dies gilt offensichtlich auch heute für die Nutzung des Internet, vor allem zum Zwecke der internen und externen Kommunikation.

Es wäre sicher ein interessantes und nützliches Projekt, libertäre Internetnutzung - etwa analog zu [ DadA ] (Datenbank des deutschsprachigen Anarchismus) bei Druckmedien - zu katalogisieren und zu analysieren. Es soll aber im Folgenden um andere, tiefer liegende Bezüge zwischen Anarchismus und Internet gehen. Diese Bezugnahmen basieren auf bzw. resultieren in einer Doppelthese: dass nämlich einerseits "das Internet" Prinzipien und Erfahrungen "des Anarchismus" bewusst(er) in seine Entwicklung aufnehmen könnte (bzw. sollte), während andererseits "der Anarchismus" die Prinzipien und Erfahrungen "des Internet" zum Aufbau gesellschaftlicher Freiräume und emanzipatorischer Entwicklungsprozesse wirksam machen könnte - und u.E. auch sollte.

Die angegebenen Quellen sind soweit möglich über das Internet abrufbare Originalarbeiten und daher überwiegend englischsprachig. Wer Muße für eine ausführlichere deutschsprachige Darstellung hat, dem sei das Internet Kapitel ([ Grassmuck ], S. 179ff) des Buches "Freie Software" empfohlen, welches sowohl zum download als auch staatlich subventioniert als Papierausgabe von der Bundeszentrale für politische Bildung bereitgestellt wird. Ebenfalls brauchbar und im Internet abrufbar sind [ Musch ] und [ Gillies ].

Kapitel 1. Das Internet

Zunächst ein kurzer Überblick über die Funktionsweise des Internet. Danach schauen wir uns die wesentlichen Eigenschaften etwas näher an.

Das Internet ist die offene Form der geschlossenen Anstalt.

Sprichwort.

Spaß beiseite: Das Internet ist das weltweit größte Datenübertragungsnetz, das auf internet-Technologie basiert.

Computer bauen Verbindungen untereinander auf, um Daten auszutauschen. Sie bilden ein sogenanntes Datenübertragungsnetz. Dazu wird die seit den 1960iger Jahren entwickelte internet-Technologie genutzt. Ein solches Datenübertragungsnetz auf Basis der internet-Technologie funktioniert auch ohne Anbindung an das "Internet". Zur Unterscheidung zu dem "Internet" werden in diesem Text zwei Schreibweisen verwendet:

  • Internet mit großem I meint "das" Internet,
  • internet mit kleinem i meint ein beliebiges Datenübertragungsnetz, das internet-Technologie verwendet, unabhängig davon, ob eine Verbindung zu "dem" Internet besteht oder nicht.

1.1. Austausch zwischen vielen verschiedenen Geräten

Neben den unterschiedlichsten Computern und deren diversen Betriebssystemen gibt es im Internet auch noch andere Geräte (z.B. Router, Drucker, Telefone). Damit sich die einzelnen Geräte (hosts) untereinander "verstehen" und Daten austauschen können, gibt es gemeinsame Standards, so genannte Protokolle.

Kommunizieren zwei Computer über diese (Netzwerk-)Protokolle, tauschen sie dabei unterschiedliche Arten von Informationen aus. Zum Beispiel kann ein Computer über das Protokoll zunächst Informationen über sich selbst schicken und sich damit beim anderen Computer identifizieren. Der angewählte Computer kann dann entscheiden, ob er überhaupt Daten austauschen möchte.

Beim Datenaustausch gibt es immer einen, der Informationen sendet und einen, der sie empfängt. Der anbietende Computer wird Server genannt (engl. "to serve"= dienen, versorgen), der empfangende heißt Client (engl. Kunde). Der Client schickt Anfragen des Benutzers mit Hilfe eines speziellen Protokolls an den Server.

1.2. Arten von Netzen

1.2.1. LAN

Damit Daten zwischen Computern ausgetauscht werden können, müssen sie miteinander verbunden sein. Zuhause oder in Betrieben kann eine Verbindung über lokale Netzwerke (engl. Local Area Network, kurz LAN) erfolgen.

Sind die Geräte nicht durch ein Kabel verbunden, sondern per Funk, wird das Netz WLAN genannt. Das W steht für Wireless (engl. ohne Kabel).

1.2.2. WAN

Rechnernetze, die sich über große Entfernungen hinweg erstrecken, heißen Wide Area Network (WAN). Einige WANs gehören bestimmten Organisationen oder Unternehmen und können nur von diesen genutzt werden.

Andere WANs werden durch Provider betrieben, um einen Zugang zum Internet anzubieten. Über Modem, DSL-Leitung, Fernsehkabel etc. können sich die Computer der Kunden mit den Internet-Servern der Provider verbinden.

1.2.3. Internet

Das englischsprachige Wort "internet" kann als Zusammenziehung von "interconnected networks" gelesen werden, meint also miteinander verbundene Netzwerke, ein Netz von Netzen. Das Internet ist also ein Computernetz-Netz.

Das Internet ist kein einheitliches Netzwerk, sondern ein Verbund aus vielen kleinen, geographisch oder organisatorisch begrenzten Netzen und damit ein dezentrales Netzwerk.

Einen einzelnen "Superrechner", der das Internet steuert gibt es nicht. Es sind tausende von Rechnern die miteinander verknüpft sind. Sie bilden gewissermaßen das Rückgrat des Internet. Die breitbandigen Hauptstrecken welche die Internet-Server miteinander verbinden heißen auch so: Backbone. Über diese Leitungen läuft der größte Teil des Datenverkehrs.

Weil es ein einheitliches Internet nicht gibt, sind Regeln erforderlich, die den Datenaustausch zwischen den vielen weltweiten Netzen festlegen. Dadurch entstehen Hierarchien, aber dazu später mehr.

1.3. Dienste

Besteht eine Verbindung zum Internet können die unterschiedlichen Dienste genutzt werden. Einer der wichtigsten Dienste ist das World Wide Web (WWW). Auch wenn sehr viele AnwenderInnen meinen das WWW und das Internet wären das Gleiche, ist dem nicht so. Internet ist der Oberbegriff für die vernetzten Computernetze einschließlich der angebotenen Dienste. Weitere Dienste im Internet sind z.B. E-Mail, DNS, FTP, Telnet und Usenet.

Das WWW ist ein System zur Darstellung von Webseiten (bzw. Dokumenten).

Wer sich eine Webseite ansehen möchte benötigt dazu ein spezielles Programm: einen Browser (z.B. Mozilla Firefox).

Die einzelnen Dokumente sind auf einem Web-Server gespeichert. Jedes Dokument hat eine eindeutige Adresse, die URL (uniform resource locator). Diese gibt man in die Adresszeile des Browsers ein. Der Browser fordert dann vom Server das Dokument an und sorgt für die Darstellung der Seite auf dem Bildschirm.

Die Dokumente haben im WWW ein spezielles Format: HTML (Hyper Text Markup Language). Mit HTML können Querverweise (Links) zu anderen Dokumenten hergestellt werden. Auch Bilder, Filme oder Audiodaten können damit in ein Dokument eingebunden werden. Für die Übertragung von Webseiten wird das Protokoll HTTP (Hypertext Transfer Protocol) verwendet.

E-Mail steht für "electronic mail" ("elektronische Post"). E-Mails bestehen nur aus Textzeichen. Es können aber auch Bilder oder andere Dateien übertragen werden. Diese müssen dazu passend kodiert werden. Aktuelle E-Mailprogramme erledigen das automatisch. Für die Übertragung von E-Mails gibt es spezielle Protokolle. Die wichtigsten sind SMTP, POP3 und IMAP.

Um E-Mails versenden und empfangen zu können benötigt man ein Mail-Postfach, das heißt eine E-Mail-Adresse (z.B. susi@beispiel.org). Diese erhält man z.B. von seinem Internet-Provider. Möchte man jemandem schreiben, muss man die E-Mail-Adresse des Empfängers kennen. An dessen Postfach wird die E-Mail gesendet. Der Empfänger kann die E-Mail dann vom Mail-Server seines Providers abrufen.

Zum Schreiben, Versenden, Abrufen und Lesen von E-Mails kann ein E-Mail-Programm (ein Mail-Client) genutzt werden; z.B. KMail oder Mozilla Thunderbird. Mail-Provider bieten aber auch Web-Schnittstellen an. Über die Webseite seines Providers kann man damit ebenfalls auf seine E-Mails zugreifen oder E-Mails schreiben und versenden.

E-Mails können auf jedem Rechner gelesen werden, den die E-Mail auf ihrem Weg vom Absender zum Empfänger passiert (und das können etliche sein). Vergleicht man das mit der herkömmlichen Briefpost ist eine E-Mail wie eine Postkarte. Der Postbote und alle Personen in den Verteilzentralen können die Postkarte lesen. Mit E-Mails ist das genauso. Um das zu verhindern kann man E-Mails verschlüsseln. Dazu später mehr.

DNS - Das Domain Name System ist einer der wichtigsten Dienste im Internet, auch wenn Mensch nicht viel davon merkt. Das DNS sorgt dafür, dass Anfragen oder E-Mails bei dem richtigen Rechner ankommen. Auch dazu später mehr.

FTP ("file transfer protocol" – Datenübertragungsprotokoll) bietet die Möglichkeit, auch große Dateien zu übermitteln.

Mit Hilfe von Telnet loggt man sich auf einem entfernten Rechner ein, um auf diesem zu arbeiten.

Und der Dienst Usenet meint die Gesamtheit aller Newsgroups, also die schwarzen Bretter im Internet.

1.4. internet-Technologie

1.4.1. Digital

Ein analoges Signal, z.B. eine Schallwelle die aus einem Lautsprecher kommt. Das Signal ändert sich fortlaufend (kontinuierlich).

Damit Daten in einem internet übertragen werden können, müssen sie digitalisiert werden. Zur Umwandlung in ein digitales Signal wird ein analoges Ausgangssignal in feste Zeit-Abschnitte zerlegt. Bei der Aufnahme einer Audio-CD wird das Ausgangssignal z.B. 44.100-mal pro Sekunde abgetastet, also jede Sekunde in 44.100 Schnipsel (samples) zerteilt.

Das Analoge Signal wird in (Zeit-)Abschnitte zerlegt.

Der Wert an jeder der 'Schnittstellen' wird erfasst (die Kringel). Details die feiner sind als dieses Zeitraster werden nicht erfasst. Die einzelnen Schnipsel können jeden beliebigen Wert besitzen.

Die Werte der einzelnen Abschnitte werden in das Werte-Raster eingepasst.

Um diese Werte in Zahlenform darstellen zu können, werden sie durch Rundung in ein festes Werte-Raster eingepasst. Der genaue Wert (Kringel) wird durch den nächstliegenden Wert des Rasters ersetzt (Kreuz). Das Digitalsignal besteht schließlich nur noch aus der so gewonnenen Zahlenreihe.

Ob der damit unvermeidlich verbundene Qualitätsverlust relevant ist, müssen letztlich die NutzerInnen entscheiden. So ist die Bevorzugung von Vinyl-Platten gegenüber Audio-CDs bei einer Minderheit von HiFi-Freaks sicher nicht (nur) deren kollektiver Halluzination geschuldet, sondern Resultat des fundamentalen Unterschieds zwischen analoger und digitaler (d.h. kontinuierlicher und diskreter) Abbildung.

Für den Hausgebrauch wird dieser Unterschied immer weniger relevant. Digitalisierungstechik ist mittlerweile zur Massenware geworden (Hendi, Digitalkamera, DVBT, ...). Und selbst wenn jemand noch einen Analog-Telefonanschluss mit Omas Telefon als Endgerät hat, spätestens in der nächsten Vermittlungsstelle ist Schluss mit analog, weil dort digitalisiert werden muss. Denn auch das Telefonnetz ist mittlerweile im Innern komplett digitalisiert. Insofern ist die Digitalität von internet-Technologie nichts aufregend Neues, bildet aber wegen der perfekten Kopierbarkeit digitaler Daten eine wichtige konzeptionelle Grundlage des Internet und seiner Nutzung.

Solange die Zahlenreihe des Digitalsignals beim Zielsystem überhaupt lesbar ist, ist die Übertragung vollkommen verlustfrei und störsicher. Eine Störung kann bis zu einem gewissen Grad als 'Nicht-Zahlenwert' aussortiert werden oder wird erst gar nicht erfasst. Die Übertragung eines Digitalsignals stellt deshalb an das Übertragungssystem wesentlich geringere Anforderungen als eine vergleichbar gute Übertragung eines Analogsignals.

1.4.2. Unabhängigkeit vom Übertragungsmedium

Die Unabhängigkeit vom Übertragungsmedium ist zwar als technisches Prinzip spannend, aber für den Hausgebrauch auf den ersten Blick uninteressant. Schaut man sich aber die diversen Zugangsmöglichkeiten der HausgebraucherInnen zum Internet an, so ist dies für das Wachstum der TeilnehmerInnenzahlen am Internet doch sehr relevant. Der Zugang kann über analoge (Modem) oder digitale (ISDN) Telefonanschlüsse erfolgen, über DSL wie über Kabelfernsehanschlüsse, über Funk (WLAN) oder Satellit etc. Alles geht, solange das Medium eine digitale Übertragung in beide Richtungen erlaubt. Entsprechendes gilt auch im Inneren des Internet, wo zunehmend optische Übertragungswege (Glasfaserkabel) wegen ihrer hohen Bandbreite genutzt werden.

1.4.3. Paketorientierung

Bild, png: Telefon, leitungsorientierte Übertragung

Telefon: leitungsorientierte Übertragung

Auch die Paketorientierung (packet switching) eines internet ist für die NutzerInnen erstmal unsichtbar.

Die Paketorientierung ist ein wesentlicher Unterschied zur inneren Logik der leitungsorientierten Telefonnetze. Bei den leitungsorientierten Telefonnetzen gibt es eine direkte Verbindung zwischen 2 Teilnehmern. In den Anfangszeiten der Telefonie wurden diese Verbindungen in den Vermittlungsstellen von Hand zusammen gestöpselt. Nur die beiden Teilnehmer nutzen diese Verbindung. Über die Verbindung wird das Signal transportiert. Und zwar alles schön der Reihe nach. Nach erfolgter Übertragung wird die Verbindung unterbrochen.

Internet: paketorientierte Übertragung

Im Internet wird statt dessen 'packet switching' eingesetzt. Die Übertragung erfolgt ganz anders. Zusammengehörige Daten werden in kleine Pakete aufgeteilt und unabhängig voneinander zu ihrem Ziel transportiert. Die einzelnen Datenpakete können dabei auf unterschiedlichen Routen zum Ziel gelangen. Eine Leitung kann dabei für mehrere Datenübertragungen gleichzeitig genutzt werden.

Wie bei echten Paketen wird jedes Datenpaket mit Absender- und Empfängeradresse versehen. Statt der Postanschrift werden für Datenpakete allerdings IP-Adressen verwendet. Die gebräuchlichste Form von IP-Adressen sind heute (noch) die IPv4-Adressen. Eine solche Adresse besteht aus vier Zahlen, die jeweils zwischen 0 und 255 liegen und mit einem Punkt getrennt werden, beispielsweise 127.0.0.1.

Wie bei der Post erfolgt der Transport der Pakete über mehrere Zwischenstationen. Was bei der Post die Verteilzentralen sind, übernehmen im Internet die Router. Da jedes Paket mit Ursprungs- und Zieladresse gekennzeichnet ist, muss ein Router nichts über den Datenstrom wissen, zu dem ein Paket gehört. Er muss das Paket nur einen Schritt näher zu seinem Ziel bringen.

Kommt ein Datenpaket an einem Router an, ermittelt der Router den besten Weg zum Ziel. Jeder Router hat mindestens zu zwei anderen Routern eine Verbindung. Mit diesen tauscht er Informationen aus, wer welche anderen Router erreichen kann. Auf Basis dieser Informationen schickt der Router das Datenpaket an den benachbarten Router, der dem Ziel des Pakets am nächsten ist. Zum Informationsaustausch zwischen den Routern gibt es eigene Protokolle, die Routing-Protokolle (z.B. BGP, OSPF, ...).

Die Paketorientierung ist nicht nur ein wesentlicher Unterschied zur inneren Logik der leitungsorientierten Telefonnetze. Sie ist auch konzeptionell relevant, da sie die Endknoten wichtiger macht und die Zwischenknoten des Netzes voneinander unabhängiger. Fällt ein Router aus, wird einfach eine andere Route genommen.

1.4.4. Beliebige Verbindungen zwischen allen hosts

Technischer Sinn eines internet ist es, jederzeit beliebige Verbindungen zwischen allen angeschlossenen Geräten (hosts) zu ermöglichen. Alle NutzerInnen sollen jederzeit die Möglichkeit haben auf alle von anderen hosts zur Verfügung gestellten (Daten-)Dienste zuzugreifen. Umgekehrt kann prinzipiell jede/r TeilnehmerIn selbst solche Dienste anbieten, solange sein Computer im jeweiligen internet erreichbar ist. Unter dem Stichwort "file sharing" ist der/die LeserIn ja vielleicht schon einmal einem Kollateralschaden dieses grundlegenden internet-Konzepts begegnet.

1.4.5. Herstellerneutrale, offene Standards

Mit den herstellerneutralen Standards kommen wir nun auf die meta-technische Ebene des Internet-Prozesses. Die im Internet angewandte Standardisierungsmethodik [ Bradner ], [ Crocker ] ist u.a. eine wichtige Sicherung gegen Monopolisierungsversuche - eine reale Gefahr, die immer wieder gern von Bill Gates Firma veranschaulicht wird. Da in einem internet Geräte und Programme unterschiedlicher Hersteller kooperieren müssen, ist eine Beachtung der Standards für die Hersteller unverzichtbar um "mitspielen" zu können. Gute Standards tragen dazu bei, dass die von ihnen beschriebene Technik von den NutzerInnen akzeptiert und genutzt wird. Dazu sollten technisches Fachwissen, ökonomische Umsetzung und NutzerInneninteressen möglichst an einem Strang ziehen.

Dies ist im Internet offenbar besser gelöst als in den traditionellen Gremien, die auf national strukturierten Normungsgremien basieren. Anders wäre das rasante Wachstum des Internet technisch gar nicht umsetzbar gewesen. Zum Vergleich sei hier beispielhaft an die Monopolbemühung "BTX" der seeligen Bundespost erinnert. Gegen das offene Internet konnte sich BTX nicht durchsetzen und wurde 2007 endgültig eingestellt. Auch die internationale Normungsorganisation ISO konnte sich mit ihren OSI-Protokollen nicht durchsetzen (s. dazu [ Rutkowski ], [ Crocker ]). Brauchbare OSI-Bemühungen werden aber durchaus als internet-Techniken assimiliert z.B. X.500.

Die Internationale Fernmeldeunion ITU (eine Unterorganisation der UN) bedient sich neuerdings für Hochleistungsprotokolle bei der IETF (dem Standardisierungsgremium des Internet) bzw. muss sich mit ihr arrangieren (s. [ ITU ], [ IAB ]). Internet-nahe Protokolle wie Ethernet (ein für LANs verwendeter Standard) und MPLS breiten sich nämlich auch in Transportnetzen aus, die sowohl vom Telefonnetz als auch dem Internet genutzt werden.

1.4.6. Quantitative Offenheit

Wachstum braucht quantitative Offenheit, und die ist im Internet durch die offene Netzwerkarchitektur (Unabhängigkeit vom Übertragungsmedium bis beliebige Verbindungen) gegeben. Außerdem fehlen Verknappungsinstanzen, wie staatliche Lizenzvergabe oder ganz allgemein Monopole. Für die Einbindung eines neuen internet in "das" Internet sind lediglich drei Schritte erforderlich:

  1. Herstellen einer geeigneten physikalischen Übertragungsverbindung.
  2. Eine koordinierte Vergabe eindeutiger IP-Adressen an den neuen Teil des Internet.
  3. Bekanntmachung der neuen Verbindung in den globalen Routingtabellen.

Der Clou: das neue internet, das dadurch Teil des großen Internet geworden ist, kann nun seinerseits weitere, bisher abgekoppelte internets in "das" Internet assimilieren (sofern ausreichend Übertragungskapazitäten vorhanden sind).

Das u.a. dadurch ermöglichte rasante Internet-Wachstum (insbesondere seit Mitte der 90er Jahre) hat allerdings eine absolute Schranke. Die Zahl der verschiedenen IPv4-Adressen ist wegen deren fester Länge von 32 bit endlich. Es kann nur ca. 4 Milliarden verschiedener IPv4-Adressen geben. Hier ist ein Ende der technischen Fahnenstange absehbar. Aber es gibt ("natürlich") auch technische Konzepte dagegen, wie etwa das mangelverwaltende NAT (mehrere Rechner teilen sich eine Adresse und sind dadurch keine vollwertigen hosts mehr) oder vor allem das neue internet protocol IPv6 mit 128 bit Adressen ("genug für alle und alles":).

1.4.7. Qualitative Offenheit

Ohne pauschal einem "Umschlagen der Quantität in Qualität" nach- oder gegenzureden: das bisherige quantitative Wachstum des Internet ist nicht ohne qualitatives Wachstum denkbar. Beispielsweise wurde kurz nach dem Umstellen des damaligen ARPANET, von NCP (Network Control Program) auf das noch heute gebrauchte IPv4, 1983 das domain name system (DNS) entwickelt.

Seitdem können im Internet statt der IP-Adressen auch Domainnamen (wie z.B. example.org) verwendet werden. Das war nötig, um das gewachsene Netz trotz der vielen hosts für Menschen nutzbar zu halten. Menschen können sich nun mal (Domain-)Namen besser merken als die langen Ziffernkolonnen von IP-Adressen (die sich darüber hinaus bei Netzwerkänderungen auch noch ändern können). Das DNS übersetzt die Domainnamen in die für die hosts verständlichen IP-Adressen. Das DNS ist eine dezentral verwaltete und betriebene globale Datenbank - ein globales "Telefonbuch" in dem nachgeschaut wird, welche IP-Adresse zu welchem Domainnamen gehört (und umgekehrt).

Seit den 1990ern wird BGP als Routingprotokoll zwischen den einzelnen, autonom verwalteten Netzen (autonomous systems - AS) genutzt. Damit bleibt die Illusion real, dass jede jeden im Internet erreichen kann. Und das trotz des enormen quantitativen Wachstums. Zur Zeit (Ende 2008) enthalten die mit BGP dezentral verwalteten globalen Routing Tabellen etwa 30.000 autonome Systeme mit insgesamt 270.000 sogenannten IPv4-Präfixen (ca. "Netze").

Die Integration immer neuer Techniken, wie z.B. e-mail, Ethernet, Unix, das World Wide Web oder Internettelefonie, war einerseits eine Reaktion auf quantitatives Wachstum (Anzahl der hosts und der TeilnehmerInnen, verfügbare Bandbreite und Rechenleistung), andererseits auch die Voraussetzung für qualitatives Wachstum. Rückgrat des qualitativen Wachstumsprozesses wiederum ist der offene Standardisierungsprozess. Nicht nur technologische Qualitätssprünge wechselwirken mit quantitativen, auch organisatorische, wie in der ersten Hälfte der 1990er der Übergang vom überwiegend staatlich finanzierten Forschungsnetz zum marktförmig kommerziellen, das heißt in unserer Epoche: kapitalistischen Internet.

1.5. Entwicklung des Internet

Abbildung 1.1. Zeitleiste

Entwicklung des Internet


1.5.1. Militärisch-wissenschaftliche Wurzeln, "packet switching"

The definition of enemy is still open.

(Die Definition von Feind ist noch offen.)

Paul Baran [ Baran III ]

Nach dem "Sputnik-Schock" 1957 wurde im US-Kriegsministerium die (D)ARPA ((Defense) Advanced Research Projects Agency) gegründet. Ziel war der militärtechnologische Fortschritt zwecks Überlegenheit gegenüber der UdSSR. Die Forschungsbehörde DARPA arbeitete mit vielen amerikanischen Forschungseinrichtungen zusammen und förderte deren Arbeiten. Neben unmittelbar militärischen Projekten wurde auch Grundlagenforschung gefördert, etwa im Bereich der Computertechnologie. Einer der frühen Visionäre der Computernutzung im allgemeinen und von Computernetzwerken im speziellen war der Wissenschaftler am MIT (Massachusetts Institute of Technology) J.C.R. Licklider, dieser schrieb bereits 1960(!):

"It seems reasonable to envision, for a time 10 or 15 years hence, a 'thinking center' that will incorporate the functions of present-day libraries together with anticipated advances in information storage and retrieval and the symbiotic functions suggested earlier in this paper. The picture readily enlarges itself into a network of such centers, connected to one another by wide-band communication lines and to individual users by leased-wire services. In such a system, the speed of the computers would be balanced, and the cost of the gigantic memories and the sophisticated programs would be divided by the number of users." ([ Licklider I ], S. 8)

"Mit den zu erwartenden Fortschritten bei der Informationspeicherung und -aufbereitung und den zuvor in diesem Text vorgeschlagenen symbiotischen Funktionen scheint es vorstellbar zu sein, dass innerhalb der nächsten 10 oder 15 Jahre ein 'Denkzentrum' die Funktionen heutiger Büchereien übernimmt. Das Bild vervollständigt sich zu einem Netzwerk solcher Zentren, untereinander verbunden durch Breitband-Kommunikationsleitungen und verbunden mit einzelnen Benutzern die Leitungsdienste mieten. In solch einem System würde die Geschwindigkeit der Computer ausbalanciert und die Kosten der gigantischen Speicher und der ausgeklügelten Programme würde durch die Anzahl der Benutzer geteilt."

Licklider war von 1962-1964 beim ARPA als Direktor des Information Processing Techniques Office für die Forschungsförderung zuständig und schrieb dort zum Verhältnis von Militär und Forschung:

"I am hoping that there will be, in our individual efforts, enough evident advantage in cooperative programming and operation to lead us to solve th[e] problems and, thus, to bring into being the technology that the military needs. When problems arise clearly in the military context and seem not to appear in the research context, then ARPA can take steps to handle them on an ad hoc basis. As I say, however, hopefully, many of the problems will be essentially as important, in the research context as in the military context." [ Licklider II ]

Ich hoffe dass es bei unseren individuellen Anstrengungen genug evidente Vorteile durch kooperatives programmieren und arbeiten geben wird, so dass wir die Probleme lösen können und somit die Technologie bereit stellen die das Militär braucht. Wenn Probleme im militärischen Kontext auftauchen, aber scheinbar nicht im wissenschaftlichen Kontext, dann kann ARPA kurzfristig Schritte unternehmen um diese Probleme zu lösen. Aber wie ich schon sagte, werden hoffentlich viele der Probleme im wissenschaftlichen Kontext ebenso essentiell wichtig sein wie im militärischen Kontext.

Zu dieser Zeit wurde im "militärischen Kontext" bereits sehr detailliert über ausfallsichere Kommunikationsnetze nachgedacht, die gegnerische Angriffe auf die "command and control" Infrastruktur bestmöglich überstehen sollten. Am RAND, dem ersten US think tank, der unmittelbar nach dem 2. Weltkrieg zur fortgesetzten Zusammenarbeit zwischen Militär, Industrie und Wissenschaft gegründet wurde [ RAND ], wurde 1964 eine Reihe von Schriften herausgegeben. Darin beschrieb Paul Baran die Grundzüge des "Distributed Adaptive Message Block Network", eines digitalen, paketorientierten, dezentralen Kommunikationsnetzes [ Baran I ], [ Baran II ]. In Barans Konzept wurden Daten nicht mehr auf einem zentralen Rechner gesammelt, sondern in ein Computernetzwerk eingespeist. Die Daten gelangten über die unterschiedlichsten Verknüpfungen vom Startrechner zum Zielrechner. Dadurch war ein Totalausfall des Netzes kaum mehr zu befürchten.

Abbildung 1.2. Zentrale, dezentrale, verteilte Kommunikationsnetze

Zentrale, dezentrale, verteilte Kommunikationsnetze - Aus Barans Beschreibung eines digitalen, paketorientierten, vermaschten Kommunikationsnetzes


Mitte der 1960er, aber offenbar unabhängig von Baran hatte der britische Physiker und Mathematiker Donald Davies am dortigen National Physical Laboratory (NPL) ähnliche Konzepte erarbeitet [ Davies ], [ Barber ]. Und schließlich hatte der MIT-Wissenschaftler Leonard Kleinrock in der ersten Hälfte der 1960er Jahre zur Theorie der Leistungsfähigkeit digitaler Netze gearbeitet. Diese drei Wurzeln fanden vmtl. erst auf einer Konferenz 1967 zusammen, als der beim ARPA für das ARPANET verantwortliche MIT-Wissenschaftler von einem britischen Kollegen über Barans Arbeit bei RAND erfuhr [ Roberts II ], [ Leiner ]. Bis dahin waren Erfahrung und Konzept der Roberts-Gruppe gerade einmal auf der Ebene einer Kopplung von zwei Computern [ Roberts I ] angekommen. Erst mit Barans "packet switching" als Netzwerkprinzip [ Baran I ], [ Davies ] war die Basis des ARPANET komplett, auch wenn Roberts (mittlerweile?) das Gegenteil behauptet ([ Roberts II ] vs. [ Barber ], [ Baran III ]).

Bild, jpg: IMP, Vorläufer der heutigen Router

IMP - Interface Messaging Processor - Vorläufer der heutigen Router - Quelle: http://www.webstart.com/jed/service/

Die britische Gruppe entwickelte - mangels weitergehender Förderung immerhin - ein lokales paketorientiertes Netz (LAN = local area network) mit der relativ hohen Bandbreite von 1 Mb/s, das bis in die 1980er Jahre am NPL in Benutzung war.

Jeder Großrechner verwendete damals eine eigene, zu einem anderen System gänzlich inkompatible, Sprache. Standards zum Datenaustausch zwischen Großrechnern gab es noch nicht. Es mussten nicht nur Netzwerkprotokolle entwickelt werden, sondern auch Definitionen für einheitliche Schnittstellen. Damit beauftragte die ARPA Ende 1968 die Technologiefirma BBN (Bolt, Beranek, Newman).

Die Großrechner direkt untereinander zu verbinden wäre wahrscheinlich so ohne weiteres nicht machbar gewesen. BBN löste das Problem indem jeder Großrechner lokal an einen eigenständigen Rechner angeschlossen wurde, dem so genannten IMP ("Interface Message Processor"). Die IMPs wiederum wurden dann miteinander vernetzt und bildeten das eigentliche Netzwerk. Die IMPs können als Vorläufer der heutigen Router betrachtet werden.

Der erste IMP wurde im September 1969 an Kleinrocks Gruppe an der UCLA (University of California at Los Angeles) geliefert. Ende 1969 bildeten IMPs mit den zugehörigen hosts an vier Standorten den operativen Anfang des ARPANET. Verbunden waren sie über 50 kb/s Leitungen. Die Bandbreite war auf Anregung der britischen Gruppe gegenüber dem ursprünglichen Konzept deutlich erhöht worden [ Roberts II ], [ Leiner ].

Trotz des militärischen Hintergrundes waren die Entwicklungsarbeiten am ARPANET nicht "classified", sondern (fach)öffentlich, was die Einbeziehung von und Wechselwirkung mit anderen am Thema arbeitenden Gruppen erleichterte und die Entwicklung sicher beschleunigt und verbessert hat (s. z.B. die kanadischen und westeuropäischen RFC-Empfänger in ([ NWG ] S. 5f)).

1.5.2. ARPANET

War das nun entstehende ARPANET als Vorläufer des Internet militärisch oder nicht? Streng genommen: nicht militärisch, da die früheren Arbeiten am RAND nicht in die ursprüngliche Konzeption des ARPANET einflossen, insbesondere nicht unter der Fahne von "command and control".

Barans packet switching Konzepte sind allerdings klar militärisch motiviert, und da sie im ARPANET ebenso wie im Folgenetz Internet Anwendung fanden, waren bzw. sind diese "indirekt militärisch", da sie diese Technologie benutzen. Paradoxerweise war Baran selbst das Konzept deshalb sehr wichtig, weil ein erstschlagsresistentes militärisches Kommunikationsnetz einen Atomkrieg insgesamt unwahrscheinlicher macht - egal welche Atommacht es als erstes implementiert [ Baran III ], deshalb hatte er es ja auch publiziert [ Baran II ]. Und zwar wegen der dadurch zu erwartenden "Kosten" eines Erstschlags für den Angreifer, da dieser einen Gegenschlag des Angegriffenen nicht mehr durch das Ausschalten ein(ig)er Zentrale(n) sicher verhindern könnte. Nicht weniger paradox, dass die dafür wichtigen Prinzipien der Dezentralität und Redundanz selbst für anarchistische Gesellschaftsvorstellungen wichtig sind.

Von größerer praktischer Relevanz als solche Grundsatzdiskussionen dürfte aber sein, dass der cash flow für das ARPANET von der Militärbehörde ARPA kam. Den beteiligten Wissenschaftlern kann man diese Verstrickung insofern nicht vorwerfen, als dass es keine Alternative zur Finanzierung ihrer Ideen einer räumlich verteilten Computernutzung gab. Die im kommerziellen Bereich thematisch Zuständigen, die Telefongesellschaften, waren nicht mobilisierbar. Monopolisiert-verknöchert steckten sie im alten mentalen Bezugssystem der Leitungsvermittlung fest. Packet switching hätte für die Telefongesellschaften eine Revolution dargestellt.

Bild, gif: 1969: Die ersten 4 Knoten des Arpanet

1969: Die ersten 4 Knoten des Arpanet - Quelle: http://www.computerhistory.org

Das ab 1969 implementierte ARPANET war also der erste praktische Versuch eines WAN (wide area network) auf der Basis von packet switching. (Zumindest der erste öffentlich bekannte Versuch: Baran [ Baran III ] erwähnt einen erfolgreichen, geheimen militärischen Test mit einem Dutzend Funkstationen, vmtl. Anfang oder Mitte der 1960er. Dabei, so sagt er, wurde ein (digitales) Fernschreibsignal durch Frequenzmodulation unhörbar in ein ansonsten amplitudenmoduliertes Funksignal eingebracht und unbemerkt mitübertragen - ein genialer hack.)

Zunächst galt es, das ARPANET überhaupt funktionsfähig und benutzbar zu machen, was durchaus (ebenso wie die Arbeit am NPL) als Pionierleistung bezeichnet werden kann. Die von BBN gelieferten IMPs boten die Transportmöglichkeit für die Datenpakete. Für die Nutzung des Netzes durch die AnwenderInnen fehlten noch die host-to-host Protokolle. Die Datenpakete müssen nicht nur zum Zielrechner transportiert werden, sondern es muss auch angegeben werden welches der dort laufenden Programme das jeweilige Paket erhalten soll. Die überregionale, wechselseitige Nutzung von Computerkapazitäten und Programmen zwischen allen vom ARPA geförderten Gruppen war schließlich der proklamierte Sinn des ARPANET.

Im Unterschied zur Gruppe am NPL waren die am ARPANET beteiligten Gruppen räumlich weit verteilt und ohne übergeordneten "Chef", der das genaue weitere Vorgehen dekretiert hätte. So organisierten die beteiligten Gruppen den zur Spezifikation und Implementierung der host-to-host Protokolle erforderlichen Diskurs selbst, der im April 1969 (also Monate vor der Lieferung der ersten IMPs) zu den ersten RFCs (request for comment) führte. Zur Veranschaulichung sei der paradigmatische RFC3 zitiert:

"The Network Working Group seems to consist of Steve Carr of Utah, Jeff Rulifson and Bill Duvall at SRI, and Steve Crocker and Gerard Deloche at UCLA. Membership is not closed. [...] The content of a NWG note may be any thought, suggestion, etc. related to the HOST software or other aspect of the network. Notes are encouraged to be timely rather than polished. [...]

These standards (or lack of them) are stated explicitly for two reasons. First, there is a tendency to view a written statement as ipso facto authoritative, and we hope to promote the exchange and discussion of considerably less than authoritative ideas. Second, there is a natural hesitancy to publish something unpolished, and we hope to ease this inhibition." [ Crocker ]

"Die Netzwerk-Arbeitsgruppe (NWG) scheint aus Steve Carr aus Utah, Jeff Rulifson und Bill Duvall am SRI, und Steve Crocker und Gerard Deloche am UCLA zu bestehen. Die Gruppe ist offen für weitere Mitglieder. [...] Der Inhalt einer NWG-Mitteilung kann jeder Gedanke, Vorschlag etc. sein, der sich mit der HOST Software oder anderen Aspekten des Netzwerks beschäftigt. Statt perfekter Formulierungen sollen Mitteilungen besser frühzeitig erfolgen. [...]

Diese Standards (oder das Fehlen derselbigen) sind aus 2 Gründen explizit formuliert worden. Erstens gibt es die Tendenz geschriebene Aussagen schon wegen der Schriftform als maßgeblich anzusehen und wir hoffen den Austausch von und die Diskussion vor allem über nicht so maßgebliche Ideen zu fördern. Zweitens gibt es eine natürliche Zurückhaltung etwas noch nicht perfektes zu veröffentlichen und wir hoffen diese Hemmung abzuschwächen.

Dieser offene, anti-autoritative Stil dürfte (neben dem ARPA cash flow;-) wesentlichen Anteil an der nun beginnenden Erfolgsgeschichte haben. Diese führt vom NCP (network control program) über Applikationsprotokolle wie telnet (ab RFC97) und ftp (ab RFC114), die heute noch in Gebrauch sind. Und kaum dass ARPANET funktionierte und langsam wuchs, wurden neue Anwendungen ersonnen, allen voran e-mail (ab RFC196), welche für den Austausch unter den Beteiligten und damit die weitere Evolution des Netzes katalytisch war.

Im Oktober 1972 wurde das ARPANET auf der ersten internationalen Konferenz über Computerkommunikation in Washington D.C. öffentlich demonstriert. Mit nicht weniger als dem Echtzeitzugriff vom Konferenzort auf über 40 entfernte hosts (s. RFC372, RFC384) und deren Programme über das ARPANET. Es folgt 1973 die Internationalisierung durch eine Verbindung nach Großbritannien zum UCL (University College London), ein technischer und (anti)bürokratischer hack [ Kirstein ].

1.5.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet

Ebenfalls 1973 beginnen bereits die Arbeiten an der nächsten Protokollgeneration namens TCP (transmission control protocol). Sinn des neuen Protokolls war die Möglichkeit, Verbindungen zwischen Computern in verschiedenen Netzen herstellen zu können, insbesondere sollte das ARPANET mit Satelliten- und Bodenfunknetzen verbunden werden, was natürlich auch für militärische Anwendungen und damit die Geldgeber interessant war. Ebenso von Funknetzen inspiriert war die gleichzeitige Arbeit am Ethernet, der noch heute vorherrschenden Technik für lokale Netze (LANs).

Aus beiden Entwicklungen geht schließlich 1978 TCP/IP Version 4 (RFC790 ff) hervor. TCP/IP abstrahiert von den zugrunde liegenden Transportnetzen um das Zusammenschalten intern ganz verschieden strukturierter Netze zu ermöglichen. Dazu wurden alle Funktionen außer dem reinen Transport der Pakete vom Netz in die Software der hosts verlagert. IPv4 ist die heute noch überwiegende Protokollfamilie im Internet. Im Laufe des Jahres 1982 wird das ARPANET selbst komplett von NCP auf TCP/IP umgestellt. Vom Department of Defense (US Kriegsministerium) wird es als Standard bei der Beschaffung von Computerausrüstung verwendet.

Bild, png: BSD Daemon

BSD-Daemon - Nicht nur Linux hat sein Maskottchen, Copyright 1988 by Marshall Kirk McKusick

1983 erscheint BSD (Berkeley Software Distribution), ein frei verfügbares Unix Betriebssystem, in der Version 4.2. In diese ist - gefördert von der ARPA - TCP/IP integriert worden. Die inter-Netzwerkfähigkeit war Bestandteil des Betriebssystems geworden. Damit konnte sich internet Technologie in akademischen Kreisen schnell verbreiten.

Parallel zum ARPANET hatten sich auch international diverse paketorientierte Netzinfrastrukturen gebildet. Auch in den USA selbst kam nur ein kleiner, eher elitärer Teil aller Forschungs- und Bildungseinrichtungen in den Genuss einer Anbindung ans ARPANET. So gab es weltweit viele Anstrengungen zur Ermöglichung von vernetztem Datenaustausch und darauf basierender Kommunikation zwischen Einrichtungen und später, mit dem Aufkommen von PCs (personal computer), auch Einzelpersonen. Dies wäre (mindestens) eine weitere Geschichte wert, wir begnügen uns aus Platzgründen mit Stichworten wie Tymnet, Cyclades, Telenet, X.25, uucp, Usenet, BITNET, CSNET, FidoNet.

Ab 1981 förderte die NSF (National Science Foundation) das CSNET (Computer Science Network), welches nicht durch ARPA geförderte Einrichtungen miteinander und dem ARPANET verband. Dazu wurden zunächst e-mail gateways genutzt. Gateways ermöglichen die Datenübertragung zwischen hosts die verschiedene Protokolle benutzen. Das Gateway 'übersetzt' ein Protokoll in ein anderes. Später wurde im CSNET dann auch TCP/IP verwendet, seitdem der de facto Standard des inter-networking.

Über das CSNET schließen sich auch international weitere Einrichtungen an das frühe Internet an, vergrößern es damit vor allem auch personell und machen internet-Technologie bekannter. Nicht nur technisch, auch organisatorisch ist ein heterogenes internet entstanden - das Internet.

Bild, gif: NSFNET Backbone 1986

NSFNET Backbone 1986

Bild, gif:NSFNET Backbone 1992

NSFNET Backbone 1992

In einem nächsten Schritt fördert die NSF ab 1985 ein TCP/IP basiertes Netz (NSFNET) zwischen Supercomputerzentren. Dieses Netz konnte von den angeschlossenen Netzen (wie CSNET) kostenlos zum Zugriff auf die Supercomputer genutzt werden. Ein solches Hauptnetzwerk, das alle Teile des internet miteinander verband wurde internet-backbone genannt. Heutzutage wird diese Bezeichnung benutzt, um den „Kern“ des aktuellen Internet zu beschreiben.

Es beginnt ein deutliches Wachstum des jungen Internet, indem sich an die vom NSF geförderten regionalen Netzwerke immer mehr lokale Netzwerke anschließen. Das eigentliche ARPANET ist nur noch ein kleiner Teil des Internet. Die militärischen hosts wurden 1983 sicherheitshalber in ein separates MILNET ausgelagert. 1990 wird das ARPANET endgültig außer Betrieb genommen.

1991 wird der NSFNET backbone von 1,5 Mb/s auf 45 Mb/s Verbindungen aufgerüstet, ein Novum für packet switching. Ein weiterer Meilenstein ist der erste operative Einsatz des Routing-Protokolls BGP (border gateway protocol). Die Einführung von BGP war nötig, um das routing für die stark wachsende Zahl direkt und indirekt angeschlossener Netze noch handhaben zu können. 1995, am Ende des NSFNET waren bereits über 50.000 Netze aus über 90 Ländern angeschlossen (NSFNET, S. 33).

Der Vollständigkeit halber sei erwähnt, dass es direkte Internet-Konnektivität in der BRD seit 1989 gibt und dass die folgende Durchsetzungsgeschichte von TCP/IP zunächst dem Muster "Kampf der Infizierten gegen die Institutionen" folgt (s. [ Kalle ]).

1.5.4. Kommerz und WWW

Die Förderung einer eigenen akademischen Netzinfrastruktur durch die NSF war zeitlich und vom Fördervolumen begrenzt. Die regionalen Netze sollten bzw. mussten auch andere Finanzierungsquellen aufbauen.

Da das NSFNET backbone des damaligen Internet war, galten seine Nutzungsbedingungen (s. [ NSF ], S. 79f) auch für alle indirekt angeschlossen Netze, da deren traffic (Datenverkehr) notwendigerweise meistens über diesen backbone ging ([ NSFNET ], S.34). Darin waren kommerzielle Aktivitäten wie Werbung untersagt - der backbone wurde ja aus Steuermitteln finanziert. Erst 1991 wurden die Nutzungsbedingungen geändert, und das NSFNET auch zur Nutzung für wissenschaftliche Zwecke durch kommerzielle Forscher freigegeben (vgl. [ CNI ] und [ NSF ], S. 79) und kommerzieller transit traffic gegen Entgelt zugelassen ([ NSF ], S. 23).

Der zunehmende kommerzielle Druck, das Internet auch fürs Business nutzen zu können, führte zu Spannungen mit der akademischen Nutzergemeinde und staatlichen Stellen ([ NSFNET ] S. 31f). Dies hätte sich vmtl. früher oder später in einem separaten kommerziellen internet manifestiert, wenn die NSFNET-Administration nicht sowieso schon durch die Involvierung von MCI und IBM auf Kommerzkurs gewesen wäre ([ NSFNET ], S. 7ff).

Nach zweimaliger Verlängerung der Förderung wird der NSFNET backbone 1995 schließlich stillgelegt. Mittlerweile existierten auch kommerzielle Provider, die den traffic transportieren konnten. Zu Konzepten und Details der Ablösung des NSFNET siehe ([ Halabi ], S. 7-25).

Die Funktion das Internet zusammen zu halten, wurde an die kommerziellen Betreiber übergeben ([ NSFNET ] S. 40ff). Dafür wurde ein neues Element in die Internetarchitektur eingeführt, das bis heute üblich ist: die Internetknoten, auch IX oder NAP genannt (internet exchange bzw. network access point).

Ein IX ist ein Gebäude mit entsprechender Infrastruktur, an denen die (überwiegend kommerziellen) Internet Provider untereinander traffic austauschen können ("peering"). Falls das Zielnetzwerk nicht direkt über das IX, zu dem ein Provider eine Verbindung hat, erreichbar ist, kann er traffic an überregionale Netzbetreiber übergeben ("transit"). Es gibt zur Zeit weltweit über 100 solcher Internet-Knotenpunkte. Der größte in der BRD ist das DE-CIX in Bankfurt. Durch den zunehmenden traffic von und nach Osteuropa ist das DE-CIX mittlerweile einer der weltgrößten Internet-Knotenpunkte. Dort sind alle größeren Provider vertreten, mit erwähnenswerter Ausnahme des Erbmonopolisten Telekoma (s. [ DE-CIX ]).

Überregionale Netzbetreiber haben heute eigene nationale, internationale oder gar interkontinentale backbones, so dass es heute diverse backbones im Internet gibt, nicht mehr nur einen wie zu Zeiten des NSFNET. Bei aller gebotenen Kritik am Kommerz ist das ein Vorteil für die Ausfallsicherheit und ein (weiterer) antimonopolistischer Aspekt des Internet.

Der Kommerzialisierung der Infrastruktur folgte zunächst die Kommerzialisierung der Dienste. Mit dem Wegfall der Nutzungsbedingungen des NSFNET begann die Kommerzialisierung der Inhalte. Schon 1989 wurden erste Mailgateways zwischen dem Internet einerseits und MCI Mail und CompuServe andererseits eingerichtet.

Im gleichen Jahr startete der erste kommerzielle Provider (world.std.com), der Kunden per Modemeinwahl Zugang zum Internet ermöglichte.

Die Kommerzialisierung der Inhalte wurde (unbeabsichtigterweise) katalysiert durch eine Innovation aus dem wissenschaftlichen Bereich, dem world wide web ("WWW"). 1990 wurde am Genfer Hochenergiephysikzentrum CERN die erste Websoftware entwickelt und genutzt, um auf heterogene Dokumenten- und Datenbestände mit einer einheitlichen Benutzeroberfläche zuzugreifen. Grundideen sind Hypertext, Trennung von Datenformaten und ihrer Darstellung, Dezentralität, Erweiterbarkeit [ Berners-Lee ].

Um Hypertext, also miteinander verknüpfte Dokumente, dezentral aufbauen zu können, braucht man eine Identifikationsmöglichkeit für Dokumente. Außerdem ist eine darauf beruhende Zugriffsmöglichkeit erforderlich, die bei Vorlage der Dokumentenkennung das Dokument beschafft. Für beides bot das Internet eine gute Grundlage, auch weil mit dem DNS bereits ein Namensraum für den Echtzeitzugriff auf Netzwerkressourcen vorhanden war. Die offene internet Architektur bot Möglichkeiten für die Kommunikation zwischen dem Programm des Benutzers ("browser") und den Servern bestehende Protokolle zu nutzen (z.B. ftp). Es konnte aber auch ein für Hypertext spezialisiertes Protokoll entwickelt werden (http, hypertext transfer protocol). Für das Format der Hypertextdokumente wurde auf einen vorhandenen ISO Standard zurückgegriffen, nämlich SGML (standard generalized markup language), um das im WWW noch heute verwendete HTML (hypertext markup language) zu spezifizieren.

Graphische oder gar multimediale Inhalte waren zwar im Konzept des WWW vorgesehen ("Hypermedia"), aber zunächst von geringer Bedeutung im Vergleich zu textuellen Informationen und ihrer Verknüpfung. Das änderte sich, als auch für mainstream PCs graphische Webbrowser verfügbar wurden, insbesondere 1993 das freie Mosaic, später von den gleichen Entwicklern das kommerzielle Netscape (heute wieder "befreit" als Mozilla/Firefox). Damit konnten auch Menschen ohne Kenntnis der internet Protokolle und ihrer jeweiligen Nutzung auf Ressourcen im Internet zugreifen - mit der Maus auf die Hyperlinks zu klicken reichte bereits aus zur Navigation in diesem ständig wachsenden Informationsuniversum namens WWW. So wie e-mail die sog. Killerapplikation des frühen ARPANET und der späteren Zusammenschaltungen verschiedener Netze war, so wurde das WWW die Killerapplikation des entwickelten Internet. Die neue Qualität des WWW, die Verknüpfung der Inhalte und der leichte Zugang zu diesen, ist eine konsequente Weiterentwicklung des Internetprinzips, nämlich der beliebigen Verbindungen zwischen angeschlossenen Rechnern, auf die Ebene der Inhalte.

Das WWW, eigentlich nur ein Dienst unter vielen im Internet, führte zu einem enormen quantitativen Wachstum des Internet, da sich nun auch die gesellschaftlich leider übliche Rollenverteilung von Konzern und Konsument abbilden ließ. Die Integration von Graphiken und Fotos in den Hypertext ermöglichte dann auch das Angebot von virtuellen Hochglanzprospekten und Illustrierten für die nun immer mehr ins Internet strömenden "Normalos".

Mit mehr verfügbarer Bandbreite ließen sich auch Audiodaten und bewegte Bilder integrieren, sodass das WWW mittlerweile auch als Ersatz für Radio und Fernsehen dient - mit dem Vorteil, von den festen Programmen der Sender unabhängig zu sein, also jederzeit auf beliebige der im WWW angebotenen Inhalte zugreifen zu können. Die scheinbar kostenlose Selbstberieselung im WWW zahlt der Surfer durch ein Bombardement mit Werbebotschaften und der Erfassung seiner Nutzungsdaten. Dass die staatlich ermächtigten Wegelagerer von der GEZ auf internetfähige PCs nun auch noch eine "Gebühr" für die von Anderen erbrachten Leistungen kassieren dürfen, ist ein ironisches Sahnehäubchen auf der Torte des frisch gekürten Massenmediums Internet.

Mit den Konzernen kamen auch die Markennamen ins Internet, und damit der Streit um Domainnamen. Im Internet wurden sie ursprünglich nur als Gedächtnisstütze für Menschen eingeführt. Es gab nur die einfachst mögliche Regelung zur Verteilung der Domainnamen: wer zuerst kommt, mahlt zuerst. Damit die Konsumenten aber möglichst schnell ohne Umwege ihre Nase an der virtuellen Schaufensterscheibe des Konzerns plattdrücken können, hat dieser ein Interesse, dass der zugehörige Domainname dem Markennamen entspricht (einer der ersten Fälle war 1994 mtv.com [ McKenna ]). Zur Durchsetzung dieses kommerziellen Interesses konnten die Juristen nun auch das Internet zu ihrem Herrschaftsbereich erklären.

So fehlte nicht viel, bis auch die staatlichen Gesetzgeber merkten, dass sie sich dort breit machen können. Ja sogar müssen, um der Gesellschaft mögliche rechtsfreie Räume, insbesondere eine eigene Öffentlichkeit, zu nehmen und obendrein ihre staatlichen, bisweilen totalitären Kontroll- und Überwachungsgelüste mit digitaler Perfektion umsetzen zu können (Stichworte: Telekommunikationsüberwachungsverordnung, Vorratsdatenspeicherung, China). Denn im Laufe der Geschichte des WWW ist nicht nur der Konsum von Inhalten einfacher geworden, sondern auch die Möglichkeiten, selbst zu publizieren.

1.6. Organisation des Internet

1.6.1. Standards


      We reject: kings, presidents and voting.
      We believe in: rough consensus and running code.
      
       Wir lehnen ab: Könige, Präsidenten und Abstimmungen
       Wir glauben an: informellen Konsens und funktionierenden Code.      
      

     

David D. Clark ([ Clark ], S. 19)

Die Bedeutung von Standards bei Kommunikationsprotokollen ist so hoch einzuschätzen wie die von Normen in der industriellen Produktion oder von Containern im Welthandel, also essentiell für die Zusammenarbeit organisatorisch und räumlich getrennter Beteiligter. Die oben bereits erwähnten herstellerunabhängigen Standards des Internet werden überwiegend von den Arbeitsgruppen der Internet Engineering Task Force (IETF) entwickelt.

Entgegen den insbesondere nationalen Standardisierungsgremien hat die IETF streng genommen noch nicht einmal den Status einer Organisation - sie hat keine Mitglieder, sondern "nur" individuelle Teilnehmer. Jede/r Interessierte kann sich auf den Mailinglisten der IETF und ihrer Arbeitsgruppen eintragen und mitarbeiten. Ebenso offen sind die dreimal jährlich stattfindenden Arbeitstreffen. Die Mitarbeit ist freiwillig und unbezahlt. Der auf den ersten Blick erstaunliche Ertrag an Standardisierungsleistung der IETF community (siehe die Liste der RFCs) hat als Grundlage natürlich die technische Kompetenz der Beteiligten, aber auch die weitgehende Abwesenheit von Anzugträgern ([ Hoffman ], S. 16) ist sicher hilfreich. Statt derer scheint Idealismus im Spiel zu sein: "The IETF community wants the Internet to succeed because we believe that the existence of the Internet, and its influence on economics, communication, and education, will help us to build a better human society." (Die IETF-Gemeinschaft will dass das Internet erfolgreich ist, weil wir glauben, dass die Existenz des Internet und sein Einfluss auf Ökonomie, Kommunikation und Bildung uns helfen wird eine bessere menschliche Gesellschaft aufzubauen.) ([ Alvestrand ], S. 2).

Neben Offenheit und Freiwilligkeit sind noch mehrere Aspekte der IETF Arbeit methodisch interessant. Zunächst die klar zu formulierenden Zielvorgaben für die Arbeitsgruppen sowie ihre zeitliche Befristung. Es sollen ja aktuelle Probleme und Anforderungen im Internet behandelt werden - für Grundlagenforschung gibt es die Internet Research Task Force (IRTF). Der vergleichsweise knappe Zeitrahmen bevorzugt - im Unterschied zu den bisher üblichen Standardisierungsverfahren - Entwicklungen von eher knappen, doch dafür erweiterbaren Standards, die spätere Entwicklungen nicht vorwegnehmen, aber ermöglichen. Die Arbeitsgruppen der IETF haben zwar einen koordinierenden Vorsitzenden, aber Entscheidungen werden in einem informellen Konsens gefällt ("rough consensus"). Erst wenn (fast) alle Teilnehmer die Gegenargumente für entkräftet halten, kann eine technische Lösung empfohlen werden. Das verschafft den technischen Argumenten Vorrang vor Taktiererei oder sonstigen (mono-)politischen Interessen. Damit schließlich eine Empfehlung den Status eines Standards erlangen kann, müssen mindestens zwei unabhängige Implementierungen vorliegen, die zusammen funktionieren und damit einen praktischen Nachweis für die Tauglichkeit des Standards darstellen.

Der offene Standardisierungsprozess im Internet und dessen Entwicklung vom frühen ARPANET und seinen ersten RFCs (als die Network Working Group eine Handvoll Aktiver zählte, s. das Zitat von RFC3 oben) zur heutigen IETF mit über 100 Arbeitsgruppen, über 1000 Teilnehmern auf Arbeitstreffen und insgesamt über 5000 publizierten RFCs ist sicher einer der wichtigeren Gründe, warum wir (d.h. diejenigen von uns, die Datennetzwerke nutzen) in einer Internet-Welt leben und nicht in einer ISO/OSI Welt.

Nicht nur der Vollständigkeit halber sei erwähnt, dass die IETF zwar eher als community oder Prozess denn als Organisation bezeichnet werden kann, aber dass sie selbst(-)organisiert ist und in (formale) organisatorische Zusammenhänge eingebettet ist. Dies sind (in aufsteigender Reihenfolge) die Internet Engineering Steering Group (IESG), das Internet Architecture Board (IAB) und schließlich die Internet Society (ISOC), s. [ Hovey ]. Die ISOC hat über 80 Organisationsmitglieder und über 28000 individuelle Mitglieder. Neben der organisatorischen Rahmenstruktur für den Standardisierungsprozess agiert sie u.a. als Fürsprecherin eines ungehindert zugänglichen, unzensierten Internet auch auf globaler politischer Ebene, etwa den UN-Projekten WSIS (World Summit on the Information Society) und IGF (Internet Governance Forum).

1.6.2. Eindeutige Nummern und Namen

Für das Funktionieren des Datenaustauschs zwischen den Systemen im Internet braucht es zunächst standardkonforme Software. Außerdem ist aber auch die konkrete Zuordnung verschiedener operativer Parameter erforderlich.

Die wichtigste dieser Zuordnungen ist die einer IP-Adresse. Dabei muss sichergestellt werden, dass jede Adresse zu einem gegebenen Zeitpunkt höchstens einmal vergeben ist. Das entspricht dem Problem der Vergabe von Telefonnummern im Telefonnetz. Es ist klar dass nicht zwei verschiedene TeilnehmerInnen die gleiche Nummer haben sollten.

Das zweitwichtigste dieser Probleme ist die Zuordnung der - im Vergleich zu den IP-Adressen gedächtnisfreundlichen - Domainnamen.

Die "Oberhoheit" über die Zuordnung der Adressen und Domainnamen hat die IANA (Internet Assigned Numbers Authority), die bis 1998 im Wesentlichen aus Jon Postel, einem Internet-Urgestein bestand. Die IANA wurde dann Teil der 1998 gegründeten ICANN (Internet Corporation for Assigned Names and Numbers), mit Hauptsitz in Kalifornien. ICANN ([ ICANN ], [ Hofmann ]) ist formal eine gemeinnützige Firma ("nonprofit public benefit corporation"), die frühere Verträge der US-Regierung mit akademischen und kommerziellen Stellen zur Koordination der Parametervergabe fortführte. Auch wenn die US-Regierung als historischer Sponsor des Internet damit formal diese Kontrolle an eine nicht-Regierungs-Organisation abgab, ist dieser Abgabeprozess auch nach 10 Jahren noch nicht abgeschlossen.

Die nennenswerteste Änderung, die durch ICANN erzielt wurde, ist eine weitgehende Auflösung des früheren NSI Monopols bei Domainnamen, die aber schon vor der Institutionalisierung der ICANN in Angriff genommen worden war. Etwas vereinfacht - und im Gegensatz zu der populären Formulierung "Weltregierung des Internet" - kann man ICANN beschreiben als (Selbst-)Regulierungsinstanz der Domainnamenwirtschaft unter Aufsicht des US-Handelsministeriums. Dabei hat das, was da bewirtschaftet wird, nämlich der Domainnamensraum, von sich aus zunächst gar keine Warenform, sondern musste durch juristische Verknappungskonstrukte (Markennamen, geistiges Eigentum) erst einmal entsprechend eigentumsförmig zugerichtet werden (s.o. mtv.com). Die im Jahre 2000 praktizierte Direktwahl von je einem ICANN-Direktor je Kontinent durch die InternetnutzerInnen blieb auch ein einmaliges Ereignis und wurde wegreformiert. Die Gründe dafür kann man in [ Müller-Maguhn ], der "Regierungs erklärung" des damals von den europäischen NutzerInnen gewählten Direktors, erahnen:-)

Ein derartiger kommerzieller Abgriff wie bei den Domainnamen ist mit den - technisch grundlegenderen - IP-Adressen glücklicherweise nicht geschehen. Hier erfolgt die Vergabe in etwa kontinentweise organisiert durch sog. RIRs (Regional Internet Registries), in Europa das RIPE NCC [ RIPE ]. Sie finanzieren sich durch Umlagen auf ihre Mitglieder, die ISPs (Internet Service Provider), welche auch gemeinschaftlich die jeweiligen Vergaberichtlinien in ihrer Region bestimmen. Ein ähnliches Selbstverwaltungsmodell findet sich übrigens auch bei der für die Vergabe von .de Domains zuständigen Organisation DENIC, einer Genossenschaft.

Die gravierenden Unterschiede zwischen den Regulationsprozessen bei ICANN (politisch-wirtschaftlich) und insb. den RIRs (technisch-wirtschaftlich) haben einen technischen Angelpunkt: die Rootserver des DNS, deren operative Kontrolle die letztlich wirkende Autorität über den Domainnamensraum darstellt. Die Nutzung von IP-Adressen hingegen erfordert zwar Eindeutigkeit und von daher eine koordinierte Vergabe, aber operativ keine zentralen Strukturen ( s.o.).

1.6.3. Netztopologie

Wie im Internet das Problem gelöst wird, die gegenseitige Erreichbarkeit von z.Z. vmtl. über 500 Millionen hosts [ ISC ] ohne zentrale Instanzen herzustellen, ist nicht nur von technischem Interesse. Ein host ist entweder direkt in einem LAN oder durch Zugang per Einwahl (Modem, ISDN) bzw. Zugangskonzentrator (DSL, TV-Kabel) Teil eines IP-Subnetzes. Außerhalb dieses Subnetzes muss nichts über die einzelnen hosts des Subnetzes bekannt sein, sondern nur über die Erreichbarkeit des gesamten Subnetzes. Subnetze sind - was die Verbindungen zum Internet angeht - Teil einer Organisation, die sich um diese Verbindungen kümmert. Eine Gruppe von Subnetzen, die eine gemeinsame Administration hinsichtlich ihrer Verbindungen ins Internet hat, wird Autonomes System ("AS") genannt. Meist ist dies ein ISP, aber auch Universitäten oder größere Firmen haben bisweilen eigene Verbindungen ins Internet.

Die AS tauschen mit ihren jeweiligen AS-Nachbarn, zu denen sie eine Verbindung haben, Informationen über die Erreichbarkeit von Subnetzen aus. Zunächst natürlich über ihre jeweils eigenen Subnetze, wobei deren Informationen vorher nach Möglichkeit zu größeren Blöcken aggregiert werden. Die Adressvergabestrategien der RIRs ( s.o.) zielen u.a. darauf ab, solche Aggregierungen zu ermöglichen, um dadurch die Menge im Internet zirkulierender routing Informationen so gering wie möglich zu halten. Des Weiteren werden aber auch routing Informationen, also Adressblöcke und der Weg zu ihnen, von den Nachbarn an deren Nachbarn weitergegeben, und das tun diese Nachbarn wiederum auch etc., sodass sich über die jeweiligen Nachbarschaftsverbindungen die Information über die Erreichbarkeit eines gewissen Subnetzes (bzw. des ihn enthaltenden Adressblocks) lawinenartig im gesamten Internet verbreitet.

Die zu übertragenden Datenpakete schließlich, z.B. für eine nameserver Abfrage oder die Übertragung einer Webseite, können dann genau auf dem umgekehrten Weg wie die routing Informationen, die den Zieladressen der Pakete entsprechen, ans Ziel gelangen. Die Einheit - d.h. die vollständige wechselseitige Erreichbarkeit - des gesamten Internet basiert also letztlich nur auf bilateralen Vereinbarungen zwischen je zwei AS zur Herstellung einer Nachbarschaftsbeziehung.

Jedes AS muss per Definition mindestens zwei Nachbarn haben, denn ansonsten wären seine Subnetze hinsichtlich des externen routings Teil seines einzigen Nachbarn und damit Teil von dessen AS. Dieses Grundkonzept der Redundanz wirkt auf verschiedenen Ebenen des Internet und führt damit trotz und wegen der Größe des Internet zu dessen erstaunlicher Stabilität.

Durch die Kommerzialisierung des Internet sind die Nachbarschaftsbeziehungen überwiegend kommerziell und meist entweder eine Kundenbeziehung oder eine peering-Beziehung. Im ersten Fall kauft das kleinere AS (Kunde) vom größeren AS (Provider) die Leistung, dass Kundenpakete durch das Netz des Providers transportiert werden und darüber hinaus zum Rest des Internet (transit). Damit dieser Provider die Kundenpakete (und seine eigenen) auch an den Rest des Internet weiter transportiert bekommt, ist er selbst wiederum (transit-)Kunde eines oder mehrerer noch größerer AS und/oder er kann Teile des Internet durch peering-Beziehungen zu - meist etwa gleich großen - AS erreichen. Diese kommerzielle Struktur des Internet führt allerdings rein technisch gesehen zu suboptimalem routing. Dies wird kompensiert zum einen durch die diversen IX ( s.o.), an denen die Provider mit vielen anderen Providern kostengünstig peering-Beziehungen aufbauen können, und durch die während der New Economy[tm] aufgebauten Überkapazitäten bei den Glasfaserverbindungen [ Bleich ]. Durch deren Geschwindigkeit wird auch ein suboptimales routing für die NutzerInnen nicht spürbar, im Gegensatz zum sog. World Wide Wait der 1990er Jahre.

Außer den erwähnten Glasfaserstrecken besteht der "Körper" des Internet noch aus Rechenzentren sowie auf der anderen Seite den Anschlussleitungen zu den Endkunden und deren hosts. Die landgebundenen überörtlichen Glasfaserverbindungen gehören Wege(rechts)inhabern z.B. entlang von Pipelines, Überlandleitungen, Auto- und Eisenbahnen, also im Wesentlichen Energieversorgungs- und Telekommunikationskonzernen. Übertragungskapazitäten werden an Transportnetzbetreiber ("Carrier") und Internetprovider weiterverkauft. Die Rechenzentren des Internet befinden sich meist unmittelbar bei einem IX oder umfassen einen solchen, weil an einem IX Glasfasern verschiedener backbones zusammenlaufen und Bandbreite zum Rest des Internet dort kostengünstig zu bekommen ist. Diese Rechenzentren bestehen aus Hunderten von 19-Zoll-Schränken, in denen wiederum jeweils Dutzende von Servern betrieben werden, sowie der zugehörigen unterbrechungsfreien Stromversorgung und Klimatisierung. Die Betreiber der Server mieten sich von den Betreibern der Rechenzentren Schränke oder Teile von Schränken um ihre Server unter stabilen Bedingungen und mit hoher Geschwindigkeit und großer Bandbreite im Internet zugreifbar zu machen. Verbindung zum Internet bekommen sie dort von einem im Rechenzentrum präsenten Provider oder, wenn sie selbst AS sind, durch die oben genannten transit- und/oder peering-Beziehungen zu mehreren dort präsenten Providern.

Soviel zu den "Dezentralen" des Internet, kommen wir zur Peripherie: an den Rändern des Internet befinden sich Privat- und Firmenkunden. Sie bezahlen Zugangsanbieter ("access provider") für die Bereitstellung einer Verbindung zum Internet um dann (üblicherweise) die von Servern angebotenen Dienste zu nutzen. Wenn Firmen selbst Dienste anbieten, sei es für die Internet-Öffentlichkeit oder zum Zugriff von Außenmitarbeitern oder Filialen auf das interne Netz, dann lassen sie sich meist über andere (symmetrische) Leitungstypen anbinden. Büros oder Privatpersonen die nur auf Dienste zugreifen werden mit billiger vermarkteten, asymmetrischen Leitungen angebunden.

Die Leitungen am Rande des Internet, die sog. letzte Meile zu den Endkunden, gehören in der BRD den Nachfolgern des Postmonopols, also der Telekoma und den Betreibern von Kabelfernsehnetzen. Aber auch die Zugangsmöglichkeit über Mobilfunknetze sei erwähnt. Im Falle der Kupferadern zu den Endkunden muss der Erbmonopolist Telekoma die Konkurrenzkonzerne zu staatlich von der sog. Bundesnetzagentur definierten Konditionen die Kupferadern nutzen lassen. Die über Zugangsleitungen ans Internet angeschlossenen hosts schließlich gehören den jeweiligen Endnutzern.

Die für das Internet wohl relevantesten Kapitalakkumulationen sind die in den Bereichen backbone-Leitungen, Endkundenanschlussleitungen, Hersteller von Übertragungstechnik und Routern für Carrier und Provider, Dienste für Endkunden (z.B. Google, werbefinanzierte Mailprovider), Softwarehersteller für Endkunden (Micro$oft). Diesen steht - in der IT-Branche traditionell - keine nennenswerte gewerkschaftliche Organisierung der Werktätigen gegenüber.

1.7. Probleme und Kritik des Internet

1.7.1. Kapitalismus und/oder Innovation

Der enorme quantitative Erfolg des Internet und sein schnelles Eindringen in die Gesellschaft hängen eng mit der kapitalistischen Organisierung des Internet seit Anfang der 1990er Jahre zusammen. Dass das Internet für die kapitalistische Verwertung relevant wurde, liegt zum einen in seiner Neutralität und Integrationsfähigkeit begründet, die einen Raum schufen, in dem auch Konkurrenten koexistieren konnten und damit zumindest indirekt kooperierten. Außerdem erhöhte jedes neu assimilierte Netz die Attraktivität des gesamten Verbundes, des Internet. Die daraus resultierende Dynamik und der dank WWW drastisch gestiegene Gebrauchswert für die EndnutzerInnen führten Mitte der 1990er zur "Kapitulation" der bis dahin isolierten (online-)Giganten wie CompuServe, AOL, Telekoma, Micro$oft in Form ihrer Teilnahme am Internet.

Mittlerweile steht das Internet alternativlos im Bereich der elektronischen Geschäftskommunikation da, was einen hohen Erwartungsdruck auf sein Funktionieren und damit insb. die Anbieter der Verbindungen und der geschäftlich genutzten Dienste ausübt. Dies führt bei den operativ relevantesten IP-Technologien zu einem - verständlichen - Konservatismus, der den dreifaltigen Innovationszyklus des Internet unterbricht: damit das quantitative Wachstum ( s.o) durch seine Möglichkeiten und Probleme ein qualitatives ( s.o.) hervorbringen kann, werden technische Innovationen entwickelt und standardisiert ( s.o.), die nun aber im Falle der operativen IP-Kerntechnologien höchstens peripher, aber nicht im Kern des Internet eingesetzt werden (zu Beispielen wie IPv6, multicast, QoS siehe [ Handley ]). Denn der dafür erforderliche Aufwand würde von einem kapitalistischen Internetunternehmen nur getrieben werden, wenn es dadurch entweder einen Marktvorteil größer als der Aufwand erzielen könnte, oder wenn es ohne die Innovation seine Wettbewerbsfähigkeit verlieren würde. Der erste Fall ist insofern unwahrscheinlich, als dass Veränderungen am Kern wegen der "Einheit des Internet" ja von allen daran Beteiligten umgesetzt werden müssten, also auch von den "Mitbewerbern", die dann aber den gleichen Wettbewerbsvorteil hätten, sodass er keiner mehr wäre.

Der erste Fall ist insofern unwahrscheinlich, als dass Veränderungen am Kern wegen der "Einheit des Internet" ja von allen daran Beteiligten umgesetzt werden müssten, also auch von den "Mitbewerbern", die dann aber den gleichen Wettbewerbsvorteil hätten, sodass er keiner mehr wäre. Der zweite Fall, also der Untergang eines Internetunternehmens wegen versäumter Innovation einer IP-Kerntechnologie, würde entweder dann eintreten, wenn die allermeisten der "Mitbewerber" den Innovationsaufwand betreiben würden, so dass bei einer vereinzelten Innovationsverweigerung nur ein geringer Schaden an der "Einheit des Internet" entstehen würde, der von den betroffenen Kunden des innovationsverweigernden Unternehmens durch deren zügigen Wechsel zu einem "Mitbewerber" geheilt werden würde. Dieser Fall ist theoretisch zwar durch eine Kartellbildung eines sehr großen Teils der am Kern beteiligten Unternehmen denkbar, aber praktisch wegen des vorhin behandelten Falles durch den im Endeffekt fehlenden Wettbewerbsvorteil unwahrscheinlich.

Es bleibt der Fall eines operativen Zusammenbruchs des Internet durch quantitatives Wachstum bei gleichzeitigem Ausbleiben dafür erforderlicher Innovation, was - mindestens - zu einer Schrumpfung des Internetmarktes führen würde. Historisches Kollapsbeispiel sind die Verstopfungszusammenbrüche des noch jungen Internet der 1980er Jahre.([ Handley ], S. 120) Durch die damaligen Eigenschaften des Kernprotokolls TCP führten Kapazitätsüberschreitungen zu einem kompletten Zusammenbruch, in etwa vergleichbar dem Problem in einem Stromnetz, wenn sich nach einem Ausfall bei Wiederkehr der Stromversorgung alle Geräte gleichzeitig ihren hohen Startstrom ziehen, was zu Überlastung und erneuter Abschaltung des Netzes führt. Seinerzeit konnten die akuten Probleme noch durch eine rückwärtskompatible Korrektur des TCP Protokolls und seiner Implementierungen gelöst werden. Aber schon dies war keine grundlegende Lösung mehr, da sie nur ein Protokoll betraf, welches zwar bisher den Großteil der Daten im Internet transportiert, aber z.B. für die heute zur Ausweitung der Kapitalverwertung angestrebten breitbandigen Echtzeitanwendungen (Stichwort technische Medienkonvergenz) technisch keine große Rolle spielt. Die letzte einschneidende Änderung am Kern des Internet geschah um 1993 ([ Handley ], S. 120f), als sich wegen des quantitativen Wachstums die Verfügbarkeit sog. Class B Adressblöcke erschöpfte und das routing im gesamten Internet auf CIDR (classless inter-domain routing) und damit BGP4 umgestellt werden musste. Dies war dadurch noch handhabbar, dass die Umstellung am Rande des Netzes rückwärtskompatibel gestaltet werden konnte und im Kern des Netzes keine hardware ausgetauscht werden musste, weil routing damals noch ohne Hardwareunterstützung beim forwarding auskam. Und Cisco, seinerzeit noch Monopolist in Sachen Internetrouter, hatte natürlich ein Interesse daran, seine proprietäre Routersoftware entsprechend zu ändern, um das weitere Wachstum "seines" Marktes zu ermöglichen.

Kapitalismusinduzierte Innovationsprobleme gibt es beim Internet aber nicht nur im physischen Kernbereich, sondern auch an den Rändern. Insbesondere die Unterteilung in zahlungskräftige Firmenkunden und Konsumentenmassen hat zu einer sehr weit gehenden Verwendung von NAT (network address translation) geführt, wodurch die beim Endkunden angeschlossenen Geräte keine vollwertigen hosts mehr sind, da der Endkunde von seinem Provider nur eine IP-Adresse zugeteilt bekommt, die sich die verschiedenen Geräte teilen müssen. Dadurch wird ein zentrales Paradigma eines internet - beliebige Verbindungen zwischen beliebigen hosts - gebrochen, was dann auch zu massiven Komplikationen bei oder gar zur Unmöglichkeit von etlichen Protokoll-Innovationen führt, insb. auch solchen, die einen direkten Datenaustausch zwischen Endnutzern ermöglichen, also ohne den Umweg über zentrale Server. Einen verwandten Paradigmenbruch stellen auch firewalls dar, die nur selektiv Verbindungen zulassen. Das der breiten Verwendung von firewalls zugrunde liegende Sicherheitsbedürfnis lässt sich auch als Kollateralschaden der kapitalistischen Kommerzialisierung verstehen, da mit dem Geld das Verbrechen ins Netz kam und die Monokultur bei der Endnutzersoftware (Micro$oft) in der Tat eine sicherheitstechnische Dauerkatastrophe darstellt.

Der Vollständigkeit halber sei zum Thema der kapitalistischen Innovationsdialektik noch daran erinnert, dass die letzte fundamentale, nicht rückwärtskompatible Innovation in der Geschichte des Internet der Umstieg von NCP auf TCP/IP war. Er wurde zum 1.1.1983 vom staatlichen Sponsor des ARPANET verordnet.

1.7.2. Der Staat

Quantitativ spielt der Staat im Internet heute keine so herausragende Rolle mehr wie in den militärisch-akademischen Phasen der Internetentwicklung ( packet switching bis NSFNET). In Europa sind die ehemaligen staatlichen Telekommunikationsmonopole im Zuge der Neoliberalisierung bzw. der Abwicklung des sog. Realsozialismus privatisiert worden. In der BRD gibt es z.Z. (2008) insg. noch 32% direkte und indirekte Staatsanteile an der Deutschen Telekom AG. Im staatlich finanzierten Wissenschaftsbetrieb gibt es eigenständige Forschungsnetze, wobei in der BRD das Deutsche Forschungsnetz DFN mit seiner Hochgeschwindigkeitsinfrastruktur X-WiN als gemeinnütziger Verein organisiert ist, mit Hochschulen und Forschungseinrichtungen als Mitgliedern.

Qualitativ bedeutsam für den kapitalistischen Internetbetrieb in der BRD ist der Staat besonders in seiner Doppelrolle als Großaktionär und Regulierer des Erbmonopolisten Telekoma und damit dem Setzen von Rahmenbedingungen für den Telekommunikationsmarkt. Neben Preis- und Verfahrensregelungen für die Nutzung der Kupferdrähte zu den Endverbrauchern oder die Durchleitung von Telefongesprächen, geht es mittlerweile auch um die Rahmenbedingungen der anstehenden technologischen Innovation, nämlich der kompletten Umstellung der Kommunikationsnetze auf paketvermittelte sog. Next Generation Networks [ Bundesnetzagentur ]. Diese Bemühung ist insbesondere zu verstehen vor dem Hintergrund der oben dargestellten kapitalismusbedingten Schwierigkeiten technischer Innovation bei Netzinfrastrukturen in verteiltem Besitz.

Auf der Ebene der Inhalte betätigt sich der Staat im Internet sowohl als Handlanger als auch in eigener Sache. Zunächst zu seiner Rolle als Handlanger. Kapitalistische Unternehmen bedienen sich gerne der Justiz, um unliebsame Kritik zu unterbinden. Für derlei Kritik ist das Internet, insbesondere das WWW, ein praktischer Nährboden. Auch Individuen oder kleine Gruppen können hier publizieren, wobei selbst kritische Informationen durch Verlinkungen und Suchmaschinen eine viel weitergehende Verbreitung erreichen können als eine entsprechende Papierpublikation. Wer aber kritisch ist, ist meist ökonomisch schwach und darob fehlt dann leider die Rechtsabteilung, die der Klassenjustiz im Falle eines Konflikts mit einem kritisierten Unternehmen ein Urteil gegen ein solches abringen könnte.

Neben einem beträchtlichen Abmahnunwesen auch im bzw. gegen das Internet ist ein weiteres Tätigkeitsfeld der BRD-Justiz der sogenannte Schutz der Persönlichkeitsrechte von Nazis. Genau wie auf der Straße sind eigenständige, insbesondere wirksame Aktivitäten der Bevölkerung gegen die Enkel des Gröfaz unerwünscht. Und außerhalb der üblicherweise verdächtigen Dissidentenkreise greift der Staat zur Durchsetzung der Interessen der Copyright-Industrie zum Rundumschlag gegen Internet-NutzerInnen legislativ, juristisch und exekutiv. Durch Digitalisierung und die Distributionsmöglichkeiten des Internet sind die Kulturverwertungskonzerne faktisch zumindest teilweise überflüssig geworden und viele Text-, Musik- und FilmliebhaberInnen betätigen sich mittels file sharing (z.B. Tauschbörsen, peer-to-peer Netze) selbst als DistributorInnen digitalisierter Kulturgüter, zuungunsten der Profite der Copyright-Industrie. Zu Hintergründen des Spannungsfeldes von Rechteverwertung und Digitalisierung siehe "Die rechtliche Ordnung des Wissens" ([ Grassmuck ] S. 31-176).

Ein Dreh- und Angelpunkt der o.g. staatlichen Angriffe sowie des staatlichen Handelns "in eigener Sache" ist die Verknüpfung von virtueller und realer Identität von NutzerInnen. Dazu sind den Internet- und Telefonie- Providern in den letzten Jahren Hilfstätigkeiten aufgebürdet worden, die zunächst die Erfassung von Kundendaten und ihre Verfügbarmachung für die Staatsorgane umfassen. Anonymisierungsdienste wie Tor waren in der BRD bereits Ziel fadenscheinig begründeter staatlicher Repression und sollen im Zuge der u.g. Vorratsdatenspeicherung in der BRD im Endeffekt verboten werden. Aber auch bei der Überwachung der Inhalte von Telekommunikation hat es gesetzliche "Fortschritte" gegeben, die die Anbieter von Telekommunikationsdiensten zur Bereithaltung von Überwachungstechnik verpflichtet - auf Kosten der Provider und damit letztlich der überwachten Kunden. Diese Überwachungstechnik müssen sie dann auf Anordnung der berechtigten Stellen (Strafverfolgung, Nachrichtendienste) einsetzen, um von den verdächtigten Nutzern die Kommunikation (Telefon, e-mail, gesamter Internettraffic eines verdächtigten Anschlusses) in Kopie dem jeweiligen Staatsorgan zu übermitteln.

Aktueller Höhepunkt der Überwachungswelle ist die auf EU-Ebene angeordnete Vorratsdatenspeicherung, mit der die gesamten Verbindungsdaten von Telefonie (egal ob leitungsvermittelt, mobil oder via Internet), SMS, FAX und e-mail, außerdem die Zuordnung von IP-Adressen an Kunden von Internet-Zugangsprovidern sowie Gerätekennung und Standort von Mobilfunkgeräten [ AK Vorrat ]. Diese sind von den jeweiligen Telekommunikations- bzw. Internetprovidern in der BRD vollständig für ein halbes Jahr zu speichern, in anderen EU-Ländern sind es bis zu zwei Jahren. Die gesamte telekommunizierende Bevölkerung wird also einem Generalverdacht auf Kriminalität unterworfen.

Die Verbindungsdaten sind natürlich auch ohne die kommunizierten Inhalte schon höchst interessant um soziale, d.h. potentiell kriminelle, Beziehungsnetze erkennen und analysieren zu können. Eine formale Handhabe zum Zugriff auf die Daten bei den Providern lässt sich gerade bei Dissidenten notfalls immer konstruieren, beliebt sind dafür die sog. Ausforschungsparagraphen 129/a/b des StGB. Jüngere Beispiele dafür waren 2007 im Vorfeld des G8-Gipfels in Heiligendamm groß angelegte Razzien des BKA gegen diverse soziale Bewegungen, die auch gegen den G8-Gipfel mobilisierten, sowie jahrelanges intensives Abhören und Observieren von AktivistInnen, teils auf Betreiben des Verfassungsschutzes ([ Betroffene ], [ Schmidt ], [ Einstellung ]). Dass der heutige selbsternannte Anti-Terror Rechts-Staat darüber hinaus auch immer weniger auf die Lehren aus der deutschen Geschichte gibt, sieht man z.B. an der sogenannten Antiterrordatei, einer Zusammenschaltung von Datenbeständen der Strafverfolgungsbehörden und der Nachrichtendienste von Bund und Ländern, welche dem Trennungsgebot von Polizei und Nachrichtendiensten offensichtlich widerspricht.

Apropos Nachrichtendienste: in den USA ist durch Enthüllungen von Technikern [ Klein ] aufgeflogen, dass sich die NSA ("National Security Agency"), der größte und für weltweites Abhören zuständige Geheimdienst der USA, von kooperierenden Carriern an Knotenpunkten auf Glasfaserkabel aufgeschaltet wurde und damit massiv auch Inlandsverbindungen mitgeschnitten hat. Angeordnet von Präsident Bush wegen Terrorismus und ohne gesetzliche Grundlage ([ EFF ]). In der BRD ist beim Bundesinnenministerium eine organisatorische Bündelung von Theorie und Praxis des Abhörens für Nachrichtendienste und Polizeien in Arbeit. Dieses "Kompetenz- und Servicezentrum Telekommunikationsüberwachung" ist offenbar inspiriert von den angelsächsischen Schnüffelvorbildern NSA (s.o.) und GCHQ ("Government Communications Headquarters", Großbritannien), s. [ Bundestagsdrucksache ]. Zur konkreten Umsetzung des Abhörens müssen die Telekommunikationsanbieter standardisierte Schnittstellen [ ETSI ], [ Moechel ] für die Durchführung der Abgriffe zur Verfügung stellen, welche folglich die Hersteller von Telekommunikationsausrüstung in ihre Geräte einbauen müssen. Umgekehrt beteiligen diese sich an der Entwicklung der Abhörstandards.

Obige Darstellungen sollen nicht als Aufruf zu oft kontraproduktiver Paranoia verstanden werden. Es bleibt aber festzuhalten, dass die Kapitalkonzentration von Telekommunikation und Internet zu staatlichen Überwachungsmöglichkeiten führt, die an "1984" erinnern. Auch wenn man den dahingehenden Scharfmachern wie Bundesinnengeneral Schäuble keine totalitären Intentionen unterstellt, so würde sich ein solches Regime herzlich bedanken ob der juristischen, technologischen und logistischen Vorarbeit in Sachen totaler Überwachung, die ihm bei einer Machtübergabe in die Hände fiele.

1.7.3. Datenmüll und Verbrechen

Der größere Teil der Internet-NutzerInnen hat mit den o.g. Annehmlichkeiten wie Justiz, Repression und Überwachung (noch) keine Probleme. Viele sind aber Opfer und unfreiwillige Helfershelfer anderer problematischer Entwicklungen auf der Anwendungsebene des Internet. Das offensichtlichste Problem ist der sog. Spam- oder junk-mails, also unverlangte und massenhaft verbreitete e-mails (Fachausdruck UBE = unsolicited bulk e-mail). UBE wird überwiegend zu unseriösen kommerziellen Zwecken oder als Teil von Trickbetrügereien versandt, etwa um an Kontenzugänge oder Kreditkarteninformationen zu gelangen ("phishing"), oder um Schadsoftware auf die Computer der EmpfängerInnen zu bringen. Die Ko-Evolution zwischen den Methoden des Spam-Versands einerseits und den Gegenmaßnahmen andererseits stellen ein globales kommunikationsökologisches Phänomen dar, mit dem aktuellen Spielstand, dass der weit überwiegende Teil des globalen e-mail-Verkehrs aus Spam, also aus Müll besteht.

Die eine logistische Basis der Spammer sind Provider, die wegen Geldgier und/oder Missmanagement die über sie ans Internet angeschlossenen Spammer nicht umgehend abklemmen. Das andere Standbein der Spammer ist mit steigender Tendenz die Benutzung von Botnetzen für den Spamversand. Botnetze bestehen aus ferngesteuerten (Windows-)PCs, die sie durch Unkenntnis der BenutzerInnen oder Sicherheitslücken der von ihnen verwendeten Software unter Kontrolle gebracht haben. Nach Schätzungen sind 10% aller (Windows-)PCs "Zombies", d.h. befinden sich unter fremder Kontrolle und diese Kontrolle wird auf einem illegalen Markt gehandelt [ Kamluk ]. Die darüber käuflichen Kapazitäten werden außer zur Verbreitung von Spam auch für DDoS (distributed denial of service) Angriffe genutzt, wobei das "Geschäftsmodell" in der Erpressung der angegriffenen Serverbetreiber besteht. Mittlerweile gibt es auch "politische" DDoS Angriffe, etwa gegen Estland 2007 und Georgien 2008, weniger spektakulär gegen antifaschistische Server und Indymedia [ Indymedia ].

Die Evolution der Botnetze lässt befürchten dass kriminelle Energie einen zunehmend größeren Hebel im Internet benutzen kann. Die Dezentralisierung der Botnetze durch peer-to-peer Technologie, macht z.B. die Trockenlegung der Steuerzentrale eines Botnetzes unmöglich. Beim zur Zeit aktuellen "Storm-Worm" [ Dahl ] wird z.B. durch ständig modifizierte Signaturen und Rootkit-Funktionalität die Antiviren-Software wirkungslos.

Unkenntnis und Trägheit der Endanwender in Sachen Software und Internet im Verbund mit dem de facto Micro$oft-Monopol auf Endanwendersoftware lassen kaum Hoffnung auf wirksame Gegenmaßnahmen: Redesigning the Microsoft Windows operating system would work, but that's ridiculous to even suggest. Die Umgestaltung des Microsoft Windows Betriebssystems kann funktionieren, aber es ist lächerlich sich so etwas auch nur vorzustellen.[ Schneier ] Die Mobilisierung von Endnutzerkapazitäten hat grundsätzlich auch ein fortschrittliches Potential. Die kriminelle Nutzung wird aber durch die Behandlung der Endnutzergeräte als "hosts zweiter Klasse" befördert. Durch NAT und Zwangstrennung (mit Vergabe einer anderen IP-Adresse) wird die Lokalisierung und Sperrung fremdgesteuerter Rechner stark erschwert.

Ob man die - im Gegensatz zu obigem - legale Datenmüllversorgung als kriminell einstuft, mag vom Standpunkt abhängen. Bei der online Werbung auf Webseiten etwa wird genau wie bei Spam neben technischen Ressourcen vor allem die kognitive Kapazität der NutzerInnen belastet. Diese ergreifen - wie oben aus Unkenntnis und Trägheit - meist keine technischen Gegenmaßnahmen. Sie sind im Zuge der fortschreitenden 0,-Euro-Mentalität auch bereit, sich auf werbefinanzierte, für sie aber kostenlose Dienstangebote einzulassen, insb. für das Web-Mail-Postfach oder das hosting eigener Inhalte (Websites, Blogs, Multimedia). Damit wird die systemstabilisierende Grundstruktur Konzern <-> Konsument zementiert und neben dem Großen Bruder Staat konnten sich auch Kleine Brüder kommerzieller Art mit der Sammlung und Auswertung persönlicher Daten und Verhaltensweisen etablieren. Sicherlich standpunktabhängig ist die Beurteilung der Nutzung des WWW - gerade in seiner modernen Ausführung als "Web 2.0" - zur Publikation als Breitensport. Was dem einen als privater Datenmüll und Belastung des öffentlichen virtuellen Raums erscheint, ist der anderen die Basis für das Knüpfen sozialer Netze.

1.7.4. Kollektive Vereinzelung

Zwei Abstraktionen, die dem Internet zugrunde liegen, führen zu einer Deprivation des (Er)Lebens seiner NutzerInnen. Zunächst die Digitalisierung der Inhalte als Handlungsgegenstände und damit die Homogenisierung der Interaktion durch die Verwendung eines Computers - der physischen Form nach eine monotone Maschinenbedienung mit nur minimaler körperlicher Aktivität. Zum anderen die Abstraktion vom Raum - denn alles ist vom eigenen Computer aus erreichbar, ein Fortbewegen des Körpers unnötig. Dies gehört zum visionären Urgestein des Internet, s. obiges Zitat ([ Licklider I ], S. 8).

Die private Nutzung von Computer und Internet verlängert die Reduktion körperlichen Erlebens aus Fabrik und Büro in die sogenannte Freizeit, allerdings ohne die soziale Dimension der Arbeit in einem Betrieb. Die vereinzelnde Wirkung des Fernsehens wird auf interaktive Handlungsbereiche ausgedehnt. Überkapazitäten und die "Nöte" der Kapitalverwertung machen den Videokonsum im Internet breit und nähern es auch von daher dem Fernsehen an. Und zur systemstabilisierenden Bedeutung des Fernsehens muss hier nichts weiter ausgeführt werden. Die o.g. Grundstruktur Konzern <-> Konsument reduziert die Relevanz des anderen Menschen zugunsten der Bedeutung der Maschinerie des Konzerns. Insgesamt lässt sich die folgende, vor über 60 Jahren formulierte, d.h. prä-digitale Kritik also bis heute verlängern:

"Je komplizierter und feiner die gesellschaftliche, ökonomische und wissenschaftliche Apparatur, auf deren Bedienung das Produktionssystem den Leib längst abgestimmt hat, um so verarmter die Erlebnisse, deren er fähig ist. Die Eliminierung der Qualitäten, ihre Umrechnung in Funktionen überträgt sich von der Wissenschaft vermöge der rationalisierten Arbeitsweisen auf die Erfahrungswelt der Völker und ähnelt sie tendenziell wieder der der Lurche an. Die Regression der Massen heute ist die Unfähigkeit, mit eigenen Ohren Ungehörtes hören, Unergriffenes mit eigenen Händen tasten zu können, die neue Gestalt der Verblendung, die jede besiegte mythische ablöst. Durch die Vermittlung der totalen, alle Beziehungen und Regungen erfassenden Gesellschaft hindurch werden die Menschen zu eben dem wieder gemacht, wogegen sich das Entwicklungsgesetz der Gesellschaft, das Prinzip des Selbst gekehrt hatte: zu bloßen Gattungswesen, einander gleich durch Isolierung in der zwangshaft gelenkten Kollektivität." ([ Horkheimer/Adorno ], S. 43)

Das Internet bietet neben der Entsinnlichung auch als Maschinerie der "totalen Vermittlung" zur Bekräftigung obiger Analyse sich an. Also erstmal keine Hoffnung auf echten Fortschritt für das Projekt des Selbst, des modernen Subjekts? Offenbar nicht vom üblicherweise verdächtigen revolutionären Subjekt, der ArbeiterInnenklasse, denn:

"Die Ohnmacht der Arbeiter ist nicht bloß eine Finte der Herrschenden, sondern die logische Konsequenz der Industriegesellschaft [...]." (Ebd.)

Und um wie viel mehr muss dies heute gelten, wo Auto und Supermarkt, Leiharbeit und Erwerbslosigkeit, Fernsehen und Internet den früheren sozialen Nährboden der ArbeiterInnenbewegung, den direkten und längerfristigen Kontakt von Mensch zu Menschen, trockengelegt haben? Aber die "Dialektik der Aufklärung" wäre keine emanzipatorische, wenn sie nicht auch solche Einsichten formulierte:

"Diese logische Notwendigkeit aber ist keine endgültige. Sie bleibt an die Herrschaft gefesselt, als deren Abglanz und Werkzeug zugleich." (Ebd.)

Hier scheint umgekehrt die Möglichkeit auf, durch Trockenlegung der Herrschaft zu einer Umwälzung der Industriegesellschaft zu kommen, in der das Potential der Maschinerie statt zur Profitproduktion für wenige zur Bedürfnisbefriedigung aller genutzt wird. Diese eng miteinander verknüpften Ziele - Trockenlegung der Herrschaft und bedürfnisorientierte industrielle Produktion - sind zentrale Aspekte des Anarchosyndikalismus, der über das - noch? - vorhandene Organisierungspotential des Internet eine neue Aktualität gewinnen könnte. Denn Internetproduktionsmittel (Computer und Netzzugang) sind bei der ArbeiterInnenklasse zumindest der technologisch fortgeschrittenen Industriegesellschaften breit verfügbar. Aber ganz ohne eine Rekonstruktion der traditionellen Basis der ArbeiterInnenbewegung, der unvermittelt sozialen, wird das nicht gelingen, sofern man die obige Analyse der Altmeister auf das soziale Erleben und Handeln anwendet.

Trotz obiger fundamentalistischer Kritik sollte man nicht verachten, dass bereits die heutige Nutzung des Internet in sozialen Bewegungen und weit darüber hinaus auch sehr positive Züge aufweist wie aufklärerisches Publizieren, gegenseitige Hilfe und herrschaftsfreie Kooperation, Experimentierfreudigkeit, Solidarität z.B. bei Repression, etc.

Kapitel 2. Internet undstattoder Anarchismus

Wir wollen den Anarchismus in eine ergiebige Beziehung zum Internet setzen. Das mag erst einmal auf grundsätzliche Bedenken stoßen. Schon allein aufgrund unserer bisherigen Ausführungen. Das Internet wurde mit militärischer Finanzierung gestartet. Es befindet sich mittlerweile fest in kapitalistischer Hand und unter staatlicher Beobachtung. Die teure und komplexe Internettechnologie ist den NutzerInnen unverständlich. Das Internet sorgt für noch mehr Vereinzelung, Entfremdung und Verblendung. Von daher empfiehlt sich doch eine strikte Ablehnung.

Damit würde aber das Kind mit dem Bade ausgeschüttet. Das soll an einer Analogie aus der anarchistischen Praxis der letzten Jahrzehnte illustriert werden: dem Kampf gegen die Atomwirtschaft. Auch hier ist eine rigorose Ablehnung formuliert worden, nämlich die Ablehnung der Atomenergie (und der Atomwaffen). Diese kompromisslose Ablehnung war strategisch wichtig, um nicht durch die üblichen Tricks der Herrschenden gespalten, zerfasert oder assimiliert zu werden. Ein wichtiger Aspekt des Atomenergiekomplexes wurde zwar gelegentlich durch taktisches Mastumlegen angegriffen, aber nicht grundsätzlich in Frage gestellt - das Stromverbundnetz. Dieses entspricht viel eher dem Internet, als der "böse" Atommeiler. Das "Böse" gibt es im Internet natürlich auch, und nicht zu knapp, s.o.: Großer Bruder Schäuble, Kleiner Bruder Google, Monopolist Micro$oft, Spam und kriminellaggressive Botnetze etc. pp.

Der Kampf gegen die "böse" Atomenergie hatte und hat aber auch gleichzeitig eine konstruktive Seite. Durch die jahrzehntelangen Anstrengungen der Ökologiebewegung ist es mittlerweile gelungen, regenerative Energien zu einem relevanten Faktor zu machen. Viele Menschen leisten dazu mit eigenen Solaranlagen etc. einen alltäglichen Beitrag - und nutzen dazu das Stromverbundnetz. Und das, obwohl es immer noch Atomkraftwerke und Oligopole im Energiesektor gibt, die natürlich auch das Stromnetz nutzen. Die bisherige Durchsetzungsgeschichte der regenerativen Energien ist der Beharrlichkeit der Aktivistinnen zu verdanken. Außerdem haben die regenerativen Energien einen weiteren fundamentalen Vorteil: sie sind regenerativ. Ein prinzipieller Kostenvorteil bei der Beschaffung des jeweiligen "Rohstoffs". Diese Betonung des ökonomischen Arguments ist als Anhaltspunkt für die Auslotung emanzipatorischer Möglichkeiten im Umgang mit dem Internet gedacht, und soll keinesfalls die Bedeutung der ethischen Dimension kleiner machen. Denn ohne die Empörung über die Beschaffungskriminalität und die langfristigen Folgen der herkömmlichen Energiewirtschaft wären der lange Atem der Bewegung wie auch die Bereitschaft vieler "Normalos", regenerative Energien zu fördern, wohl nicht zu erklären.

Von dieser Analogie ausgehend kann es durchaus sinnvoll sein, das Internet in emanzipatorische Strategien einzubeziehen. Dafür lohnt es sich, die progressiven Aspekte des Internet zu analysieren, um sie zum einen als Anregung für Aktivitäten in anderen Bereichen zu nutzen, zum anderen aber auch als Ansatzpunkte für emanzipatorische Bemühungen im und mit dem Internet selbst.

2.1. Vom Internet lernen ...

2.1.1. Dezentralität und Einheit

Wie ist im Internet die "Quadratur des Kreises" gelungen - die Verbindung von Dezentralität und Einheit?

Grundlage der Dezentralität im Internet ist die Unabhängigkeit der einzelnen Netze. Vereinbarungen zwischen 2 Netzen führen zu Verbindungen zwischen den beiden Netzen. Bestandteil der Vereinbarungen ist die Erreichbarkeit weiterer Teile des Verbundnetzes, bei transit-Beziehungen zum gesamten Verbund. Dadurch sind Wachstum und Kapazitätsplanung dezentral möglich. Das ist auch nötig, da es keine Zentrale gibt die das übernehmen könnte.

Die Einheit des Internet basiert zunächst auf den bilateralen Vereinbarungen, die die Erreichbarkeit weiterer Netze bzw. des gesamten Verbundes bezwecken. Grundlage der technischen Umsetzung der "Einheit" sind die Standards. Diese werden von temporären Assoziationen engagierter Individuen ohne formale Organisationsstruktur erarbeitet. Maßstab dieser Arbeit sind dadurch nicht (wirtschafts-)politische Interessen, sondern die technische Qualität des Ergebnisses ("rough consensus and running code"). Für die operative Einheit ist weiterhin die eindeutige Verteilung der IP-Adressen erforderlich. Diese wird von Vergabestellen als Dienstleistung an ihre Mitglieder, die Provider erbracht. Die Mitglieder finanzieren ihre Vergabestelle und bestimmen ihre Richtlinien. Durch diese technisch-wirtschaftliche Selbstorganisation wird eine einseitige ökonomische oder gar politische Kontrolle über die IP-Adressen verhindert.

Wie wichtig solche Organisationsprinzipien sind, merkt man dort, wo sie nicht eingehalten werden. Beim real ex. Domainnamensystem gibt es zentrale operative Komponenten (root server und root zone), und beim DNS ist den Juristen auch der Durchbruch beim Zugriff auf den virtuellen Raum gelungen. Wodurch - nur scheinbar paradox - Diebstahl von und Spekulation mit Domainnamen eine "ordentliche" Grundlage bekamen. Die Politnummer ICANN mit ihren Mehrheitsentscheidungen der Direktoren ergänzt hier das unglückliche Bild.

2.1.2. Gedankenexperiment: Anarchismus als Internet

Die Erfahrungen und Prinzipien des Internet sind im libertären Kontext vor allem dann interessant, wenn es

  • um Verbundprojekte geht,
  • die auf Wachstum angelegt sind und
  • deren Gegenstand objektive Kriterien bietet, ob "es funktioniert".

Einzelne Landkommunen oder Theoriezirkel können also weniger vom Internet lernen als Föderationen (von Föderationen). Versuchen wir als Gedankenexperiment die Übertragung der Internet-Prinzipien auf "den Anarchismus" als Gesamtprojekt. Folgende Mängel lassen sich am real existierenden Anarchismus benennen:

  • Autonomie ist an der Basis nicht nur gewollt, sondern übliche libertäre Praxis. Es fehlen aber meist die stabilen operativen Beziehungen zwischen den einzelnen Projekten als weitere und unverzichtbare Basis eines Verbundprojekts. Die direkten Beziehungen müssten außerdem auch das Ziel einer Einheit des Verbundes beinhalten.
  • Der Wille zum Wachstum ist zumindest im Anspruch angelegt, da sich eine herrschaftslose Gesellschaft nicht auf einige Protestgruppen, WGs oder selbstverwaltete Betriebe beschränken kann. Die bei den libertären AktivistInnen vorhandene Energie geht aber zumeist in ein Einzelprojekt oder in Richtung der sozialen Bewegungen. Das ist selbstverständlich richtig und wichtig, aber diese Energie fehlt einem "Verbundprojekt Anarchismus".
  • Schon der Gegenstand des Anarchismus, die Herrschaftslosigkeit, betrifft viele und sehr unterschiedliche Aspekte der Gesellschaft. Viele dieser Aspekte enthalten außerdem auch subjektive Faktoren. Deshalb ist unklar, wie Kriterien aussehen sollen, die allen Beteiligten ein objektives Urteil erlauben, ob etwas im Verbundprojekt funktioniert oder durch eine Änderung verbessert wurde. Das erschwert (Selbst-)Optimierungen, die für Wachstumsprozesse aber nötig sind.

Unser Gedankenexperiment legt folgenden Schluss nahe: weniger bringt mehr. Durch die Konzentration der Verbundbemühungen auf einen konkreten Bereich, der viele Libertäre (und möglichst auch weitere Teile der Bevölkerung) betrifft und möglichst alltagsnah ist, können genug Kräfte zusammen kommen, die einen zumindest ansatzweise funktionierenden Verbund zum praktischen Nutzen der Beteiligten in Gang bringen. Durch eine geeignete "Architektur" des Verbunds und seine Fähigkeit zur Selbstoptimierung sind quantitatives und dann auch qualitatives Wachstum möglich. Um den Verbund herum können sich weitere libertäre Aktivitäten entfalten, die durch die operative Basis des Verbunds mehr Möglichkeiten und größere Reichweiten in die Gesellschaft haben. Der Anarchismus ist dann nicht "nur" das Salz in der Suppe der sozialen Bewegungen, sondern wird zunehmend auch der Nährstoff. Gelingt der Wachstumsprozess weiter, kann er schließlich Kapital (Maschinen, Häuser, Betriebe) assimilieren und damit unter selbstverwaltete "Kontrolle" bringen. Was Attraktivität und Reichweite des Verbundes weiter erhöht. Soviel zum Potential eines konzentrierten Verbundprojekts.

Zur Veranschaulichung des Konzepts noch eine Analogie aus der Naturwissenschaft. Zur Zeit wirken AnarchistInnen hauptsächlich katalytisch, d.h. sie fördern emanzipatorische Prozesse in verschiedenen gesellschaftlichen Bereichen. Damit sind sie erstmal ausgelastet, aber es ergeben sich dadurch auch Erfahrungen und Kontakte. Die "Architektur" des Verbundes sollte dann autokatalytisch sein, d.h. die Resultate des Verbundprozesses wirken positiv rückgekoppelt, d.h. fördernd auf ihn selbst. Diese Dynamik kann sich durch die bereits erarbeiteten emanzipatorischen Kontakte aus der ersten, der katalytischen Phase, in diverse gesellschaftliche Bereiche ausdehnen. Sind schließlich genügend Menschen in und durch die Praxis des Verbunds mobilisiert, können sie durch das koordinierende Potential des Verbundes zum Übergreifen auf die sog. Realwirtschaft schreiten. Gelingt auch hier das Wachstum, könnte der Prozess schließlich autopoietisch [ Maturana/Varela ], d.h. vollständig selbstreproduzierend werden, also eine eigenständige freie Gesellschaft bilden. Diese chemisch-biologische Analogie soll keinesfalls als Automatismus oder Biologismus missverstanden werden - der gedachte Verbund besteht schließlich aus Menschen, mit ihren Schwächen und Stärken, insbesondere der Fähigkeit zur Reflektion. Letztere ist für die Optimierungen und insbesondere das qualitative Wachstum des Verbundes unverzichtbar - allerdings auch nicht vorhersagbar.

Schauen wir von hier aus zurück zum Ausgangspunkt der Überlegungen, dem Internet. Dieses hat zwar immer noch wesentliche Züge seiner autokatalytischen Dynamik, aber ein Übergang zur Autopoiese ist ihm prinzipiell nicht möglich, da es im Gegensatz zum Anarchismus a priori kein Projekt ist, welches alle Aspekte der Gesellschaft umfasst. Und so besteht die allzu reale Gefahr, dass es seiner qualitativen Dynamik letztlich beraubt wird, indem es als teilautonomes, aber funktionales Element in die Autopoiese des real ex. Kapitalismus eingebaut und dieser untergeordnet wird. Wie ein Organell in einer biologischen Zelle. Dieser Konflikt bietet andererseits die Möglichkeit einer tieferen Interaktion von Anarchismus und Internet.

2.2. Vom Anarchismus lernen ...

Im vorigen Abschnitt stellten wir fest, dass das Internet - im Gegensatz zum Anarchismus - kein gesamtgesellschaftliches, emanzipatorisches Projekt ist. Dem läßt sich auf den ersten Blick zweierlei entgegenhalten: Freiheitsideale bis hin zur Herrschaftsablehnung sind eine wichtige Motivation vieler InternetprotagonistInnen und immer noch Bestandteil der Netzkultur. Außerdem ist ein Ende des Vordringens des Internet in die Gesellschaft nicht absehbar. Beides ist zwar richtig, ändert aber nichts an den Kommandostrukturen und Verblendungszusammenhängen. Diese "erbt" das Internet von der real ex. Gesellschaft umso mehr, je mehr es sie durchdringt. Dennoch lohnt sich eine genauere Untersuchung der beiden Aspekte auf ihr libertäres Potential.

2.2.1. Regulation von unten

Das Vordringen des Internet in die Gesellschaft erfolgt technisch aufgrund seiner quantitativen Offenheit. Ökonomisch dringt das Internet in kapitalistischen Formen in die Gesellschaft ein. Die resultierenden Probleme wurden oben ja angesprochen. Sie hängen wesentlich mit der Regulation des Wachstums durch cash flow zusammen. Auf der Anwendungsebene des Internet gibt es verschiedene kommunikative Nischen (Usenet, IRC, Wikis, Blogs etc.) Diese haben jeweils eigene technische und soziale Regulationsmethoden entwickelt. Im Kern des Internet ist eine Änderung der Regulationsmethodik von technisch-wirtschaftlich zu technisch-sozial jedoch nicht zu erwarten. Eigentumsverhältnisse und Verwertungsinteressen stehen dagegen. Kriminelle (und) staatliche Angriffe werden wohl weiter zur Tagesordnung gehören. Dennoch sollen hier beispielhaft zwei Bereiche dargestellt werden, die libertäre technisch-soziale Regulationsmethoden unterhalb der Anwendungsebene etablieren könnten. Der Spieß könnte umgedreht werden indem das Internet bei seiner Durchdringung der Gesellschaft explizit libertäre Prinzipien nutzt und damit verbreitet.

  • Das DNS ist dezentral verwaltet. Es hat aber auch zentrale operative Komponenten und ein davon ausgehendes hierarchisches Delegationssystem. So entsteht z.B. für den BRD Staat die Möglichkeit .de Domains zu zensieren. Er braucht dazu nur eine Verfügung an das für die Vergabe der .de Domains zuständige Denic zu erlassen. Mit der existierenden DNS software können relativ leicht alternative root server aufgebaut werden. Diese könnten optional eine alternative root zone verwenden. Das hieße einen anderen Namensraum zu benutzen. So etwas wurde auch praktiziert, zB [ ORSN ]. Die hierarchische Struktur des DNS bliebe dabei allerdings erhalten.

    Für eine systematische bottom-up Lösung müssten auch technische Modifikationen am DNS vorgenommen werden. Der Aufwand für Endbenutzer könnte allerdings minimal gehalten werden. Sie müssten lediglich vertrauenswürdige DNS resolver eintragen. Dazu sollte das zensurablehnende Publikum aber spätestens seit den Zensurbemühungen der Bezirksregierung Düsseldorf 2001 in der Lage sein [ CCC ]. Technisch sollte ein nicht hierarchisches DNS grundsätzlich realisierbar sein. Es bleibt aber die spannende Frage, wie die technisch-soziale Regulation eines solchen DNS aussehen kann. Vor allem wenn dieses DNS zur Vermeidung von staatlichen Zugriffsoptionen auf eine möglichst breite Basis gestellt werden soll. Hier könnte libertäres Mitwirken zu einer Freiheitsproduktion beitragen, die für viele NutzerInnen wirksam würde.

  • Im Gegensatz zu anderen Echtzeitnetzen (Stromnetz, Telefonnetz) haben paketvermittelte Netze wie das Internet eine ganz besondere Eigenschaft. Durch ihre Abstraktion vom Transportmedium und der Trennung von Transportinformation und Nutzlast können sich paketvermittelte Netze gewissermaßen selbst transportieren. Hat man also ein funktionierendes internet (insbesondere natürlich das real ex. Internet), so kann man dieses als Transportmedium für ganz anders strukturierte Netze verwenden, aber insbesondere auch für ein internet. Das zugrunde liegende Transportnetz weiß dabei nichts über die Struktur des transportierten Netzes, und bei Verwendung von Verschlüsselung erfährt es auch nichts über die Inhalte des sog. overlay networks oder virtual private networks. Was dem Neuling vielleicht nach Magie klingt, ist eine im Internet verbreitete Technik, etwa bei peer-to-peer Netzen oder bei Unternehmensnetzwerken zur verschlüsselten Anbindung von Filialen oder AußendienstmitarbeiterInnen. Übrigens hat das Internet selbst ja als overlay network über dem bestehenden Telefonnetz angefangen. Hier könnten Libertäre Netze (mit)aufbauen, in denen ohne Interferenz mit dem kapitalistisch-staatlich-verblendeten-etc. öffentlichen Internet technische und soziale Regulationsmethoden für internets entwickelt und erprobt werden.

2.2.2. Freiheit mit Staat und Markt?

Der im Internet immer noch gern verwendete Begriff der Freiheit stellt einen weiteren Anknüpfungspunkt für anarchistischen input ins Internet dar. Wie nötig das ist, soll im Folgenden beispielhaft durch eine Auseinandersetzung mit der "kalifornischen Ideologie" [ Barbrook ], [ Schulz ], [ Lovink ] der New Economy[tm] und dem zugehörigen Spannungsfeld von Freiheit und Ökonomie verdeutlicht werden. Als umstrittenes aber paradigmatisches Beispiel für solche Freiheitsvorstellungen im virtuellen Raum sei der Anfang von "A Declaration of the Independence of Cyberspace" zitiert:

"Governments of the Industrial World, you weary giants of flesh and steel, I come from Cyberspace, the new home of Mind. On behalf of the future, I ask you of the past to leave us alone. You are not welcome among us. You have no sovereignty where we gather." [ Barlow ]

"Regierungen der industriellen Welt, ihr müden Giganten aus Fleisch und Stahl, ich komme aus dem virtuellen Raum, der neuen Heimat des Geistes. Im Namen der Zukunft, lasst uns in Ruhe. Ihr seid nicht willkommen. Dort wo wir uns sammeln habt ihr keine Herrschaft."

Barlow, ehemaliger Texter der Grateful Dead und Mitbegründer der Electronic Frontier Foundation, veröffentlichte die "Declaration" 1996 anlässlich der Verabschiedung des Communications Decency Act (CDA) der USA. Mit diesem Gesetz wurde u.a. die öffentliche, d.h. für Kinder und Jugendliche zugängliche Verwendung von obszönen Inhalten und Worten wie "shit" und "fuck" in online Medien verboten. Der CDA wurde später von US-Gerichten teilweise wieder kassiert, da im Widerspruch zum "First Amendment" der US-Verfassung stehend, in dem u.a. die freie Rede garantiert wird. Dass Barlow's "Declaration" auf zehntausenden Websites kopiert wurde, lässt sich als Zeichen für die damalige Bedeutung des Konflikts zwischen Staat und den "Bewohnern" des virtuellen Raums lesen. In dieser Periode traf die Tradition der wissenschaftlichen Entwicklungsphase des Internet und damit auch der Idee des herrschaftsfreien Diskurses auf die kapitalistisch getragene Ausweitung des Netzes zum Massenmedium und die damit einhergehenden staatlichen Regulierungsbemühungen.

Dass die Freiheitsrhetorik der "Declaration" an die Gründungszeit der USA erinnert, liegt nicht nur am Kernpunkt der juristischen Auseinandersetzungen um den CDA, dem First Amendment von 1791, sondern auch an der Vorstellung des Cyberspace als unbegrenztem Raum, bereit für die Landnahme und mit genug Platz für alle (Gedanken;).

Aus anarchistischer Perspektive gibt es einiges an der wohl einflussreichen "Declaration" des ehem. Religionswissenschaftlers zu kritisieren. Er spricht zu Recht vom Cyberspace als einem kollektiv konstruierten sozialen Raum, den er aber komplett in den Bereich des Immateriellen, Körperlosen verlegt: Cyberspace [...] is not where bodies live[ Barlow ] - man hört den Nachhall der Worte des Herrn: Mein Reich ist nicht von dieser Welt[ Jesus I ]. Die Körper bleiben weiterhin der "gerechten Macht" (s.u.) der Regierungen unterworfen - nix Neues seit Gebet dem Kaiser, was des Kaisers ist[ Jesus II ]. Durch diese traditionsreiche Spaltung von Körper und Geist, Staat und Kultur wird der anstehende Grundsatzkonflikt mit der Herrschaft abgewiegelt, incl. einem Kniefall vor den Regierungen durch die Anerkennung ihrer vermeintlichen Legitimation durch die Regierten: Governments derive their just powers from the consent of the governed.[ Barlow ] Das damit bereits vorweg genommene Scheitern der herbei deklarierten virtuellen Republik hat seine operativen Gründe in den so (leider;) nicht zutreffenden Behauptungen über die Beschaffenheit des Cyberspace. Wegen ihrer Bedeutung für eine Auseinandersetzung mit Herrschaft und Ausbeutung im virtuellen Raum seien sie hier aufgeführt ... (mit "you" sind die Regierungen gemeint) ...

  • You have no [...] methods of enforcement we have true reason to fear.(Ebd.)
  • We are forming our own Social Contract.(Ebd.)
  • The global conveyance of thought no longer requires your factories to accomplish.(Ebd.)
  • [...] nor did you create the wealth of our marketplaces.(Ebd.)

... und diskutiert:

  • Auch wenn freundlicherweise seit der "Declaration" immer noch kein Weltstaat etabliert ist, der die gesamte Internet-Öffentlichkeit kontrollieren könnte, macht das "enforcement" der real ex. Nationalstaaten doch zunehmend mehr Probleme. Der Gang ins virtuelle Exil ist zwar eine noch mögliche Reaktion und leichter als bei den bisherigen Medien, schafft aber Repression und vor allem deren indirekte Wirkungen nicht ab.
  • Von der prinzipiellen Problematik eines meist naturrechtlich begründeten "Social Contract" als Legitimation einer "gerechten Macht" einmal abgesehen, wurde ein solcher im Internet nicht geschlossen. Offene technische Standards, bilaterale Vereinbarungen und die jeweiligen Gepflogenheiten der verschiedenen Anwendungsbereiche sorgen dafür, dass das Internet funktioniert, und kein universeller Gesellschaftsvertrag, auf dessen Basis sich der "Freistaat Internet" [ Schulz ] gegen die Einmischung fremder Regierungen erheben könnte.
  • Wenn im dritten der obigen Zitate die neue Heimat des Geistes von den Fabriken der Regierungen losgesagt wird, ist das doppelt falsch. Fabriken gehören üblicherweise nicht den Regierungen, sondern privaten Eigentümern. Und seit seiner Kommerzialisierung wird das Internet sehr wohl fabrikmäßig betrieben. In den Serverfarmen läuft vielleicht weniger Personal herum als in sonstigen Fabriken. Die für Betrieb und Inhalt der Server Arbeitenden sitzen statt dessen halt andernorts in vernetzten Büros.
  • Dass Regierungen keinen Wohlstand erschaffen ist klar. Bestenfalls verbrauchen und verhindern, schlimmstenfalls vernichten sie ihn. Das lenkt aber vom Hauptanliegen der ganzen Freiheitsrhetorik ab: der Wohlstandsverteilung vermittels "our marketplaces".

Der CDA als Zensurangriff der Regierung und die resultierende Empörung vieler NetznutzerInnen dient so der Konstruktion eines "wir", dem der Wohlstand der virtuellen Märkte gehören soll. Wesentlicher Grund für die Popularität des Internet war und ist aber, dass der (inhaltliche) Wohlstand darin zu großen Teilen eben nicht marktförmig organisiert ist, sondern die digitale Distributionsmechanik Internet für eine solche Marktförmigkeit erst entsprechend zugerichtet werden muss. Bei Herbeiführung der intendierten Marktförmigkeit zerfällt das Boot, in dem "wir" sitzen und vermeintlich gegen den Staat rudern, in die üblichen zwei Teile - die, die rudern, und die, denen das Boot gehört. Diese "wir"-Konstruktion war in der kommerziellen Boomphase des Internet in den 1990er Jahren weit verbreitet. In dieser Phase wurde viel Kreativität und Finanzkapital "verbrannt". Der Boom endete mit dem beachtlichen .com-crash als Vorläufer der heutigen Subprime-Krise. Zurück blieb das Internet mit seinen Überkapazitäten und ein paar neuen Marktführern.

Der süße Duft der Freiheit, mit dem viel virtuelles Fußvolk gelockt wurde, erwies sich als Etikettenschwindel. Gemeint war die Freiheit der Cyberunternehmer. Die wiederum brauchen für "our marketplaces" motivierte SpezialistInnen. Mit Aktienoptionen und dem Duzen des Chefs wähnten sie sich in virtueller Freiheit. Auf der anderen Seite brauchen - und wollen - diese Unternehmer ausdrücklich den Staat, damit er eine virtuelle Eigentumsordnung definiert und durchsetzt. Ansonsten können sich die "competitive battlegrounds"(Wettbewerbs-Schlachtfelder) des "knowledge age" (Zeitalters des Wissens) nicht etablieren [ Dyson ]. So wird doppelt betrogen: ökonomisch durch Ausbeutung und Spekulation, gesellschaftlich durch die Ratifizierung des Bockes Staat zum Gärtner der Freiheit.

Es mag billig erscheinen, Jahre nach dem .com-crash auf der zugrunde liegenden technoliberalen Ideologie herumzuhacken, zumal das zugehörige Akkumulations-, Verwertungs- und Vernichtungsgeschehen auch rein marxistisch analysiert werden kann. Nur hilft letzteres wie üblich konstruktiv nicht weiter. Deshalb und wegen Unzuständigkeit in Sachen Freiheit sind von dieser Seite auch keine ökonomisch tragfähigen Alternativen zum Technoliberalismus zu erwarten, die dem virtuell aktiven Teil der Bevölkerung helfen, ihre Freizeitproduktion virtuellen Wohlstands zu einer Freiheitsproduktion mit gesamtgesellschaftlicher Perspektive weiter zu entwickeln. Hier liegt also - um auf den Titel des Kapitels zurückzukommen - eine konstruktive Aufgabe für AnarchistInnen, historische und praktische Erfahrungen und Analysen der Bewegung zu Gunsten einer ökonomisch fundierten Freiheitsproduktion im und durch den virtuellen Raum zu nutzen. Zur Anregung dafür sollen die oben kritisch verdauten Themen der "Declaration" im Folgenden konstruktiv recycelt werden:

  • Staatliches "enforcement" (Erzwingung) : Gerade im konstruktiven Kontext ein unbequemes und schlimmstenfalls lähmendes Thema. Dennoch ist nicht liberale Verdrängung, sondern ein expliziter, aber entspannter und vorausschauender Umgang mit diesem Komplex empfehlenswert. Einerseits wegen der zunehmenden staatlichen Selbstermächtigung zu Übergriffen gegen "seine" ( s.o.) Bevölkerung, andererseits um die gerade in der BRD historisch bedingte Angst vor der Obrigkeit (Vernichtung der ArbeiterInnenbewegung, RAF Hysterie) konstruktiv zu bearbeiten.
  • "Social Contract": Der Begriff wird von englischsprachigen progressiven Projekten auch heute schon verwendet [ Debian ], [ riseup.net ], und hat abgesehen von seiner philosophischen Problematik den Vorteil einer implizierten gesamtgesellschaftlichen Perspektive. Allerdings sollte man sich nicht zur Erweckung uneinlösbarer Erwartungen à la Barlow verleiten lassen, sondern erstmal konkretere, dem jeweiligen Projektstand angemessenere Übereinkünfte anstreben und entsprechend betiteln, z.B. freie Vereinbarung oder Föderationsstatut. Inhaltlich wichtig bei den Übereinkünften ist wegen der ökonomischen Dimension die Konfliktvermeidung und -bearbeitung, um Regressionen auf staatliches "enforcement" zu vermeiden.
  • "factories": Auch der virtuelle Raum wird von Menschen produziert und hat eine materielle Basis. Trotz aller Virtualität sollte man sich nicht dazu verleiten lassen, diesen Aspekt zu vernachlässigen. Aus prinzipiellen, strategischen und taktischen Gründen sollten die ProduzentInnen die Kontrolle über diese Produktionsmittel haben bzw. anstreben. Kollektivierungen in größeren Zusammenhängen (z.B. regionale KonsumentInnen-ProduzentInnen-Vereinigungen) sollten diese Gründe berücksichtigen.
  • "the wealth of our marketplaces": Der Begriff Wohlstand hat, zumal in einer herabgewirtschafteten Hartz IV Republik, in welcher die dafür Verantwortlichen (so wurde uns zugetragen) im Rest des miserablen Fernsehprogramms gar nicht mehr auffallen, eine fast obszöne Konnotation bekommen als etwas, das nur noch Betrügern und Arbeiterverrätern zusteht. Da wirkt allein die positive Verwendung des Begriffs durch den Technoliberalen Barlow schon wie eine Wellnessreise in die Zeit der Goldwährung. Und Wohlstand ist auch nicht notwendig an die Ausbeutung von Mensch und Natur gekoppelt, sondern eher an die Muße, von der eine sich allseitig entfaltende anarchistische Persönlichkeit kaum genug haben kann.

    Damit der von allen (Beteiligten) erarbeitete Wohlstand auch wirklich allen (Beteiligten) zukommt, muss neben der Produktion auch die Distribution funktionieren. Im Kontext virtuellen Wohlstands kein Problem. Das Internet ist die perfekte Distributionsmaschine für digitale Güter und Dienstleistungen. Der rein technische Kopiervorgang bildet den klassischen Distributionsvorgang allerdings nur in eine Richtung ab. Die Distribution beinhaltet aber auch eine Übertragung von Forderungen in die Gegenrichtung - die "Bezahlung" der ProduzentInnen. Dadurch können diese wiederum ihre Produktionsmittel und ihre eigene Reproduktion organisieren. Der Wegfall der Symmetrie zwischen Distribution und Bezahlung reißt in bisherige ökonomische Theorien ein weites Loch, das unseres Wissens bis heute nicht gestopft ist.

    Den Liberalen fällt in ihrer Markt- und Staatsfixiertheit auch nix wesentlich besseres ein, als zu verknappen. Der asymmetrisch sprudelnde Quell wird mit technischen Tricks verstopft, bis die Symmetrie wieder erreicht ist. Oder - ähnlich schräg - die Güter werden in Dienstleistungen verwandelt (s. das Barlow-Zitat in [ Dyson ]). Die vergleichsweise glücklichen Marxisten haben mehrere Möglichkeiten, sich mit dem Problem gar nicht erst zu konfrontieren. Das Problem mit der Distributionssymmetrie ist in der Planwirtschaft gar nicht vorgesehen. Dieses Problem wird nach dem zwangsläufigen Übergang zum Kommunismus sowieso gelöst sein ("alles für alle"). Oder weil die Distributionssphäre der (den Kapitalismus begründenden) Mehrwertabschöpfung in der Produktion völlig nachgeordnet ist (und ihre genauere Analyse strukturell antisemitisch). Diese Distributionsproblematik gärt im kulturellen Bereich schon länger. Bisher war sie durch die Materialität der Medien (Bücher, Tonträger) oder die Singularität von Aufführungen in traditionelle ökonomische Formen integrierbar. Mit fortschreitender Verbreitung und Verbesserung von Digitalisierungstechnologie wird sich das Problem aber verschärfen (Scans + Texterkennung, Hendis mit Audio-/Videostreaming ins Internet). Schon jetzt zielen die Schläge bzw. Tritte der Verwertungsindustrie zur Verteidigung ihrer Pfründe unter die Gürtellinie der Bevölkerung. Eine konstruktive Lösung des Problems wäre nicht nur eine neue Qualität für das Internet, sondern ein Fuß in der Tür zu postkapitalistischer Ökonomie.

    Der Anarchismus mit seiner theoretischen und praktischen Spannweite vom anti-monopolistischen Geldsystem bis zur syndikalistischen Industrieföderation sollte in der Lage sein, zur Lösung einen Beitrag zu leisten. Ob und inwieweit diese neue ökonomische Form einem "marketplace" ähnelt, muss sich zeigen. Ausgeschlossen ist das aus libertärer Sicht - und im Gegensatz zum Marxismus - zwar nicht, aber die Spielregeln würden sich - im Gegensatz zum Liberalismus - unter der Kontrolle der Beteiligten befinden.

2.3. Praktische Möglichkeiten

Dass die bisherigen Überlegungen zu Beziehungen zwischen Anarchismus und Internet recht abstrakt und stückwerkhaft waren, ist keine böse Absicht der AutorInnen. Der Versuch, zwei jeweils in sich schon sehr komplexe Felder konkreter, genauer und umfassend zueinander in Bezug zu setzen, würde die verfügbaren Ressourcen, wohl auch der meisten LeserInnen, weit überschreiten. Da aber sowohl der Anarchismus als auch das Internet keine rein akademischen Projekte (mehr) sind, können die geneigten LeserInnen selbst aktiv werden, indem sie eigene Erfahrungen in diesem Beziehungsfeld sammeln. Zum einen als Basis weiterer Reflektionen, zum anderen als konkreter Beitrag für den Aufbau gesellschaftlicher Freiräume. Dazu sollen vor dem Hintergrund der bisherigen Überlegungen einige Ansatzpunkte vorgestellt werden.

2.3.1. "Bildet Banden!"

Es empfiehlt sich unbedingt, den Vereinzelungstendenzen des Internet durch Organisierung vor Ort entgegenzuwirken. Ehe das Internet auch hierzulande breit zugänglich wurde, gab es selbstorganisierte Mailboxnetze. Dabei haben lokale Gruppen jeweils eigene Mailboxen (Computer mit Telefonleitungen) betrieben, in die sich die NutzerInnen zum damaligen Ortstarif per Modem einwählten um Nachrichten auszutauschen. Die Mailboxen der verschiedenen Orte haben dann zu Nachttarifen den überregionalen Nachrichtenaustausch organisiert. Um den Betrieb der lokalen Mailboxen herum gab es regelmäßige Treffen zur gegenseitigen Hilfe im Umgang mit der Technik und dem Medium, und zum sonstigen Austausch.

Diese sozialen Brennpunkte des virtuellen Lebens sind heute ausdifferenzierter. Serverprojekte, Linux User Groups, Hackertreffs, Freifunknetze, Medienprojekte, Internetcafés in autonomen Zentren etc. suchen meist MitmacherInnen, vermitteln Wissen, und können vor Ort den Einstieg in den (libertären) Netzaktivismus erleichtern. Auch in seiner unmittelbaren Nachbarschaft kann man etwas in Bewegung bringen, indem man sich mit Nachbarn den Internetanschluss teilt, durch das Verlegen eigener Ethernet- oder gar Glasfaserkabel, oder per WLAN. Neben dem "dank" Hartz IV etc. leider relevanten individuellen ökonomischen Vorteil können solche nachbarschaftlichen internets z.B. auch zum Aufbau gemeinsamer digitaler Mediatheken genutzt werden.

2.3.2. Konzerne - nein danke!

Probleme der Kapitalakkumulation im und für das Internet sind oben ja kurz angesprochen worden. Sie haben im Internet ihre spezifische Ausprägung, aber in allen ökonomischen Sphären macht der Kapitalismus bekanntlich Probleme. Verblüffend bis erschreckend ist daher, wie vielen kapitalismuskritischen Menschen diese Erkenntnis ausgerechnet beim Umgang mit dem Internet abhanden zu kommen scheint. Am auffälligsten ist dies bei (Web)Mail, wo die wenigsten wissen, dass die wg. 0,-Euro beliebten GMX und web.de mittlerweile zum gleichen Konzern, dem aus 1&1 hervorgegangenen United Internet, gehören. Die "0,-Euro" funktionieren durch Werbeflächen auf den zugehörigen Portalseiten, Werbebotschaften, die in die mails der NutzerInnen eingebaut werden, und die Nutzung von Kundendaten für Marketingzwecke. Anstatt sein Postfach bei einem Konzern zu haben, wäre es besser, seine Post auszudrucken, per Brief zu verschicken und dabei gleich eine Kopie bei der nächsten Polizeiwache abzugeben. Dort müsste der Inhalt dann eingescannt und mit Texterkennungs-Software behandelt werden. Das würde dem Apparat zumindest deutlich mehr Arbeit machen als der digitale Abgriff bei den zur Kollaboration verpflichteten und bereiten Großanbietern.

Vielleicht noch schlimmer als der Überwachungsaspekt ist an dieser Gedankenlosigkeit, dass in dem Maße, wie man die Konzerne dadurch fetter macht (selbst bei 0,-Euro), den alternativen Projekten der Bewegung die soziale und ökonomische Basis entzogen wird. Ohne Unterstützung durch die Bewegung können sich emanzipatorische Internetprojekte nicht halten und weiterentwickeln, was schließlich in einem Verlust operativer Basis und des zugehörigen Wissens endet. Das ist strategisch fatal, da das Internet durch die digitale Medienkonvergenz absehbar eine immer größere Rolle spielen wird. Und die Bedeutung eigener Medien gerade für staats- und kapitalkritische Bewegungen kann wohl kaum überschätzt werden.

Als Internet-spezifisches Problem mag erscheinen, dass durch die verwendete Hochtechnologie die Bewegung von wenigen SpezialistInnen abhängig werden könnte. Sicherlich stellt für normale NutzerInnen schon der eigene Computer, um so mehr der Betrieb von Servern ein Buch mit sieben Siegeln dar, aber strukturell ist das auch nicht wesentlich anders als früher mit Setzern und Druckern. Strategisch bedeutend zur nachhaltigen Bewältigung dieses Problems sind drei Faktoren: Dezentralisierung, Dezentralisierung, Dezentralisierung. Und dies wird wohl ohnehin nur gelingen durch das Einbeziehen jüngerer Menschen, die durch ihre stärkere Sozialisation mit Internet und Computern einen leichteren Start in die bisweilen komplexe Materie haben.

2.3.3. Freie, open source Software

Vor allem beim Betriebssystem ist die Quelloffenheit für die Teilnahme am Internet von besonderer Bedeutung - der TÜV würde auch kein Auto auf die Straße lassen, bei dem der Hersteller die Auskunft über die Funktionsweise der Bremsen verweigert. Auch durch zustimmende Rezeption der bisherigen antikapitalistischen und antimonopolistischen Ausführungen hat der/die LeserIn die logisch zwingende Pflicht erworben, das evtl. auf seinem Computer befindliche Monopolbetriebssystem von Micro$oft unverzüglich zu entfernen, und damit auch gleich Bots und Bundestrojaner mit ins Nirvana zu jagen. Dieser Akt der Befreiung führt übrigens nicht zu digitaler Handlungsunfähigkeit, eher im Gegenteil, gibt es mittlerweile doch genügend freie, open source Betriebssysteme und Anwendungssoftware. Die ist sogar leichter zu installieren als der Monopolkram, sicherer sowieso, und deckt mittlerweile die allermeisten Bedürfnisse der Arbeit mit dem Computer ab.

In diese zehntausende von freien Softwarepaketen sind im Laufe der letzten ca. 20 Jahre beträchtliche, oft hochqualifizierte Arbeitsmengen eingeflossen, und sie kann sich der Enteignung und Unterdrückung entziehen. Ersteres durch entsprechende Lizenzen und nahezu kostenlose Kopierbarkeit z.B. über das Internet. Zweiteres durch die Integration in die Infrastruktur des Internet und kommerzieller Softwareproduktion, die sie (die freie Software) auch für die kapitalistische Produktion unverzichtbar macht. Wie dieser erstaunliche, für alle Interessierten verfügbare Wohlstand an freier Software zustande kommt, wäre auf jeden Fall eine eigene Abhandlung wert, das sprengt hier trotz der hohen Relevanz für libertären Erkenntnisgewinn den Rahmen, aber zum Glück gibt es bereits ([ Grassmuck ], S. 202ff).

Bei aller Konsumfreundlichkeit, die freie Softwarepakete inzwischen erreicht haben, gilt auch für diesen Akt der Befreiung eines Umstiegs auf solche Software: gemeinsam macht es mehr Spaß und ist nachhaltiger. Da Software beim heutigen Stand der Technik prinzipiell keine Perfektheit garantieren kann, kann es natürlich auch bei open source Software Probleme geben. Einen großen Anteil an diesen Problemen stellen Schwierigkeiten bei der Hardwareunterstützung dar, weil Hardwarehersteller oft nur Treiber für Micro$oft-Betriebssysteme erstellen und keinen Quellcode ("source") der Treibersoftware oder Spezifikationen der Hardware veröffentlichen, mit denen dann freie Treiber programmiert werden könnten. Ein Grund mehr, das de facto M$-Monopol endlich auf den Misthaufen der Geschichte zu werfen - und sich über die Genialität des Konzepts der offenen Standards im Internet zu freuen.

2.3.4. Verschlüsselung, Sicherheit und Anonymität

Nach der Vergesellschaftung der Programmcodes kommen wir nun zu einem privateren Thema, bei dem genau das Gegenteil von Vergesellschaftung der Zweck ist, nämlich die Durchsetzung eines Freiraums namens Privatsphäre, angeblich ein Grundrecht in bürgerlichen Gesellschaften. Durch Digitalisierung und Vernetzung sind die technischen Möglichkeiten zur Datenschnüffelei und -manipulation in Orwellsche Dimensionen gewachsen, und die Schwellen zum Eingriff werden mit jedem "Terror"-Ruf weiter gesenkt.

Glücklicherweise ist im digitalen Bereich dagegen Kraut gewachsen, und zwar mathematisches. Die heute verfügbaren kryptographischen Algorithmen erlauben Übertragung und Speicherung ohne dass es auf absehbare Zeit praktikable Gegenmaßnahmen des Knackens und Manipulierens gäbe. Dazu ist allerdings einiges zu beachten, denn Sicherheit ist ein komplexes Thema, und Sicherheitslösungen sind höchstens so stark wie ihr schwächstes Glied. Und das befindet sich meistens vor der Tastatur, d.h. ohne gewisse Grundkenntnisse, die eine/n NutzerIn die Bedeutung der Handlungen bei der Bedienung von Sicherheitssoftware verstehen lassen, kann die tollste Mathematik mit einem Klick nutzlos werden.

Eine Mindestanforderung an Verschlüsselungs- und andere Sicherheitssoftware ist die Quelloffenheit ("open source"), denn nur durch die Analyse der Software durch möglichst viele, kompetente und unabhängige Dritte kann bestmöglich sichergestellt werden, dass sie keine Hintertürchen hat. Leider verbreitetes Gegenbeispiel: angeblich verschlüsselte Internet-Telefonie mit Skype.

Vom größten Sicherheitsproblem des heutigen Internet, den nicht quelloffenen Viren äh Betriebssystemen von Micro$oft, hat sich der/die LeserIn spätestens nach der Lektüre des vorigen Abschnitts ja schon verabschiedet. Aber auch bei freier Software gilt, wenn sie am Internet betrieben wird: kryptographisch signierte Sicherheitsaktualisierungen einspielen! Für den Mailverkehr verwendet man PGP in seiner freien Inkarnation GnuPG und fixt auch möglichst alle seine virtuellen KommunikationspartnerInnen darauf an. (Der vorige Satz enthält zwar virales Marketing, aber für die Verteidigung der Privatsphäre gegen die Großen und Kleinen Brüder haben wir das genehmigt.-)

Festplattenverschlüsselung ist auch empfehlenswert, aber meist betriebssystemabhängig. Bei der Übertragung von Authentifizierungsinformationen im Internet, z.B. beim Abruf oder Versand von mail oder beim Einloggen in interne Bereiche von Websites, achtet man auf die Verwendung verschlüsselter Übertragungsprotokolle. Falls der jeweilige Provider so etwas nicht anbietet, sollte man spätestens dann über den Wechsel zu einem alternativen Serverprojekt nachdenken.

Ein etwas anders gelagertes Problem für die Privatsphäre besteht in unvermeidlichen Datenspuren, die man im Internet bereits dadurch hinterlässt, dass man es nutzt - egal wie. Denn die eigene IP-Adresse muss notwendig in jedem Datenpaket enthalten sein, dass man versendet. Dadurch können Suchmaschinen mitschneiden, von welcher IP-Adresse aus sich jemand für ein bestimmtes Thema interessiert hat. Wenn man - wie die meisten Konsumenten - keine feste IP Adresse hat, bekommt man sie vom Provider zugeteilt, und spätestens über diesen können die Organe dann feststellen, wer sich für ihnen suspekte Themen interessiert hat. Gegen so etwas helfen Anonymisierungsdienste, im einfachsten Fall ein vertrauenswürdiger Webproxy. Kryptographisch ausgeklügelt ist das Anonymisierungsnetzwerk Tor ("the onion router"), z.Z. wohl das beste freie System für diesen Zweck, das sogar gegen eine Komplettüberwachung des eigenen Internetzugangs helfen kann. Allerdings ist das Surfen darüber bisweilen langsam, d.h. der/die LeserIn könnte sinnvollerweise überlegen, selbst einen Tor-Knoten zu betreiben und damit das Netzwerk zu verbessern und aktiv auch etwas für die Privatsphäre anderer zu tun. Solche fortgeschritteneren Fragen wie auch alle einfacheren in Sachen emanzipatorischer Internetnutzung und -gestaltung erörtert man am besten nach der oben gegebenen Empfehlung: Bildet Banden!

Quellen

[ FNord] AutorInnenkollektiv um Frank Nord: „Anarchismus und Internet“. < http://projekte.free.de/anarchismus-und-internet/>. S. 247-275in: Anarchismus 2.0. Bestandsaufnahmen. Perspektiven.Hrsg. von Hans Jürgen Degen und Jochen Knoblauch , Schmetterling Verlag Stuttgart , April 2009. ISBN 3-89657-052-8. < http://www.schmetterling-verlag.de/start.htm?page=5&isbn=3-89657-052-8>.

[ DadA] Datenbank des deutschsprachigen Anarchismus . < http://www.dadaweb.de/>, < http://projekte.free.de/dada/>.

[ Grassmuck] Volker Grassmuck : Freie Software - zwischen Privat- und Gemeineigentum . 2., korrigierte Auflage, Bonn , 2004. ISBN 3-89331-569-1. < http://freie-software.bpb.de/>.

[ Musch] J. Musch , : „Die Geschichte des Netzes: ein historischer Abriß.“. < http://www.uni-duesseldorf.de/home/Fakultaeten/math_nat/WE/Psychologie/abteilungen/ddp/Dokumente/Publications/1997.Musch.Die_Geschichte_des_Netzes.html>. In: B. Batinic , : Internet für Psychologen, Göttingen , 1997.

[ Gillies] James Gillies , / , : „Die Geburt des Internet“. < http://www.mediaculture-online.de/fileadmin/bibliothek/gillies_internet/gillies_internet.html>. In: Die Wiege des Web, Heidelberg , 2002.

[ Bradner] S Bradner : The Internet Standards Process . Revision 3. BCP9, RFC2026. Oktober 1996. < ftp://ftp.rfc-editor.org/in-notes/rfc2026.txt>.

[ Crocker] D. Crocker , : „Making Standards the IETF Way“. < http://www.isoc.org/internet/standards/papers/crocker-on-standards.shtml>. In: StandardView, Vol 1, No. 1, September 1993, S. 48-56. ISSN 1067-9936.

[ Rutkowski] Anthony M. Rutkowski : Today's Cooperative Competitive Standards Environment For Open Information and Telecommunication Networks and the Internet Standards-Making Model . 1994. < http://www.isoc.org/internet/standards/papers/amr-on-standards.shtml>.

[ ITU] ITU (International Telecommunication Union): T-MPLS agreement: ITU-T and IETF . 2007. < http://www.itu.int/ITU-T/newslog/TMPLS+Agreement+ITUT+And+IETF.aspx>.

[ IAB] IAB and IESG (Internet Architecture Board and Internet Engineering Steering Group): T-MPLS use of the MPLS Ethertypes . 2007. < https://datatracker.ietf.org/documents/LIAISON/file470.txt>.

[ Licklider I] J.C.R. Licklider , : „Man-Computer Symbiosis“. < ftp://ftp.digital.com/pub/DEC/SRC/research-reports/SRC-061.pdf>. In: IRE Transactions on Human Factors in Electronics, volume HFE-1, S. 4-11, März 1960.

[ Licklider II] J.C.R. Licklider : Memorandum For Members and Affiliates of the Intergalactic Computer Network . 1960. < http://packet.cc/files/memo.html>, < http://www.kurzweilai.net/articles/art0366.html?printable=1>.

[ RAND] RAND: History and Mission . < http://www.rand.org/about/history/>.

[ Baran I] Paul Baran / et al.: On Distributed Communications (I-XI) . RAND, Santa Monica, 1964. < http://www.rand.org/about/history/baran.list.html>.

[ Baran II] Paul Baran , : „On Distributed Communications Networks“. < http://ieeexplore.ieee.org/search/wrapper.jsp?arnumber=1088883>. In: IEEE Transactions on Communications, Volume CS-12, Issue 1, März 1964, S. 1-9, ISSN 0096-1965.

[ Davies] D.W. Davies , / / / : „A digital communication network for computers giving rapid response at remote terminals“. < http://doi.acm.org/10.1145/800001.811669>. In: Proceedings of the first ACM symposium on Operating System Principles, Gatlinburg, Tennessee - October 1967.

[ Barber] Derek Barber , : „The Origins of Packet Switching“. < http://www.cs.man.ac.uk/CCS/res/res05.htm#f>. In: Computer Resurrection, The Bulletin of the Computer Conservation Society, No. 5, Frühjahr 1993.

[ Roberts I] Lawrence G. Roberts , : „Multiple Computer Networks and Intercomputer Communication“. < http://www.packet.cc/files/multi-net-inter-comm.html>, < http://doi.acm.org/10.1145/800001.811680>. In: Proceedings of the first ACM symposium on Operating System Principles, Gatlinburg, Tennessee - October 1967.

[ Roberts II] Lawrence G. Roberts , : „The Evolution of Packet Switching“. < http://www.packet.cc/files/ev-packet-sw.html>, < http://ieeexplore.ieee.org/search/wrapper.jsp?arnumber=1455410>. In: Proceedings of the IEEE, Volume 66, Issue 11, November 1978, S. 1307-1313, ISSN 0018-9219.

[ Leiner] Barry M. Leiner / Vinton G. Cerf / David D. Clark / Robert E. Kahn / Leonard Kleinrock / Daniel C. Lynch / Jon Postel / Larry G. Roberts / Stephen Wolff : A Brief History of the Internet . Version 3.32, Dezember 2003. < http://www.isoc.org/internet/history/brief.shtml>.

[ Baran III] Paul Baran , : „Founding Father“. < http://www.wired.com/wired/archive/9.03/baran_pr.html>. Interview von Stewart Brand in: Wired Magazine, Volume 9, Issue 3, März 2001.

[ NWG] NWG (Network Working Group): ARPA Network Mailing Lists . RFC300, Januar 1972. < ftp://ftp.rfc-editor.org/in-notes/rfc300.txt>.

[ Crocker] Steve Crocker : Documentation conventions . RFC3, April 1969. < ftp://ftp.rfc-editor.org/in-notes/rfc300.txt>.

[ Kirstein] Peter T. Kirstein : Early Experiences with the ARPANET and INTERNET in the UK . Juli 1998. < http://nrg.cs.ucl.ac.uk/mjh/kirstein-arpanet.pdf>.

[ Kalle] Claus Kalle , : „Das Internet in Deutschland - Ein alter Hut ?“. < http://www.uni-koeln.de/rrzk/kompass/64/wmwork/www/k64_15.html>. In: RRZK-Kompass, Ausgabe Nr. 64, Dezember 1994.

[ NSFNET] NSFNET: A Partnership for High-Speed Networking, Final Report 1987-1995 . < http://www.merit.edu/networkresearch/projecthistory/nsfnet/pdf/nsfnet_report.pdf>.

[ NSF] NSF (National Science Foundation), Office of Inspector General: Review of NSFNET . April 1993. < http://www.nsf.gov/pubs/stis1993/oig9301/oig9301.txt>.

[ CNI] CNI (Coalition for Networked Information): NSFNET Acceptable Use Policy . < http://www.cni.org/docs/infopols/NSF.html>.

[ Halabi] Sam Halabi / with Danny McPherson : Internet Routing Architectures . Second Edition, Cisco Press, August 2000. ISBN 1-57870-233-X. < http://www.ciscopress.com/title/157870233X>.

[ DE-CIX] DE-CIX: DE-CIX Customers . < http://www.de-cix.net/content/clients.html>.

[ Berners-Lee] Tim Berners-Lee : Information Management: A Proposal . CERN, März 1989. < http://www.w3.org/History/1989/proposal.html>.

[ McKenna] McKenna : 867 F.Supp. 202, MTV NETWORKS, A DIVISION OF VIACOM INTERNATIONAL, INC., Plaintiff, v. Adam CURRY, Defendant. No. 94 Civ. 3271 (LMM) . United States District Court, S.D. New York, Oktober 1994. < http://www.loundy.com/CASES/MTV_v_Curry.html>.

[ Clark] David D. Clark : A Cloudy Crystal Ball - Visions of the Future . IETF, Juli 1992. < http://ietf20.isoc.org/videos/future_ietf_92.pdf>.

[ Hoffman] Paul Hoffman : The Tao of IETF: A Novice's Guide to the Internet Engineering Task Force . FYI17, RFC4677, September 2006. < ftp://ftp.rfc-editor.org/in-notes/rfc4677.txt>, < http://www.ietf.org/tao.html>.

[ Alvestrand] Harald Tveit Alvestrand : A Mission Statement for the IETF . BCP95, RFC3935, Oktober 2004. < ftp://ftp.rfc-editor.org/in-notes/rfc3935.txt>.

[ Hovey] Richard Hovey / Scott Bradner : The Organizations Involved in the IETF Standards Process . BCP11, RFC2028, Oktober 1996. < ftp://ftp.rfc-editor.org/in-notes/rfc2028.txt>.

[ ICANN] ICANN: Internet Corporation for Assigned Names and Numbers . < http://www.icann.org/en/about/>.

[ Hofmann] Jeanette Hofmann , : „Internet Corporation for Assigned Names and Numbers (ICANN)“. < http://www.globaliswatch.org/files/pdf/GISW_ICANN.pdf>. In: Global Information Society Watch 2007 Report. Hrsg. von Association for Progressive Communications (APC)und Third World Institute (ITeM), Mai 2007.

[ Müller-Maguhn] Andy Müller-Maguhn : Regierungs erklärung . Oktober 1996. < http://www.datenreisen.de/papers/Regierungserklaerung.html>.

[ RIPE] RIPE: About the RIPE NCC . < http://www.ripe.net/info/ncc/>.

[ ISC] ISC: ISC Internet Domain Survey . < http://www.isc.org/index.pl?/ops/ds/>.

[ Bleich] Holger Bleich , : „Bosse der Fasern“. < http://www.heise.de/ct/05/07/088/>. In: c't, Ausgabe Nr. 7/ 2005, S. 88.

[ Handley] Mark Handley , : „Why the Internet only just works“. < http://www.cs.ucl.ac.uk/staff/M.Handley/papers/only-just-works.pdf>. In: BT Technology Journal, Vol 24, No 3, S. 119-129, Juli 2006.

[ Bundesnetzagentur] Bundesnetzagentur: Eckpunkte der Zusammenschaltung IP-basierter Netze . Februar 2008. < http://www.bundesnetzagentur.de/media/archive/12699.pdf>.

[ AK Vorrat] AK Vorrat (Arbeitskreis Vorratsdatenspeicherung): Stoppt die Vorratsdatenspeicherung! - Hintergrund-Informationen . < http://www.vorratsdatenspeicherung.de/content/view/78/86/lang,de/>.

[ Betroffene] Betroffene: §129a-Verfahren "Militante Kampagne gegen den G8-Gipfel" eingestellt - Erklärung Betroffener . Oktober 2008. < http://gipfelsoli.org/Home/Heiligendamm_2007/Repression_G8_2007/5552.html>.

[ Schmidt] Caroline Schmidt , / : „Lautloses Ende“. < http://wissen.spiegel.de/wissen/dokument/53/16/dokument.html?id=61086135>. In: DER SPIEGEL, Nr. 42, Oktober 2006, S. 86f.

[ Einstellung] Einstellung: Wie wird man Terrorist? . November 2007. < http://gipfelsoli.org/Home/Heiligendamm_2007/Repression_G8_2007/5552.html>.

[ Klein] Mark Klein : Declaration of Mark Klein . Unites States District Court Northern District Of California, C-06-0672-VRW, Juni 2006. < http://www.eff.org/files/filenode/att/Mark%20Klein%20Unredacted%20Decl-Including%20Exhibits.PDF>.

[ EFF] EFF (Electronic Frontier Foundation): NSA Spying . < http://www.eff.org/issues/nsa-spying>.

[ Bundestagsdrucksache] Bundestagsdrucksache: Aufbau neuer Strukturen des Bundes zur Telekommunikationsüberwachung . Deutscher Bundestag, 16/10137, August 2008. < http://dip21.bundestag.de/dip21/btd/16/101/1610137.pdf>.

[ ETSI] ETSI (European Telecommunications Standards Institute): Lawful Interception . < http://www.etsi.org/WebSite/Technologies/LawfulInterception.aspx>.

[ Moechel] Erich Moechel : Die ETSI-Dossiers . Telepolis, März 2001. < http://www.heise.de/tp/r4/artikel/7/7220/1.html>.

[ Schäuble] Wolfgang Schäuble , : „Ich schütze, ich gefährde sie nicht“. < http://www.taz.de/1/politik/schwerpunkt-ueberwachung/artikel/1/ich-schuetze-ich-gefaehrde-sie-nicht/>. Interview in der tazvom 14. Oktober 2006.

[ Kamluk] Vitaly Kamluk : Botnetze - Geschäfte mit Zombies . Mai 2008. < http://www.viruslist.com/de/analysis?pubid=200883611>.

[ Indymedia] DDOS-Attacke auf deutsches Indymedia . 31.12.2008. < http://de.indymedia.org/2008/12/237782.shtml>.

[ Dahl] Frédéric Dahl : Der Storm-Worm . Universität Mannheim, März 2008. < http://pi1.informatik.uni-mannheim.de/filepool/theses/diplomarbeit-2008-dahl.pdf>.

[ Schneier] Bruce Schneier : Gathering 'Storm' Superworm Poses Grave Threat to PC Nets . Oktober 2007. < http://www.wired.com/politics/security/commentary/securitymatters/2007/10/securitymatters_1004>.

[ Horkheimer/Adorno] Max Horkheimer / Theodor W. Adorno : Dialektik der Aufklärung . Frankfurt am Main, 1988. ISBN 3-596-27404-4. Erstveröffentlichung: 1947.

[ Maturana/Varela] Humberto R. Maturana / Francisco J. Varela : Der Baum der Erkenntnis . 1987. ISBN 3-442-11460-8, (Taschenbuchausgabe).

[ ORSN] ORSN: Open Root Server Network . < http://www.orsn.org/>.

[ CCC] CCC (Chaos Computer Club): Anleitung zur Konfiguration der DNS-Einstellungen . Juni 2003. < http://www.ccc.de/censorship/dns-howto/>.

[ Barbrook] Richard Barbrook , / : „Die kalifornische Ideologie“. < http://www.heise.de/tp/r4/artikel/1/1007/1.html>. S. 15-36in: Netzkritik. Materialien zur Internet-Debatte. Hrsg. von nettime, Berlin 1997. ISBN 3-89408-060-4.

[ Lovink] Geert Lovink : kritik der "kalifornischen ideologie" . Interview von Richard Brem, Mai 2003. < http://matrix.orf.at/bkframe/030504_1.htm>.

[ Barlow] John Perry Barlow : A Declaration of the Independence of Cyberspace . Februar 1996. < http://homes.eff.org/~barlow/Declaration-Final.html>. Deutsche Übersetzung: < http://www.heise.de/tp/r4/artikel/1/1028/1.html>.

[ Jesus I] Jesus : Evangelium nach Johannes . Kapitel 18, Vers 36. < http://www.bibel-aktuell.org/kapitel/joh18:36#b>.

[ Jesus II] Jesus : Evangelium nach Markus . Kapitel 12, Vers 17. < http://www.bibel-aktuell.org/kapitel/mar12:17#b>.

[ Dyson] Esther Dyson / George Gilder / George Keyworth / Alvin Toffler : Cyberspace and the American Dream: A Magna Carta for the Knowledge Age . August 1994. < http://www.pff.org/issues-pubs/futureinsights/fi1.2magnacarta.html>.

[ Debian] Debian: Debian-Gesellschaftsvertrag . April 2004. < http://www.debian.org/social_contract.de.html>.

[ riseup.net] riseup.net: Riseup Networks' Social Contract . < http://help.riseup.net/policy/social-contract/>.

Index

A

Abmahnunwesen, Der Staat
alternativer Namensraum (DNS), Regulation von unten
Anarchosyndikalismus, Kollektive Vereinzelung
Anonymisierungsdienste, Verschlüsselung, Sicherheit und Anonymität
AS, Autonomes System, Qualitative Offenheit, Netztopologie
AUP, Kommerz und WWW
Ausforschungsparagraphen 129/a/b StGB, Der Staat
Autopoiese, Gedankenexperiment: Anarchismus als Internet

C

Communications Decency Act (CDA), Freiheit mit Staat und Markt?
Copyright-Industrie, Der Staat, Freiheit mit Staat und Markt?

F

Festplattenverschlüsselung, Verschlüsselung, Sicherheit und Anonymität
file sharing, Der Staat

H

Handlanger kapitalistischer Unternehmen, Der Staat
Hardwareunterstützung, Freie, open source Software

I

IMP, Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET
Infrastruktur
Anschlussleitungen zu den Endkunden, Netztopologie
backbone, Kommerz und WWW, Netztopologie
Glasfaserstrecken, Netztopologie
Internet-Knotenpunkte
DE-CIX, Kommerz und WWW
IX, Kommerz und WWW, Netztopologie
NAP, Kommerz und WWW
Mailgateways, Kommerz und WWW
Rechenzentren, Netztopologie
Rootserver des DNS, Eindeutige Nummern und Namen
Server, Netztopologie
Supercomputerzentren, TCP/IP, BSD Unix, CSNET, NSFNET, Internet
Überkapazitäten, Netztopologie
Wege(rechts)inhaber, Netztopologie
Innovationszyklus, Kapitalismus und/oder Innovation
Institutionen
(D)ARPA, Militärisch-wissenschaftliche Wurzeln, "packet switching"
CERN, Kommerz und WWW
DFN, Der Staat
MIT, Militärisch-wissenschaftliche Wurzeln, "packet switching"
NPL, Militärisch-wissenschaftliche Wurzeln, "packet switching"
RAND, Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET
UCL, ARPANET
UCLA, Militärisch-wissenschaftliche Wurzeln, "packet switching"
Internet-Organisationen
DENIC, Eindeutige Nummern und Namen
IAB, Standards
IANA, Eindeutige Nummern und Namen
ICANN, Eindeutige Nummern und Namen, Vom Internet lernen ...
IESG, Standards
IGF, Standards
IRTF, Standards
ISOC, Standards
RIPE NCC, Eindeutige Nummern und Namen
RIR, Eindeutige Nummern und Namen
WSIS, Standards
Internet-Prinzipien
beliebige Verbindungen, Beliebige Verbindungen zwischen allen hosts, Kommerz und WWW, Kapitalismus und/oder Innovation
Dezentralität, ARPANET
Digital, Digital
Kopierbarkeit, Digital
packet switching, Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET
Paketorientierung, Paketorientierung
Redundanz, ARPANET
Internet-Protokoll
ftp, ARPANET
http, Kommerz und WWW
IP, Quantitative Offenheit
IP-Adresse, Qualitative Offenheit, Verschlüsselung, Sicherheit und Anonymität
Länge, Quantitative Offenheit
Vergabe, Eindeutige Nummern und Namen, Vom Internet lernen ...
Zuordnung Domainname, Eindeutige Nummern und Namen
IPv4, Quantitative Offenheit, Qualitative Offenheit
IPv4-Präfixe, Qualitative Offenheit
IPv6, Quantitative Offenheit, Kapitalismus und/oder Innovation
multicast, Kapitalismus und/oder Innovation
NCP, Qualitative Offenheit, ARPANET, TCP/IP, BSD Unix, CSNET, NSFNET, Internet
TCP, Kapitalismus und/oder Innovation
TCP/IP, TCP/IP, BSD Unix, CSNET, NSFNET, Internet
telnet, ARPANET
Internettelefonie, Qualitative Offenheit

K

kalifornische Ideologie, Freiheit mit Staat und Markt?
kostenlose Dienste, Datenmüll und Verbrechen
Kundendaten, Konzerne - nein danke!

M

Mailboxnetze, "Bildet Banden!"
Markennamen, Kommerz und WWW
Marktförmigkeit, Freiheit mit Staat und Markt?
Monopolisierungsversuche, Herstellerneutrale, offene Standards

O

offene Netzwerkarchitektur, Quantitative Offenheit
operative Autonomie, Vom Internet lernen ...
Organisierung vor Ort, "Bildet Banden!"
Organisierungspotential, Kollektive Vereinzelung
overlay network, Regulation von unten

R

rechtsfreie Räume, Kommerz und WWW
Regulationsmethoden, Regulation von unten
Repression, Freiheit mit Staat und Markt?
Router, Paketorientierung
Routing
-Informationen, Netztopologie
-Tabellen, Qualitative Offenheit
CIDR, Kapitalismus und/oder Innovation
Nachbarschaftsverbindungen, Netztopologie
Protokoll, BGP, Qualitative Offenheit, TCP/IP, BSD Unix, CSNET, NSFNET, Internet
suboptimales, Netztopologie
Umstellung auf BGP4, Kapitalismus und/oder Innovation

S

Schutz der Persönlichkeitsrechte von Nazis, Der Staat
Selbstoptimierung, Gedankenexperiment: Anarchismus als Internet
Sicherheitsprobleme, Kapitalismus und/oder Innovation
Sicherheitssoftware, Verschlüsselung, Sicherheit und Anonymität
Skype, Verschlüsselung, Sicherheit und Anonymität
Social Contract, Freiheit mit Staat und Markt?
Software
Betriebssysteme
BSD Unix, TCP/IP, BSD Unix, CSNET, NSFNET, Internet
open source, Freie, open source Software
Unix, Qualitative Offenheit
Webbrowser
Mosaic, Kommerz und WWW
Mozilla/Firefox, Kommerz und WWW
Netscape, Kommerz und WWW
soziale Dimension, Kollektive Vereinzelung
Spam, Datenmüll und Verbrechen
Staatliche Organe
BKA, Der Staat
Bundesnetzagentur, Netztopologie
GCHQ, Der Staat
NSA, Der Staat
Verfassungsschutz, Der Staat
Standardisierungsgremien
IETF, Herstellerneutrale, offene Standards, Standards
ISO, Kommerz und WWW
ITU, Herstellerneutrale, offene Standards
OSI, Herstellerneutrale, offene Standards
Standards
Entwicklung von, Standards
Ethernet, Herstellerneutrale, offene Standards
HTML, Kommerz und WWW
MPLS, Herstellerneutrale, offene Standards
RFCs, ARPANET
Schnittstellen zum Abhören, Der Staat
SGML, Kommerz und WWW
X.500, Herstellerneutrale, offene Standards
Stromverbundnetz, Internet undstattoder Anarchismus
Subnetz, Netztopologie
Symmetrie zwischen Distribution und Bezahlung, Freiheit mit Staat und Markt?

T

Tauschbörsen, Der Staat
Technoliberalismus, Freiheit mit Staat und Markt?
Telefonnetz, Herstellerneutrale, offene Standards
Telekommunikationsüberwachungsverordnung, Kommerz und WWW
tor, Der Staat, Verschlüsselung, Sicherheit und Anonymität
transit, Netztopologie
transit traffic, Kommerz und WWW
Transportnetz, Herstellerneutrale, offene Standards
Trennung von Transportinformation und Nutzlast, Regulation von unten
Trennungsgebot von Polizei und Nachrichtendiensten, Der Staat

V

Verbot von Anonymisierungsdiensten, Der Staat
Verbundprojekt, Gedankenexperiment: Anarchismus als Internet
Verknappungsinstanzen
geistiges Eigentum, Eindeutige Nummern und Namen
Lizenzen, Quantitative Offenheit
Markennamen, Eindeutige Nummern und Namen
Monopole, Quantitative Offenheit
Verknüpfung von virtueller und realer Identität, Der Staat
Verpflichtung zur Überwachung, Der Staat
Verschlüsselte Übertragungsprotokolle, Verschlüsselung, Sicherheit und Anonymität
Verstopfungszusammenbrüche, Kapitalismus und/oder Innovation
virtuelle Freiheit, Freiheit mit Staat und Markt?
virtuelle Republik, Freiheit mit Staat und Markt?
Vorratsdatenspeicherung, Kommerz und WWW, Der Staat
VPN, virtual private network, Regulation von unten