Anarchismus und Internet - Entwicklung und Situation des Internet sowie seine wechselseitigen Bezüge zum Anarchismus - AutorInnenkollektiv um Frank Nord Versionsinformation: DocBook source $Revision: 1.30 $ Textvariante: Director's cut. ("midi") Zusammenfassung Der erste Teil dieses Textes beschreibt das Internet - seine technischen Grundideen, seine geschichtliche Entwicklung, seine Organisation und einige seiner Probleme. Im zweiten Teil wird das Internet in wechselseitiger Beziehung zum Anarchismus betrachtet. Es werden Eigenschaften des Internet wie Dezentralität, Einheit und Wachstumsdynamik zur Inspiration für den Anarchismus interpretiert. Umgekehrt wird der Anarchismus zur Analyse praktischer und ideologischer Probleme des Internet herangezogen. Schließlich werden konkrete Handlungsbereiche für die libertäre Internetnutzung aufgezeigt. Der erste Teil des Textes kann auch für sich alleine gelesen werden. Der zweite Teil baut auf den Erklärungen des ersten Teils auf. Der Text ist in drei Varianten ("mini", "midi" und "maxi") verfügbar. Die vor allem im ersten Teil kürzere "mini" Variante entspricht dem Text des Beitrages "Anarchismus und Internet" in der Anthologie Anarchismus 2.0 (ISBN 3-89657-052-8), die von Hans Jürgen Degen und Jochen Knoblauch herausgegeben wurde und im April 2009 im Schmetterling Verlag erschien. In der "maxi" Variante des Textes werden Begriffe und Zusammenhänge des Internet ausgiebig dargestellt, damit sie auch für Laien verständlich sind. Die jeweils aktuelle Version dieses Textes wird über das Internet auf folgender Website verfügbar gemacht: http://projekte.free.de/ anarchismus-und-internet/ ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ Inhaltsverzeichnis Einleitung 1. Das Internet 1.1. internet-Technologie 1.1.1. Digital 1.1.2. Unabhängigkeit vom Übertragungsmedium 1.1.3. Paketorientierung 1.1.4. Beliebige Verbindungen zwischen allen hosts 1.1.5. Herstellerneutrale, offene Standards 1.1.6. Quantitative Offenheit 1.1.7. Qualitative Offenheit 1.2. Entwicklung des Internet 1.2.1. Militärisch-wissenschaftliche Wurzeln, "packet switching" 1.2.2. ARPANET 1.2.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet 1.2.4. Kommerz und WWW 1.3. Organisation des Internet 1.3.1. Standards 1.3.2. Eindeutige Nummern und Namen 1.3.3. Netztopologie und Besitzverhältnisse 1.4. Probleme und Kritik des Internet 1.4.1. Kapitalismus und/oder Innovation 1.4.2. Der Staat 1.4.3. Datenmüll und Verbrechen 1.4.4. Kollektive Vereinzelung 2. Internet undstattoder Anarchismus 2.1. Vom Internet lernen ... 2.1.1. Dezentralität und Einheit 2.1.2. Gedankenexperiment: Anarchismus als Internet 2.2. Vom Anarchismus lernen ... 2.2.1. Regulation von unten 2.2.2. Freiheit mit Staat und Markt? 2.3. Praktische Möglichkeiten 2.3.1. "Bildet Banden!" 2.3.2. Konzerne - nein danke! 2.3.3. Freie, open source Software 2.3.4. Verschlüsselung, Sicherheit und Anonymität Quellen Index Abbildungsverzeichnis 1.1. Zeitleiste 1.2. Zentrale, dezentrale, verteilte Kommunikationsnetze Einleitung Aus einer anarchistischen Perspektive betrachten wir mit diesem Text [FNord ] das Internet, seine Technologie und seine historischen und gesellschaftlichen Dimensionen. Voraussetzung dafür ist zumindest eine ungefähre Vorstellung davon, wie das Internet funktioniert. Deshalb kommen wir um einige technische Erklärungen nicht herum. Da im Verlaufe dieses Beitrags einige technische Begriffe auftauchen werden, zur Klarstellung eines vorweg: Eine rein technische Lösung zur Befreiung der Gesellschaft (von Herrschaft, Ausbeutung, Staat, ...) kann es nicht geben. "Befreiung" ist ein an Subjekte gebundener Begriff, und nur sie können die urhebende und beurteilende Instanz einer Befreiung sein. Es ist aber auch klar, dass Subjekte, die sich befreien (wollen), dazu organisatorische und auch technische Hilfsmittel benutzen. Von der klandestinen Kommunikation über die aufklärerische Betätigung der Druckerpresse bis hin sogar zu bewaffneten Milizen findet sich ein breites Spektrum historisch jeweils verfügbarer organisatorischer und technischer Mittel auch bei anti-autoritären, anarchistischen Befreiungsbestrebungen. Dies gilt offensichtlich auch heute für die Nutzung des Internet, vor allem zum Zwecke der internen und externen Kommunikation. Es wäre sicher ein interessantes und nützliches Projekt, libertäre Internetnutzung - etwa analog zu DadA (Datenbank des deutschsprachigen Anarchismus) [DadA] bei Druckmedien - zu katalogisieren und zu analysieren, aber es soll im Folgenden um andere, tiefer liegende Bezüge zwischen Anarchismus und Internet gehen. Diese Bezugnahmen basieren auf bzw. resultieren in einer Doppelthese, dass nämlich einerseits "das Internet" Prinzipien und Erfahrungen "des Anarchismus" bewusst(er) in seine Entwicklung aufnehmen könnte (bzw. sollte), während andererseits "der Anarchismus" die Prinzipien und Erfahrungen "des Internet" zum Aufbau gesellschaftlicher Freiräume und emanzipatorischer Entwicklungsprozesse wirksam machen könnte - und u.E. auch sollte. Trotz vieler positiver Bezugnahmen auf das Internet in diesem Text sollte nicht vergessen werden, dass auch eine Lebensführung ohne Internet nicht diskriminiert werden darf. Kapitel 1. Das Internet Inhaltsverzeichnis 1.1. internet-Technologie 1.1.1. Digital 1.1.2. Unabhängigkeit vom Übertragungsmedium 1.1.3. Paketorientierung 1.1.4. Beliebige Verbindungen zwischen allen hosts 1.1.5. Herstellerneutrale, offene Standards 1.1.6. Quantitative Offenheit 1.1.7. Qualitative Offenheit 1.2. Entwicklung des Internet 1.2.1. Militärisch-wissenschaftliche Wurzeln, "packet switching" 1.2.2. ARPANET 1.2.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet 1.2.4. Kommerz und WWW 1.3. Organisation des Internet 1.3.1. Standards 1.3.2. Eindeutige Nummern und Namen 1.3.3. Netztopologie und Besitzverhältnisse 1.4. Probleme und Kritik des Internet 1.4.1. Kapitalismus und/oder Innovation 1.4.2. Der Staat 1.4.3. Datenmüll und Verbrechen 1.4.4. Kollektive Vereinzelung Das Internet ist die offene Form der geschlossenen Anstalt. —Sprichwort. Das Internet ist das weltweit größte Datenübertragungsnetz, das auf internet-Technologie basiert. Zunächst folgt ein Abriss zentraler Merkmale der Technologie des Internet als Grundlage für die anschließenden Darstellungen seiner organisatorischen und gesellschaftlichen Dimensionen. Dabei ist Internet mit großem I "das" Internet, während "internet" mit kleinem i ein beliebiges Datenübertragungsnetz meint, das internet-Technologie verwendet, unabhängig davon, ob eine Verbindung zu "dem" Internet besteht oder nicht. Das englischsprachige Wort "internet" kann als Zusammenziehung von "interconnected networks" gelesen werden, meint also miteinander verbundene Netzwerke, ein Netz von Netzen. Die im Folgenden angegebenen Quellen sind soweit möglich über das Internet abrufbare Originalarbeiten und daher überwiegend englischsprachig. Wer Muße für eine ausführlichere deutschsprachige Darstellung hat, dem sei das Internet Kapitel ([Grassmuck ], S. 179ff) des Buches "Freie Software" empfohlen, welches sowohl zum download als auch staatlich subventioniert als Papierausgabe von der Bundeszentrale für politische Bildung bereitgestellt wird. Ebenfalls brauchbar und im Internet abrufbar sind [Musch] und [Gillies]. 1.1. internet-Technologie 1.1.1. Digital 1.1.2. Unabhängigkeit vom Übertragungsmedium 1.1.3. Paketorientierung 1.1.4. Beliebige Verbindungen zwischen allen hosts 1.1.5. Herstellerneutrale, offene Standards 1.1.6. Quantitative Offenheit 1.1.7. Qualitative Offenheit 1.1.1. Digital Dies bedeutet, dass Daten digitalisiert werden müssen, ehe sie in einem internet übertragen werden können. Digitalisierung ist die Rasterung eines physikalischen Originals in seine digitale Kopie. Ob der damit unvermeidlich verbundene Qualitätsverlust relevant ist, müssen letztlich die NutzerInnen der Kopie entscheiden. So ist die Bevorzugung von Vinyl-Platten gegenüber Audio-CDs bei einer Minderheit von HiFi-Freaks sicher nicht (nur) deren kollektiver Halluzination geschuldet, sondern Resultat des fundamentalen Unterschieds zwischen analoger und digitaler (d.h. kontinuierlicher und diskreter) Abbildung. Für den Hausgebrauch wird dieser Unterschied aber immer weniger relevant, da Digitalisierungstechnik Massenware geworden ist (Hendi, Digitalkamera, DVBT, ...). Und selbst wenn jemand noch einen Analog-Telefonanschluss mit Omas Telefon als Endgerät hat, so ist spätestens in der nächsten Vermittlungsstelle Schluss mit analog, weil dort digitalisiert werden muss, denn auch das Telefonnetz ist mittlerweile im Innern komplett digitalisiert. Insofern ist die Digitalität von internet-Technologie nichts aufregend Neues, bildet aber wegen der perfekten Kopierbarkeit digitaler Daten eine wichtige konzeptionelle Grundlage des Internet und seiner Nutzung. 1.1.2. Unabhängigkeit vom Übertragungsmedium Die Unabhängigkeit vom Übertragungsmedium ist zwar als technisches Prinzip spannend, aber für den Hausgebrauch auf den ersten Blick uninteressant. Schaut man sich aber die diversen Zugangsmöglichkeiten der HausgebraucherInnen zum Internet an, so ist dies für das Wachstum der TeilnehmerInnenzahlen am Internet doch sehr relevant, kann der Zugang doch über analoge (Modem) oder digitale (ISDN) Telefonanschlüsse erfolgen, über DSL wie über Kabelfernsehanschlüsse, über Funk (WLAN) oder Satellit etc. Alles geht, solange das Medium eine digitale, bidirektionale Übertragung erlaubt. Entsprechendes gilt auch im Inneren des Internet, wo zunehmend optische Übertragungswege wegen ihrer hohen Bandbreite genutzt werden. 1.1.3. Paketorientierung Auch die Paketorientierung eines internet ist für dessen NutzerInnen erstmal unsichtbar. Sie besagt, dass zusammengehörige Daten in kleine Pakete aufgeteilt werden und unabhängig voneinander durch das internet über Zwischenknoten zu ihrem Ziel transportiert werden. Da jedes Paket Ursprungs- und vor allem die Zieladresse selbst enthält, muss ein Zwischenknoten ("router") nichts über den Datenstrom wissen, zu dem ein Paket gehört, er muss das Paket nur einen Schritt näher zu seinem Ziel bringen. Dies ist nicht nur ein wesentlicher Unterschied zur inneren Logik der leitungsorientierten Telefonnetze sondern konzeptionell relevant, da sie die Endknoten wichtiger macht und die Zwischenknoten des Netzes voneinander unabhängiger. 1.1.4. Beliebige Verbindungen zwischen allen hosts Technischer Sinn eines internet ist es, jederzeit beliebige Verbindungen zwischen allen angeschlossenen Geräten (hosts) zu ermöglichen. D.h. u.a., dass alle NutzerInnen die jederzeitige Möglichkeit haben (sollen), bei Interesse auf die von jedem der verschiedenen hosts in ihrem internet zur Verfügung gestellten (Daten)Dienste zuzugreifen. Umgekehrt kann prinzipiell jede/r TeilnehmerIn selbst solche Dienste anbieten, solange sein Computer (host) im jeweiligen internet erreichbar ist. Unter dem Stichwort "file sharing" ist der/die LeserIn ja vielleicht schon einmal einem Kollateralschaden dieses grundlegenden internet-Konzepts begegnet. 1.1.5. Herstellerneutrale, offene Standards Mit den herstellerneutralen Standards kommen wir nun auf die meta-technische Ebene des Internet-Prozesses. Die im Internet angewandte Standardisierungsmethodik [Bradner], [Crocker] ist u.a. eine wichtige Sicherung gegen Monopolisierungsversuche - eine reale Gefahr, die immer wieder gern von Bill Gates Firma veranschaulicht wird. Da in einem internet Geräte und Programme unterschiedlicher Hersteller kooperieren müssen, ist eine Beachtung der Standards für die Hersteller unverzichtbar um "mitspielen" zu können. Damit die Standards aber auch etwas taugen und zu einer Akzeptanz der von ihnen jeweils beschriebenen Technik bei den NutzerInnen beitragen, sollten technische Expertise, ökonomische Umsetzung und NutzerInneninteressen möglichst an einem Strang ziehen. Dies ist im Internet offenbar besser gelöst als in den traditionellen Gremien, die auf national strukturierten Normungsgremien basieren, denn anders wäre das rasante Wachstum des Internet technisch gar nicht umsetzbar gewesen. Zum Vergleich sei hier beispielhaft an die Monopolbemühung "BTX" der seligen Bundespost erinnert oder an die Verbreitung von OSI-Protokollen im Vergleich zu internet-Protokollen (s. dazu [Rutkowski], [Crocker]). Wobei brauchbare OSI-Bemühungen auch als internet-Techniken assimiliert werden, z.B. X.500, und neuerdings die ITU (Internationale Fernmeldeunion, eine Unterorganisation der UN) sich für Hochleistungsprotokolle (bei) der IETF (Internet Engineering Task Force) bedient bzw. sich mit ihr arrangieren muss (s. [ITU], [IAB]), da internet-nahe Protokolle wie Ethernet und MPLS sich auch in Transportnetzen ausbreiten, die sowohl dem Telefonnetz als auch dem Internet zugrunde liegen. 1.1.6. Quantitative Offenheit Wachstum braucht quantitative Offenheit, und die ist im Internet zum einen durch die offene Netzwerkarchitektur (s.o. Unabhängigkeit vom Übertragungsmedium bis beliebige Verbindungen) fundiert, zum anderen durch das Fehlen von Verknappungsinstanzen, wie staatliche Lizenzvergabe oder ganz allgemein Monopole. So erfordert etwa die Einbindung eines neuen internet in "das" Internet lediglich drei Schritte: erstens das Herstellen einer geeigneten physikalischen Übertragungsverbindung, zweitens eine koordinierte Vergabe eindeutiger IP (internet protocol) Adressen an den neuen Teil des Internet, und drittens die Bekanntmachung der neuen Verbindung in den globalen Routingtabellen durch diejenigen, die die Verbindung mit dem neuen Teil des Internet hergestellt haben. Der Clou: das neue internet, das dadurch Teil des großen Internet geworden ist, kann nun (entsprechende Übertragungskapazitäten vorausgesetzt) seinerseits weitere, bisher abgekoppelte internets in "das" Internet assimilieren. Das u.a. dadurch ermöglichte rasante Internet-Wachstum insb. seit Mitte der 1990er Jahre hat allerdings insofern eine absolute Schranke, als dass die Zahl verschiedener IPv4-Adressen wg. deren fester Länge von 32 bit mit ca. 4 Milliarden endlich ist. Hier ist ein Ende der technischen Fahnenstange absehbar, aber es gibt ("natürlich") auch technische Konzepte dagegen, wie etwa das mangelverwaltende NAT (mehrere Rechner teilen sich eine Adresse und sind dadurch keine vollwertigen hosts mehr) oder vor allem das neue internet protocol IPv6 mit 128 bit Adressen ("genug für alle und alles":). 1.1.7. Qualitative Offenheit Ohne pauschal einem "Umschlagen der Quantität in Qualität" nach- oder gegenzureden: es ist das bisherige quantitative Wachstum des Internet nicht ohne qualitatives Wachstum denkbar. So wurde z.B. kurz nach dem Umstellen des damaligen ARPANET von NCP auf (das noch heute gebrauchte) IPv4 1983 das domain name system (DNS) entwickelt. Es war nötig, um das gewachsene Netz trotz der vielen hosts für Menschen nutzbar zu halten, die sich nunmal (Domain)Namen besser merken können als Ziffernkolonnen (IP-Adressen, die sich darüber hinaus bei Netzwerkänderungen ebenfalls ändern). Das DNS ist nichts weniger als eine dezentral verwaltete und betriebene globale Datenbank. Seit den 1990ern wird BGP als Routingprotokoll zwischen den autonomous systems (AS, ca. "Provider") genutzt, um die Illusion, dass jede jeden im Internet erreichen kann, trotz des quantitativen Wachstums real bleiben zu lassen. Zur Zeit (Ende 2008) enthalten die damit dezentral verwalteten globalen Routing Tabellen etwa 30000 AS mit insg. 270000 sog. IPv4-Präfixen (ca. "Netze"). Die Integration immer neuer Techniken, wie z.B. e-mail, Ethernet, Unix, das World Wide Web oder Internettelefonie, war einerseits eine Reaktion auf quantitatives Wachstum (Anzahl der hosts und der TeilnehmerInnen, verfügbare Bandbreite und Rechenleistung), andererseits auch die Voraussetzung für qualitatives Wachstum. Rückgrat des qualitativen Wachstumsprozesses wiederum ist der offene Standardisierungsprozess (s.o.). Nicht nur technologische Qualitätssprünge wechselwirken mit quantitativen, auch organisatorische, wie in der ersten Hälfte der 1990er der Übergang vom überwiegend staatlich finanzierten Forschungsnetz zum marktförmig kommerziellen, das heißt in unserer Epoche: kapitalistischen Internet. 1.2. Entwicklung des Internet 1.2.1. Militärisch-wissenschaftliche Wurzeln, "packet switching" 1.2.2. ARPANET 1.2.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet 1.2.4. Kommerz und WWW Abbildung 1.1. Zeitleiste Entwicklung des Internet 1.2.1. Militärisch-wissenschaftliche Wurzeln, "packet switching" The definition of enemy is still open. —Paul Baran [Baran III] Nach dem "Sputnik-Schock" 1957 wurde im US-Kriegsministerium die (D)ARPA ((Defense) Advanced Research Projects Agency) gegründet, als Forschungsförderungsinstitution für militärtechnologischen Fortschritt zwecks Überlegenheit gegenüber der UdSSR. Neben unmittelbar militärischen Projekten wurde auch Grundlagenforschung gefördert, etwa im Bereich der Computertechnologie. Einer der frühen Visionäre der Computernutzung im allgemeinen und von Computernetzwerken im speziellen war der Wissenschaftler am MIT (Massachusetts Institute of Technology) J.C.R. Licklider, dieser schrieb bereits 1960(!): "It seems reasonable to envision, for a time 10 or 15 years hence, a 'thinking center' that will incorporate the functions of present-day libraries together with anticipated advances in information storage and retrieval and the symbiotic functions suggested earlier in this paper. The picture readily enlarges itself into a network of such centers, connected to one another by wide-band communication lines and to individual users by leased-wire services. In such a system, the speed of the computers would be balanced, and the cost of the gigantic memories and the sophisticated programs would be divided by the number of users." ([Licklider I], S. 8) Licklider war von 1962-1964 beim ARPA als Direktor des Information Processing Techniques Office für die Forschungsförderung zuständig und schrieb dort zum Verhältnis von Militär und Forschung: "I am hoping that there will be, in our individual efforts, enough evident advantage in cooperative programming and operation to lead us to solve th[e] problems and, thus, to bring into being the technology that the military needs. When problems arise clearly in the military context and seem not to appear in the research context, then ARPA can take steps to handle them on an ad hoc basis. As I say, however, hopefully, many of the problems will be essentially as important, in the research context as in the military context." [Licklider II] Zu dieser Zeit wurde im "militärischen Kontext" bereits sehr detailliert über ausfallsichere Kommunikationsnetze nachgedacht, die gegnerische Angriffe auf die "command and control" Infrastruktur bestmöglich überstehen sollten. Am RAND, dem ersten US think tank, der unmittelbar nach dem 2. Weltkrieg zur fortgesetzten Zusammenarbeit zwischen Militär, Industrie und Wissenschaft gegründet wurde [RAND], wurde 1964 eine Reihe von Schriften herausgegeben, in denen Paul Baran die Grundzüge des "Distributed Adaptive Message Block Network", eines digitalen, paketorientierten, vermaschten Kommunikationsnetzes, darstellt und analysiert [Baran I], [Baran II]. Abbildung 1.2. Zentrale, dezentrale, verteilte Kommunikationsnetze Zentrale, dezentrale, verteilte Kommunikationsnetze - Aus Barans Beschreibung eines digitalen, paketorientierten, vermaschten Kommunikationsnetzes Mitte der 1960er, aber offenbar unabhängig von Baran hatte der britische Physiker und Mathematiker Donald Davies am dortigen National Physical Laboratory (NPL) ähnliche Konzepte erarbeitet [Davies], [Barber]. Und schließlich hatte der MIT-Wissenschaftler Leonard Kleinrock in der ersten Hälfte der 1960er Jahre zur Theorie der Leistungsfähigkeit digitaler Netze gearbeitet. Diese drei Wurzeln fanden vmtl. erst auf einer Konferenz 1967 zusammen, als der beim ARPA für das ARPANET verantwortliche MIT-Wissenschaftler von einem britischen Kollegen über Barans Arbeit bei RAND erfuhr [Roberts II], [Leiner]. Bis dahin waren Erfahrung und Konzept der Roberts-Gruppe gerade einmal auf der Ebene einer Kopplung von zwei Computern [Roberts I] angekommen. Erst mit Barans "packet switching" als Netzwerkprinzip [Baran I], [Davies] war die Basis des ARPANET komplett, auch wenn Roberts (mittlerweile?) das Gegenteil behauptet ([Roberts II] vs. [Barber], [Baran III]). Die britische Gruppe entwickelte - mangels weitergehender Förderung immerhin - ein lokales paketorientiertes Netz (LAN = local area network) mit der relativ hohen Bandbreite von 1 Mb/s, das bis in die 1980er Jahre am NPL in Benutzung war. Das ARPA beauftragte die Produktion von IMPs (interface message processor) bei BBN (Bolt, Beranek, Newman - Technologiefirma im Umfeld des MIT), deren erster im September 1969 an die UCLA (University of California at Los Angeles) an Kleinrocks Gruppe geliefert wurde. Ende 1969 bildeten IMPs mit den zugehörigen hosts an vier Standorten den operativen Anfang des ARPANET. Verbunden waren sie über 50 kb/s Leitungen - die Bandbreite war auf Anregung der britischen Gruppe gegenüber dem ursprünglichen Konzept deutlich erhöht worden [Roberts II], [Leiner]. Trotz des militärischen Hintergrundes waren die Entwicklungsarbeiten am ARPANET nicht "classified", sondern (fach)öffentlich, was die Einbeziehung von und Wechselwirkung mit anderen am Thema arbeitenden Gruppen erleichterte und die Entwicklung sicher beschleunigt und verbessert hat (s. z.B. die kanadischen und westeuropäischen RFC-Empfänger in ([NWG] S. 5f)). 1.2.2. ARPANET War das nun entstehende ARPANET als Vorläufer des Internet militärisch oder nicht? Streng genommen: nicht militärisch, da die früheren Arbeiten am RAND nicht in die ursprüngliche Konzeption des ARPANET einflossen, insbesondere nicht unter der Fahne von "command and control". Barans packet switching Konzepte sind allerdings klar militärisch motiviert, und da sie im ARPANET ebenso wie im Folgenetz Internet Anwendung fanden, waren bzw. sind diese "indirekt militärisch", da sie diese Technologie benutzen. Paradoxerweise war Baran selbst das Konzept deshalb sehr wichtig, weil ein erstschlagsresistentes militärisches Kommunikationsnetz einen Atomkrieg insgesamt unwahrscheinlicher macht - egal welche Atommacht es als erstes implementiert [Baran III], deshalb hatte er es ja auch publiziert [Baran II]. Und zwar wegen der dadurch zu erwartenden "Kosten" eines Erstschlags für den Angreifer, da dieser einen Gegenschlag des Angegriffenen nicht mehr durch das Ausschalten ein(ig)er Zentrale(n) sicher verhindern könnte. Nicht weniger paradox, dass die dafür wichtigen Prinzipien der Dezentralität und Redundanz selbst für anarchistische Gesellschaftsvorstellungen wichtig sind. Von größerer praktischer Relevanz als solche Grundsatzdiskussionen dürfte aber sein, dass der cash flow für das ARPANET von der Militärbehörde ARPA kam. Den beteiligten Wissenschaftlern kann man diese Verstrickung insofern nicht vorwerfen, als dass es keine Alternative zur Finanzierung ihrer Ideen einer räumlich verteilten Computernutzung gab, denn im kommerziellen Bereich waren die thematisch Zuständigen, die Telefongesellschaften, nicht mobilisierbar, da sie monopolisiert-verknöchert waren und so im alten mentalen Bezugssystem der Leitungsvermittlung feststeckten, dass packet switching eine Revolution dargestellt hätte. Das ab 1969 implementierte ARPANET war also der erste praktische Versuch eines WAN (wide area network) auf der Basis von packet switching. (Zumindest der erste öffentlich bekannte Versuch: Baran [Baran III] erwähnt einen erfolgreichen, geheimen militärischen Test mit einem Dutzend Funkstationen, vmtl. Anfang oder Mitte der 1960er. Dabei, so sagt er, wurde ein (digitales) Fernschreibsignal durch Frequenzmodulation unhörbar in ein ansonsten amplitudenmoduliertes Funksignal eingebracht und unbemerkt mitübertragen - ein genialer hack.) Zunächst galt es, das ARPANET überhaupt funktionsfähig und benutzbar zu machen, was durchaus (ebenso wie die Arbeit am NPL) als Pionierleistung bezeichnet werden kann. Im Unterschied zur Gruppe am NPL waren die am ARPANET beteiligten Gruppen räumlich weit verteilt und ohne übergeordneten "Chef", der das genaue weitere Vorgehen dekretiert hätte. Da die von BBN gelieferten IMPs nur die Transportmöglichkeit für Datenpakete boten, fehlten insb. die host-to-host Protokolle, ohne die es keine Nutzung des Netzes für AnwenderInnen gab. Die überregionale, wechselseitige Nutzung von Computerkapazitäten und Programmen zwischen allen vom ARPA geförderten Gruppen war aber der (proklamierte) Sinn des ARPANET. So organisierten die beteiligten Gruppen den zur Spezifikation und Implementierung dieser Protokolle erforderlichen Diskurs selbst, der im April 1969 (also Monate vor der Lieferung der ersten IMPs) zu den ersten RFCs (request for comment) führte. Zur Veranschaulichung sei der paradigmatische RFC3 zitiert: "The Network Working Group seems to consist of Steve Carr of Utah, Jeff Rulifson and Bill Duvall at SRI, and Steve Crocker and Gerard Deloche at UCLA. Membership is not closed. [...] The content of a NWG note may be any thought, suggestion, etc. related to the HOST software or other aspect of the network. Notes are encouraged to be timely rather than polished. [...] These standards (or lack of them) are stated explicitly for two reasons. First, there is a tendency to view a written statement as ipso facto authoritative, and we hope to promote the exchange and discussion of considerably less than authoritative ideas. Second, there is a natural hesitancy to publish something unpolished, and we hope to ease this inhibition." [Crocker] Dieser offene, anti-autoritative Stil dürfte (neben dem ARPA cash flow;-) wesentlichen Anteil an der nun beginnenden Erfolgsgeschichte haben. Diese führt vom NCP (network control program) über Applikationsprotokolle wie telnet (ab RFC97) und ftp (ab RFC114), die heute noch in Gebrauch sind. Und kaum dass ARPANET funktionierte und langsam wuchs, wurden neue Anwendungen ersonnen, allen voran e-mail (ab RFC196), welche für den Austausch unter den Beteiligten und damit die weitere Evolution des Netzes katalytisch war. Im Oktober 1972 wurde das ARPANET auf der ersten internationalen Konferenz über Computerkommunikation in Washington D.C. öffentlich demonstriert. Mit nicht weniger als dem Echtzeitzugriff vom Konferenzort auf über 40 entfernte hosts (s. RFC372, RFC384) und deren Programme über das ARPANET. Es folgt 1973 die Internationalisierung durch eine Verbindung nach Großbritannien zum UCL (University College London), ein technischer und (anti)bürokratischer hack [Kirstein]. 1.2.3. TCP/IP, BSD Unix, CSNET, NSFNET, Internet Ebenfalls 1973 beginnen bereits die Arbeiten an der nächsten Protokollgeneration namens TCP (transmission control protocol). Sinn des neuen Protokolls war die Möglichkeit, Verbindungen zwischen Computern in verschiedenen Netzen herstellen zu können, insbesondere sollte das ARPANET mit Satelliten- und Bodenfunknetzen verbunden werden, was natürlich auch für militärische Anwendungen und damit die Geldgeber interessant war. Ebenso von Funknetzen inspiriert war die gleichzeitige Arbeit am Ethernet, der noch heute vorherrschenden Technik für lokale Netze (LANs). Aus beiden Entwicklungen geht schließlich 1978 TCP/IP Version 4 (RFC790 ff) hervor. TCP/IP abstrahiert von den zugrunde liegenden Transportnetzen um das Zusammenschalten intern ganz verschieden strukturierter Netze zu ermöglichen. Dazu wurden alle Funktionen außer dem reinen Transport der Pakete vom Netz in die Software der hosts verlagert. IPv4 ist die heute noch überwiegende Protokollfamilie im Internet. Im Laufe des Jahres 1982 wird das ARPANET selbst komplett von NCP auf TCP/IP umgestellt. Vom Department of Defense (US Kriegsministerium) wird es als Standard bei der Beschaffung von Computerausrüstung verwendet. 1983 erscheint BSD (Berkeley Software Distribution), ein frei verfügbares Unix Betriebssystem, in der Version 4.2. In diese ist - gefördert von der ARPA - TCP/IP integriert worden. Die inter-Netzwerkfähigkeit war Bestandteil des Betriebssystems geworden. Damit konnte sich internet Technologie in akademischen Kreisen schnell verbreiten. Parallel zum ARPANET hatten sich auch international diverse paketorientierte Netzinfrastrukturen gebildet. Auch in den USA selbst kam nur ein kleiner, eher elitärer Teil aller Forschungs- und Bildungseinrichtungen in den Genuss einer Anbindung ans ARPANET. So gab es weltweit viele Anstrengungen zur Ermöglichung von vernetztem Datenaustausch und darauf basierender Kommunikation zwischen Einrichtungen und später, mit dem Aufkommen von PCs (personal computer), auch Einzelpersonen. Dies wäre (mindestens) eine weitere Geschichte wert, wir begnügen uns aus Platzgründen mit Stichworten wie Tymnet, Cyclades, Telenet, X.25, uucp, Usenet, BITNET, CSNET, FidoNet. Ab 1981 förderte die NSF (National Science Foundation) das CSNET (Computer Science Network), welches nicht durch ARPA geförderte Einrichtungen miteinander und dem ARPANET verband. Zunächst über e-mail gateways, später auch als Echtzeitkopplung unter Verwendung von TCP/IP, seitdem der de facto Standard des inter-networking. Über das CSNET schließen sich auch international weitere Einrichtungen an das frühe Internet an, vergrößern es damit vor allem auch personell und machen internet-Technologie bekannter. Nicht nur technisch, auch organisatorisch ist ein heterogenes internet entstanden - das Internet. In einem nächsten Schritt fördert die NSF ab 1985 ein TCP/IP basiertes backbone Netz (NSFNET) zwischen Supercomputerzentren, das von angeschlossenen Netzen (wie CSNET) kostenlos zum Zugriff auf die Supercomputer genutzt werden kann. Es beginnt ein deutliches Wachstum des jungen Internet, indem sich an die vom NSF geförderten regionalen Netzwerke immer mehr lokale Netzwerke anschließen. Das eigentliche ARPANET, von dem die militärischen hosts 1983 sicherheitshalber in ein separates MILNET getrennt wurden, ist nur noch ein kleiner Teil des Internet und wird 1990 endgültig außer Betrieb genommen. 1991 wird der NSFNET backbone von 1,5 Mb/s auf 45 Mb/s Verbindungen aufgerüstet, ein Novum für packet switching. Ebenso die erste operative Nutzung von BGP (border gateway protocol), um das routing für die stark wachsende Zahl direkt und indirekt angeschlossener Netze noch handhaben zu können - am Ende des NSFNET 1995 waren es bereits über 50000 Netze aus über 90 Ländern (NSFNET, S. 33). Der Vollständigkeit halber sei erwähnt, dass es direkte Internet-Konnektivität in der BRD seit 1989 gibt und dass die folgende Durchsetzungsgeschichte von TCP/IP zunächst dem Muster "Kampf der Infizierten gegen die Institutionen" folgt (s. [Kalle]). 1.2.4. Kommerz und WWW Die Förderung einer eigenen akademischen Netzinfrastruktur durch die NSF war zeitlich und vom Fördervolumen begrenzt, sodass die regionalen Netze auch andere Finanzierungsquellen aufbauen sollten bzw. mussten. Da aber das NSFNET der backbone des damaligen Internet war, galten seine Nutzungsbedingungen (acceptable use policy (AUP), s. [NSF], S. 79f) auch für alle indirekt angeschlossen, da ihr traffic (Datenverkehr) notwendigerweise meistens über diesen backbone ging ([NSFNET], S.34). Darin waren kommerzielle Aktivitäten wie Werbung untersagt - der backbone wurde ja aus Steuermitteln finanziert. 1991 wurde die AUP auch zur Nutzung für wissenschaftliche Zwecke durch kommerzielle Forscher freigegeben (vgl. [CNI ] und [NSF], S. 79) und kommerzieller transit traffic gegen Entgelt über den backbone zugelassen ([NSF], S. 23). Der zunehmende kommerzielle Druck, das Internet auch fürs Business nutzen zu können, der auch zu Spannungen mit der akademischen Nutzergemeinde und staatlichen Stellen führte ([NSFNET ] S. 31f), hätte sich vmtl. früher oder später in einem separaten kommerziellen internet manifestiert, wenn die NSFNET-Administration nicht sowieso schon durch die Involvierung von MCI und IBM auf Kommerzkurs gewesen wäre ([NSFNET], S. 7ff). Nach zweimaliger Verlängerung der Förderung wird der NSFNET backbone 1995 schließlich stillgelegt, nachdem auch kommerzielle Provider existierten, die den traffic statt des NSFNET backbone transportieren konnten. Zu Konzepten und Details der Ablösung des NSFNET siehe ([Halabi], S. 7-25). Für diese Übergabe der Funktion, das Internet zusammen zu halten, an die kommerziellen Betreiber ([NSFNET] S. 40ff), wurde ein neues Element in die Internetarchitektur eingeführt, das bis heute üblich ist. Diese Internetknoten werden IX oder auch NAP genannt (internet exchange bzw. network access point). Das sind Gebäude mit entsprechender Infrastruktur, an denen die (überwiegend kommerziellen) Internet Provider untereinander traffic austauschen können ("peering"). Falls das Zielnetzwerk nicht direkt über das IX, zu dem ein Provider eine Verbindung hat, erreichbar ist, kann er traffic an überregionale Netzbetreiber übergeben ("transit"). Es gibt z.Z. weltweit über 100 solcher Internet-Knotenpunkte. Der größte in der BRD und durch den zunehmenden traffic von und nach Osteuropa mittlerweile einer der weltgrößten ist das DE-CIX in Bankfurt, an dem alle größeren Provider vertreten sind, mit erwähnenswerter Ausnahme des Erbmonopolisten Telekoma (s. [DE-CIX]). Überregionale Netzbetreiber haben eigene nationale, internationale oder gar interkontinentale backbones, sodass es heute diverse backbones im Internet gibt, nicht mehr einen wie zu Zeiten des NSFNET. Bei aller gebotenen Kritik am Kommerz ist das ein Vorteil für die Ausfallsicherheit und ein (weiterer) antimonopolistischer Aspekt des Internet. Der Kommerzialisierung der Infrastruktur folgte zunächst die Kommerzialisierung der Dienste, und mit dem Wegfall der AUP die Kommerzialisierung der Inhalte. Schon 1989 wurden erste Mailgateways zwischen dem Internet einerseits und MCI Mail und CompuServe andererseits eingerichtet. Im gleichen Jahr startete der erste kommerzielle Provider (world.std.com), der Kunden per Modemeinwahl Zugang zum Internet ermöglichte. Die Kommerzialisierung der Inhalte wurde (unbeabsichtigterweise) katalysiert durch eine Innovation aus dem wissenschaftlichen Bereich, dem world wide web ("WWW"). 1990 wurde am Genfer Hochenergiephysikzentrum CERN die erste Websoftware entwickelt und genutzt, um auf heterogene Dokumenten- und Datenbestände mit einer einheitlichen Benutzeroberfläche zuzugreifen. Grundideen sind Hypertext, Trennung von Datenformaten und ihrer Darstellung, Dezentralität, Erweiterbarkeit [Berners-Lee]. Um Hypertext, also miteinander verknüpfte Dokumente, dezentral aufbauen zu können, braucht man erstens eine Identifikationsmöglichkeit für Dokumente, und zweitens eine darauf beruhende Zugriffsmöglichkeit, die bei Vorlage der Dokumentenkennung das Dokument beschafft. Für beides bot das Internet eine gute Grundlage, auch weil mit dem DNS (domain name system) bereits ein Namensraum für den Echtzeitzugriff auf Netzwerkressourcen vorhanden war. Die offene internet Architektur bot Möglichkeiten, für die Kommunikation zwischen dem Programm des Benutzers ("browser") und den Servern bestehende Protokolle zu nutzen (z.B. ftp), aber auch ein für Hypertext spezialisiertes zu entwickeln (http, hypertext transfer protocol). Für das Format der Hypertextdokumente wurde auf einen vorhandenen ISO Standard zurückgegriffen, nämlich SGML (standard generalized markup language), um das im WWW noch heute verwendete HTML (hypertext markup language) zu spezifizieren. Graphische oder gar multimediale Inhalte waren zwar im Konzept des WWW vorgesehen ("Hypermedia"), aber zunächst von geringer Bedeutung im Vergleich zu textuellen Informationen und ihrer Verknüpfung. Dies änderte sich, als auch für mainstream PCs graphische Webbrowser verfügbar wurden, insb. 1993 das freie Mosaic, später von den gleichen Entwicklern das kommerzielle Netscape (heute wieder "befreit" als Mozilla/Firefox). Damit konnten auch Menschen ohne Kenntnis der internet Protokolle und ihrer jeweiligen Nutzung auf Ressourcen im Internet zugreifen - mit der Maus auf die hyperlinks zu klicken reichte bereits aus zur Navigation in diesem ständig wachsenden Informationsuniversum namens WWW. So wie e-mail die sog. Killerapplikation des frühen ARPANET und der späteren Zusammenschaltungen verschiedener Netze war, so wurde das WWW die Killerapplikation des entwickelten Internet. Die neue Qualität des WWW, die Verknüpfung der Inhalte und der leichte Zugang zu diesen, ist eine konsequente Weiterentwicklung des Internetprinzips, nämlich der beliebigen Verbindungen zwischen angeschlossenen Rechnern, auf die Ebene der Inhalte. Das WWW, eigentlich nur ein Dienst unter vielen im Internet, führte zu einem enormen quantitativen Wachstum des Internet, da sich nun auch die gesellschaftlich leider übliche Rollenverteilung von Konzern und Konsument abbilden ließ. Die Integration von Graphiken und Fotos in den Hypertext ermöglichte dann auch das Angebot von virtuellen Hochglanzprospekten und Illustrierten für die nun immer mehr ins Internet strömenden "Normalos". Mit mehr verfügbarer Bandbreite ließen sich auch Audiodaten und bewegte Bilder integrieren, sodass das WWW mittlerweile auch als Ersatz für Radio und Fernsehen dient - mit dem Vorteil, von den festen Programmen der Sender unabhängig zu sein, also jederzeit auf beliebige der im WWW angebotenen Inhalte zugreifen zu können. Die scheinbar kostenlose Selbstberieselung im WWW zahlt der Surfer durch ein Bombardement mit Werbebotschaften und der Erfassung seiner Nutzungsdaten. Dass die staatlich ermächtigten Wegelagerer von der GEZ auf internetfähige PCs nun auch noch eine "Gebühr" für die von Anderen erbrachten Leistungen kassieren dürfen, ist ein ironisches Sahnehäubchen auf der Torte des frisch gekürten Massenmediums Internet. Mit den Konzernen kamen auch die Markennamen ins Internet, und damit der Streit um Domainnamen. Im Internet sind sie ja ursprünglich nur als Gedächtnisstütze für Menschen und technisch zur Abstraktion von den zugrunde liegenden IP-Adressen eingeführt worden, sodass es nur die einfachst mögliche Regelung zur Verteilung der Domainnamen gab: wer zuerst kommt, mahlt zuerst. Damit die Konsumenten aber möglichst schnell ohne Umwege ihre Nase an der virtuellen Schaufensterscheibe des Konzerns plattdrücken können, hat dieser ein Interesse, dass der zugehörige Domainname dem Markennamen entspricht (einer der ersten Fälle war 1994 mtv.com [McKenna]). Zur Durchsetzung dieses kommerziellen Interesses konnten die Juristen nun auch das Internet zu ihrem Herrschaftsbereich erklären. So fehlte nicht viel, bis auch die staatlichen Gesetzgeber merkten, dass sie sich dort breit machen können. Ja sogar müssen, um der Gesellschaft mögliche rechtsfreie Räume, insbesondere eine eigene Öffentlichkeit, zu nehmen und obendrein ihre staatlichen, bisweilen totalitären Kontroll- und Überwachungsgelüste mit digitaler Perfektion umsetzen zu können (Stichworte: Telekommunikationsüberwachungsverordnung, Vorratsdatenspeicherung, China). Denn im Laufe der Geschichte des WWW ist nicht nur der Konsum von Inhalten einfacher geworden, sondern auch die Möglichkeiten, selbst zu publizieren. 1.3. Organisation des Internet 1.3.1. Standards 1.3.2. Eindeutige Nummern und Namen 1.3.3. Netztopologie und Besitzverhältnisse 1.3.1. Standards       We reject: kings, presidents and voting.       We believe in: rough consensus and running code.              —David D. Clark ([Clark], S. 19) Die Bedeutung von Standards bei Kommunikationsprotokollen ist so hoch einzuschätzen wie die von Normen in der industriellen Produktion oder von Containern im Welthandel, also essentiell für die Zusammenarbeit organisatorisch und räumlich getrennter Beteiligter. Die oben bereits erwähnten herstellerunabhängigen Standards des Internet werden überwiegend von den Arbeitsgruppen der Internet Engineering Task Force (IETF) entwickelt. Entgegen den insbesondere nationalen Standardisierungsgremien hat die IETF streng genommen noch nicht einmal den Status einer Organisation - sie hat keine Mitglieder, sondern "nur" individuelle Teilnehmer. Jede/r Interessierte kann sich auf den Mailinglisten der IETF und ihrer Arbeitsgruppen eintragen und mitarbeiten. Ebenso offen sind die dreimal jährlich stattfindenden Arbeitstreffen. Die Mitarbeit ist freiwillig und unbezahlt. Der auf den ersten Blick erstaunliche Ertrag an Standardisierungsleistung der IETF community (siehe die Liste der RFCs) hat als Grundlage natürlich die technische Kompetenz der Beteiligten, aber auch die weitgehende Abwesenheit von Anzugträgern ([Hoffman], S. 16) ist sicher hilfreich. Statt derer scheint Idealismus im Spiel zu sein: "The IETF community wants the Internet to succeed because we believe that the existence of the Internet, and its influence on economics, communication, and education, will help us to build a better human society." ([Alvestrand ], S. 2). Neben Offenheit und Freiwilligkeit sind noch mehrere Aspekte der IETF Arbeit methodisch interessant. Zunächst die klar zu formulierenden Zielvorgaben für die Arbeitsgruppen sowie ihre zeitliche Befristung. Es sollen ja aktuelle Probleme und Anforderungen im Internet behandelt werden - für Grundlagenforschung gibt es die Internet Research Task Force (IRTF). Der vergleichsweise knappe Zeitrahmen bevorzugt - im Unterschied zu den bisher üblichen Standardisierungsverfahren - Entwicklungen von eher knappen, doch dafür erweiterbaren Standards, die spätere Entwicklungen nicht vorwegnehmen, aber ermöglichen. Die Arbeitsgruppen der IETF haben zwar einen koordinierenden Vorsitzenden, aber Entscheidungen werden in einem informellen Konsens gefällt ("rough consensus"). D.h. erst wenn (fast) alle Teilnehmer die Gegenargumente für entkräftet halten, kann eine technische Lösung empfohlen werden, was den technischen Argumenten Vorrang vor Taktiererei oder sonstigen (mono-)politischen Interessen verschafft. Damit schließlich eine Empfehlung den Status eines Standards erlangen kann, müssen mindestens zwei unabhängige Implementierungen vorliegen, die interoperabel sind und damit einen praktischen Nachweis für die Tauglichkeit des Standards darstellen. Der offene Standardisierungsprozess im Internet und dessen Entwicklung vom frühen ARPANET und seinen ersten RFCs (als die Network Working Group eine Handvoll Aktiver zählte, s. das Zitat von RFC3 oben) zur heutigen IETF mit über 100 Arbeitsgruppen, über 1000 Teilnehmern auf Arbeitstreffen und insgesamt über 5000 publizierten RFCs ist sicher einer der wichtigeren Gründe, warum wir (d.h. diejenigen von uns, die Datennetzwerke nutzen) in einer Internet-Welt leben und nicht in einer ISO/OSI Welt. Nicht nur der Vollständigkeit halber sei erwähnt, dass die IETF zwar eher als community oder Prozess denn als Organisation bezeichnet werden kann, aber dass sie selbst(-)organisiert ist und in (formale) organisatorische Zusammenhänge eingebettet ist. Dies sind (in aufsteigender Reihenfolge) die Internet Engineering Steering Group (IESG), das Internet Architecture Board (IAB) und schließlich die Internet Society (ISOC), s. [Hovey]. Die ISOC hat über 80 Organisationsmitglieder und über 28000 individuelle Mitglieder. Neben der organisatorischen Rahmenstruktur für den Standardisierungsprozess agiert sie u.a. als Fürsprecherin eines ungehindert zugänglichen, unzensierten Internet auch auf globaler politischer Ebene, etwa den UN-Projekten WSIS (World Summit on the Information Society) und IGF (Internet Governance Forum). 1.3.2. Eindeutige Nummern und Namen Für das Funktionieren des Datenaustauschs zwischen teilnehmenden Systemen im Internet braucht es außer standardkonformer Software auch die konkrete Zuordnung verschiedener, durch die Standards spezifizierter, operativer Parameter zu den teilnehmenden Systemen. Die wichtigste dieser Zuordnungen ist die einer IP-Adresse, wobei sichergestellt werden muss, dass jede Adresse zu einem gegebenen Zeitpunkt höchstens einmal vergeben ist. Dies entspricht dem Problem der Vergabe von Telefonnummern im Telefonnetz, wo man sofort einsieht, dass nicht zwei verschiedene TeilnehmerInnen die gleiche Nummer haben sollten. Das zweitwichtigste dieser Probleme ist die Zuordnung der - im Vergleich zu den IP-Adressen gedächtnisfreundlichen - Domainnamen. Die "Oberhoheit" über die Zuordnung der Adressen und Domainnamen hat die IANA (Internet Assigned Numbers Authority), die bis 1998 im Wesentlichen aus Jon Postel, einem Internet-Urgestein bestand. Die IANA wurde dann Teil der 1998 gegründeten ICANN (Internet Corporation for Assigned Names and Numbers), mit Hauptsitz in Kalifornien. ICANN ([ICANN], [Hofmann]) ist formal eine gemeinnützige Firma ("nonprofit public benefit corporation"), die frühere Verträge der US-Regierung mit akademischen und kommerziellen Stellen zur Koordination der Parametervergabe fortführte. Auch wenn die US-Regierung als historischer Sponsor des Internet damit formal diese Kontrolle an eine nicht-Regierungs-Organisation abgab, ist dieser Abgabeprozess auch nach 10 Jahren noch nicht abgeschlossen. Die nennenswerteste Änderung, die durch ICANN erzielt wurde, ist eine weitgehende Auflösung des früheren NSI Monopols bei Domainnamen, die aber schon vor der Institutionalisierung der ICANN in Angriff genommen worden war. Etwas vereinfacht - und im Gegensatz zu der populären Formulierung "Weltregierung des Internet" - kann man ICANN beschreiben als (Selbst-) Regulierungsinstanz der Domainnamenwirtschaft unter Aufsicht des US-Handelsministeriums. Dabei hat das, was da bewirtschaftet wird, nämlich der Domainnamensraum, von sich aus zunächst gar keine Warenform, sondern musste durch juristische Verknappungskonstrukte (Markennamen, geistiges Eigentum) erst einmal entsprechend eigentumsförmig zugerichtet werden (s.o. mtv.com). Die im Jahre 2000 praktizierte Direktwahl von je einem ICANN-Direktor je Kontinent durch die InternetnutzerInnen blieb auch ein einmaliges Ereignis und wurde wegreformiert. Die Gründe dafür kann man in [ Müller-Maguhn], der "Regierungs erklärung" des damals von den europäischen NutzerInnen gewählten Direktors, erahnen:-) Ein derartiger kommerzieller Abgriff wie bei den Domainnamen ist mit den - technisch grundlegenderen - IP-Adressen glücklicherweise nicht geschehen. Hier erfolgt die Vergabe in etwa kontinentweise organisiert durch sog. RIRs (Regional Internet Registries), in Europa das RIPE NCC [RIPE]. Sie finanzieren sich durch Umlagen auf ihre Mitglieder, die ISPs (Internet Service Provider), welche auch gemeinschaftlich die jeweiligen Vergaberichtlinien in ihrer Region bestimmen. Ein ähnliches Selbstverwaltungsmodell findet sich übrigens auch bei der für die Vergabe von .de Domains zuständigen Organisation DENIC, einer Genossenschaft. Die gravierenden Unterschiede zwischen den Regulationsprozessen bei ICANN (politisch-wirtschaftlich) und insb. den RIRs (technisch-wirtschaftlich) haben einen technischen Angelpunkt: die Rootserver des DNS, deren operative Kontrolle die letztlich wirkende Autorität über den Domainnamensraum darstellt. Die Nutzung von IP-Adressen hingegen erfordert zwar Eindeutigkeit und von daher eine koordinierte Vergabe, aber operativ keine zentralen Strukturen (s.o.). 1.3.3. Netztopologie und Besitzverhältnisse Wie im Internet das Problem gelöst wird, die gegenseitige Erreichbarkeit von z.Z. vmtl. über 500 Millionen hosts [ISC] ohne zentrale Instanzen herzustellen, ist nicht nur von technischem Interesse. Ein host ist entweder direkt in einem LAN oder durch Zugang per Einwahl (Modem, ISDN) bzw. Zugangskonzentrator (DSL, TV-Kabel) Teil eines IP-Subnetzes. Außerhalb dieses Subnetzes muss nichts über die einzelnen hosts des Subnetzes bekannt sein, sondern nur über die Erreichbarkeit des gesamten Subnetzes. Subnetze sind - was die Verbindungen zum Internet angeht - Teil einer Organisation, die sich um diese Verbindungen kümmert. Eine Gruppe von Subnetzen, die eine gemeinsame Administration hinsichtlich ihrer Verbindungen ins Internet hat, wird Autonomes System ("AS") genannt. Meist ist dies ein ISP, aber auch Universitäten oder größere Firmen haben bisweilen eigene Verbindungen ins Internet. Die AS tauschen mit ihren jeweiligen AS-Nachbarn, zu denen sie eine Verbindung haben, Informationen über die Erreichbarkeit von Subnetzen aus. Zunächst natürlich über ihre jeweils eigenen Subnetze, wobei deren Informationen vorher nach Möglichkeit zu größeren Blöcken aggregiert werden. Die Adressvergabestrategien der RIRs (s.o.) zielen u.a. darauf ab, solche Aggregierungen zu ermöglichen, um dadurch die Menge im Internet zirkulierender routing Informationen so gering wie möglich zu halten. Des Weiteren werden aber auch routing Informationen, also Adressblöcke und der Weg zu ihnen, von den Nachbarn an deren Nachbarn weitergegeben, und das tun diese Nachbarn wiederum auch etc., sodass sich über die jeweiligen Nachbarschaftsverbindungen die Information über die Erreichbarkeit eines gewissen Subnetzes (bzw. des ihn enthaltenden Adressblocks) lawinenartig im gesamten Internet verbreitet. Die zu übertragenden Datenpakete schließlich, z.B. für eine nameserver Abfrage oder die Übertragung einer Webseite, können dann genau auf dem umgekehrten Weg wie die routing Informationen, die den Zieladressen der Pakete entsprechen, ans Ziel gelangen. Die Einheit - d.h. die vollständige wechselseitige Erreichbarkeit - des gesamten Internet basiert also letztlich nur auf bilateralen Vereinbarungen zwischen je zwei AS zur Herstellung einer Nachbarschaftsbeziehung. Jedes AS muss per Definition mindestens zwei Nachbarn haben, denn ansonsten wären seine Subnetze hinsichtlich des externen routings Teil seines einzigen Nachbarn und damit Teil von dessen AS. Dieses Grundkonzept der Redundanz wirkt auf verschiedenen Ebenen des Internet und führt damit trotz und wegen der Größe des Internet zu dessen erstaunlicher Stabilität. Durch die Kommerzialisierung des Internet sind die Nachbarschaftsbeziehungen überwiegend kommerziell und meist entweder eine Kundenbeziehung oder eine peering-Beziehung. Im ersten Fall kauft das kleinere AS (Kunde) vom größeren AS (Provider) die Leistung, dass Kundenpakete durch das Netz des Providers transportiert werden und darüber hinaus zum Rest des Internet (transit). Damit dieser Provider die Kundenpakete (und seine eigenen) auch an den Rest des Internet weiter transportiert bekommt, ist er selbst wiederum (transit-)Kunde eines oder mehrerer noch größerer AS und/oder er kann Teile des Internet durch peering-Beziehungen zu - meist etwa gleich großen - AS erreichen. Diese kommerzielle Struktur des Internet führt allerdings rein technisch gesehen zu suboptimalem routing. Dies wird kompensiert zum einen durch die diversen IX (s.o.), an denen die Provider mit vielen anderen Providern kostengünstig peering-Beziehungen aufbauen können, und durch die während der New Economy [tm] aufgebauten Überkapazitäten bei den Glasfaserverbindungen [Bleich]. Durch deren Geschwindigkeit wird auch ein suboptimales routing für die NutzerInnen nicht spürbar, im Gegensatz zum sog. World Wide Wait der 1990er Jahre. Außer den erwähnten Glasfaserstrecken besteht der "Körper" des Internet noch aus Rechenzentren sowie auf der anderen Seite den Anschlussleitungen zu den Endkunden und deren hosts. Die landgebundenen überörtlichen Glasfaserverbindungen gehören Wege(rechts)inhabern z.B. entlang von Pipelines, Überlandleitungen, Auto- und Eisenbahnen, also im Wesentlichen Energieversorgungs- und Telekommunikationskonzernen. Übertragungskapazitäten werden an Transportnetzbetreiber ("Carrier") und Internetprovider weiterverkauft. Die Rechenzentren des Internet befinden sich meist unmittelbar bei einem IX oder umfassen einen solchen, weil an einem IX Glasfasern verschiedener backbones zusammenlaufen und Bandbreite zum Rest des Internet dort kostengünstig zu bekommen ist. Diese Rechenzentren bestehen aus Hunderten von 19-Zoll-Schränken, in denen wiederum jeweils Dutzende von Servern betrieben werden, sowie der zugehörigen unterbrechungsfreien Stromversorgung und Klimatisierung. Die Betreiber der Server mieten sich von den Betreibern der Rechenzentren Schränke oder Teile von Schränken um ihre Server unter stabilen Bedingungen und mit hoher Geschwindigkeit und großer Bandbreite im Internet zugreifbar zu machen. Verbindung zum Internet bekommen sie dort von einem im Rechenzentrum präsenten Provider oder, wenn sie selbst AS sind, durch die oben genannten transit- und/oder peering-Beziehungen zu mehreren dort präsenten Providern. Soviel zu den "Dezentralen" des Internet, kommen wir zur Peripherie: an den Rändern des Internet befinden sich Privat- und Firmenkunden. Sie bezahlen Zugangsanbieter ("access provider") für die Bereitstellung einer Verbindung zum Internet um dann (üblicherweise) die von Servern angebotenen Dienste zu nutzen. Wenn Firmen selbst Dienste anbieten, sei es für die Internet-Öffentlichkeit oder zum Zugriff von Außenmitarbeitern oder Filialen auf das interne Netz, dann lassen sie sich meist über andere (symmetrische) Leitungstypen anbinden. Büros oder Privatpersonen die nur auf Dienste zugreifen werden mit billiger vermarkteten, asymmetrischen Leitungen angebunden. Die Leitungen am Rande des Internet, die sog. letzte Meile zu den Endkunden, gehören in der BRD den Nachfolgern des Postmonopols, also der Telekoma und den Betreibern von Kabelfernsehnetzen. Aber auch die Zugangsmöglichkeit über Mobilfunknetze sei erwähnt. Im Falle der Kupferadern zu den Endkunden muss der Erbmonopolist Telekoma die Konkurrenzkonzerne zu staatlich von der sog. Bundesnetzagentur definierten Konditionen die Kupferadern nutzen lassen. Die über Zugangsleitungen ans Internet angeschlossenen hosts schließlich gehören den jeweiligen Endnutzern. Die für das Internet wohl relevantesten Kapitalakkumulationen sind die in den Bereichen backbone-Leitungen, Endkundenanschlussleitungen, Hersteller von Übertragungstechnik und Routern für Carrier und Provider, Dienste für Endkunden (z.B. Google, werbefinanzierte Mailprovider), Softwarehersteller für Endkunden (Micro$oft). Diesen steht - in der IT-Branche traditionell - keine nennenswerte gewerkschaftliche Organisierung der Werktätigen gegenüber. 1.4. Probleme und Kritik des Internet 1.4.1. Kapitalismus und/oder Innovation 1.4.2. Der Staat 1.4.3. Datenmüll und Verbrechen 1.4.4. Kollektive Vereinzelung 1.4.1. Kapitalismus und/oder Innovation Der enorme quantitative Erfolg des Internet und sein schnelles Eindringen in die Gesellschaft hängen eng mit der kapitalistischen Organisierung des Internet seit Anfang der 1990er Jahre zusammen. Dass das Internet für die kapitalistische Verwertung relevant wurde, liegt zum einen in seiner Neutralität und Integrationsfähigkeit begründet, die einen Raum schufen, in dem auch Konkurrenten koexistieren konnten und damit zumindest indirekt kooperierten. Außerdem erhöhte jedes neu assimilierte Netz die Attraktivität des gesamten Verbundes, des Internet. Die daraus resultierende Dynamik und der dank WWW drastisch gestiegene Gebrauchswert für die EndnutzerInnen führten Mitte der 1990er zur "Kapitulation" der bis dahin isolierten (online-)Giganten wie CompuServe, AOL, Telekoma, Micro$oft in Form ihrer Teilnahme am Internet. Mittlerweile steht das Internet alternativlos im Bereich der elektronischen Geschäftskommunikation da, was einen hohen Erwartungsdruck auf sein Funktionieren und damit insb. die Anbieter der Verbindungen und der geschäftlich genutzten Dienste ausübt. Dies führt bei den operativ relevantesten IP-Technologien zu einem - verständlichen - Konservatismus, der den dreifaltigen Innovationszyklus des Internet unterbricht: damit das quantitative Wachstum (s.o) durch seine Möglichkeiten und Probleme ein qualitatives (s.o.) hervorbringen kann, werden technische Innovationen entwickelt und standardisiert (s.o.), die nun aber im Falle der operativen IP-Kerntechnologien höchstens peripher, aber nicht im Kern des Internet eingesetzt werden (zu Beispielen wie IPv6, multicast, QoS siehe [Handley]). Denn der dafür erforderliche Aufwand würde von einem kapitalistischen Internetunternehmen nur getrieben werden, wenn es dadurch entweder einen Marktvorteil größer als der Aufwand erzielen könnte, oder wenn es ohne die Innovation seine Wettbewerbsfähigkeit verlieren würde. Der erste Fall ist insofern unwahrscheinlich, als dass Veränderungen am Kern wegen der "Einheit des Internet" ja von allen daran Beteiligten umgesetzt werden müssten, also auch von den "Mitbewerbern", die dann aber den gleichen Wettbewerbsvorteil hätten, sodass er keiner mehr wäre. Der zweite Fall, also der Untergang eines Internetunternehmens wegen versäumter Innovation einer IP-Kerntechnologie, würde entweder dann eintreten, wenn die allermeisten der "Mitbewerber" den Innovationsaufwand betreiben würden, sodass bei einer vereinzelten Innovationsverweigerung nur ein geringer Schaden an der "Einheit des Internet" entstehen würde, der von den betroffenen Kunden des innovationsverweigernden Unternehmens durch deren zügigen Wechsel zu einem "Mitbewerber" geheilt werden würde. Dieser Fall ist theoretisch zwar durch eine Kartellbildung eines sehr großen Teils der am Kern beteiligten Unternehmen denkbar, aber praktisch wegen des vorhin behandelten Falles durch den im Endeffekt fehlenden Wettbewerbsvorteil unwahrscheinlich. Es bleibt der Fall eines operativen Zusammenbruchs des Internet durch quantitatives Wachstum bei gleichzeitigem Ausbleiben dafür erforderlicher Innovation, was - mindestens - zu einer Schrumpfung des Internetmarktes führen würde. Historisches Kollapsbeispiel sind die Verstopfungszusammenbrüche des noch jungen Internet der 1980er Jahre.([ Handley], S. 120) Durch die damaligen Eigenschaften des Kernprotokolls TCP führten Kapazitätsüberschreitungen zu einem kompletten Zusammenbruch, in etwa vergleichbar dem Problem in einem Stromnetz, wenn sich nach einem Ausfall bei Wiederkehr der Stromversorgung alle Geräte gleichzeitig ihren hohen Startstrom ziehen, was zu Überlastung und erneuter Abschaltung des Netzes führt. Seinerzeit konnten die akuten Probleme noch durch eine rückwärtskompatible Korrektur des TCP Protokolls und seiner Implementierungen gelöst werden. Aber schon dies war keine grundlegende Lösung mehr, da sie nur ein Protokoll betraf, welches zwar bisher den Großteil der Daten im Internet transportiert, aber z.B. für die heute zur Ausweitung der Kapitalverwertung angestrebten breitbandigen Echtzeitanwendungen (Stichwort technische Medienkonvergenz) technisch keine große Rolle spielt. Die letzte einschneidende Änderung am Kern des Internet geschah um 1993 ([Handley], S. 120f), als sich wegen des quantitativen Wachstums die Verfügbarkeit sog. Class B Adressblöcke erschöpfte und das routing im gesamten Internet auf CIDR (classless inter-domain routing) und damit BGP4 umgestellt werden musste. Dies war dadurch noch handhabbar, dass die Umstellung am Rande des Netzes rückwärtskompatibel gestaltet werden konnte und im Kern des Netzes keine hardware ausgetauscht werden musste, weil routing damals noch ohne Hardwareunterstützung beim forwarding auskam. Und Cisco, seinerzeit noch Monopolist in Sachen Internetrouter, hatte natürlich ein Interesse daran, seine proprietäre Routersoftware entsprechend zu ändern, um das weitere Wachstum "seines" Marktes zu ermöglichen. Kapitalismusinduzierte Innovationsprobleme gibt es beim Internet aber nicht nur im physischen Kernbereich, sondern auch an den Rändern. Insbesondere die Unterteilung in zahlungskräftige Firmenkunden und Konsumentenmassen hat zu einer sehr weit gehenden Verwendung von NAT (network address translation) geführt, wodurch die beim Endkunden angeschlossenen Geräte keine vollwertigen hosts mehr sind, da der Endkunde von seinem Provider nur eine IP-Adresse zugeteilt bekommt, die sich die verschiedenen Geräte teilen müssen. Dadurch wird ein zentrales Paradigma eines internet - beliebige Verbindungen zwischen beliebigen hosts - gebrochen, was dann auch zu massiven Komplikationen bei oder gar zur Unmöglichkeit von etlichen Protokoll-Innovationen führt, insb. auch solchen, die einen direkten Datenaustausch zwischen Endnutzern ermöglichen, also ohne den Umweg über zentrale Server. Einen verwandten Paradigmenbruch stellen auch firewalls dar, die nur selektiv Verbindungen zulassen. Das der breiten Verwendung von firewalls zugrunde liegende Sicherheitsbedürfnis lässt sich auch als Kollateralschaden der kapitalistischen Kommerzialisierung verstehen, da mit dem Geld das Verbrechen ins Netz kam und die Monokultur bei der Endnutzersoftware (Micro$oft) in der Tat eine sicherheitstechnische Dauerkatastrophe darstellt. Der Vollständigkeit halber sei zum Thema der kapitalistischen Innovationsdialektik noch daran erinnert, dass die letzte fundamentale, nicht rückwärtskompatible Innovation in der Geschichte des Internet der Umstieg von NCP auf TCP/IP war. Er wurde zum 1.1.1983 vom staatlichen Sponsor des ARPANET verordnet. 1.4.2. Der Staat Quantitativ spielt der Staat im Internet heute keine so herausragende Rolle mehr wie in den militärisch-akademischen Phasen der Internetentwicklung ( packet switching bis NSFNET). In Europa sind die ehemaligen staatlichen Telekommunikationsmonopole im Zuge der Neoliberalisierung bzw. der Abwicklung des sog. Realsozialismus privatisiert worden. In der BRD gibt es z.Z. (2008) insg. noch 32% direkte und indirekte Staatsanteile an der Deutschen Telekom AG. Im staatlich finanzierten Wissenschaftsbetrieb gibt es eigenständige Forschungsnetze, wobei in der BRD das Deutsche Forschungsnetz DFN mit seiner Hochgeschwindigkeitsinfrastruktur X-WiN als gemeinnütziger Verein organisiert ist, mit Hochschulen und Forschungseinrichtungen als Mitgliedern. Qualitativ bedeutsam für den kapitalistischen Internetbetrieb in der BRD ist der Staat besonders in seiner Doppelrolle als Großaktionär und Regulierer des Erbmonopolisten Telekoma und damit dem Setzen von Rahmenbedingungen für den Telekommunikationsmarkt. Neben Preis- und Verfahrensregelungen für die Nutzung der Kupferdrähte zu den Endverbrauchern oder die Durchleitung von Telefongesprächen, geht es mittlerweile auch um die Rahmenbedingungen der anstehenden technologischen Innovation, nämlich der kompletten Umstellung der Kommunikationsnetze auf paketvermittelte sog. Next Generation Networks [Bundesnetzagentur]. Diese Bemühung ist insbesondere zu verstehen vor dem Hintergrund der oben dargestellten kapitalismusbedingten Schwierigkeiten technischer Innovation bei Netzinfrastrukturen in verteiltem Besitz. Auf der Ebene der Inhalte betätigt sich der Staat im Internet sowohl als Handlanger als auch in eigener Sache. Zunächst zu seiner Rolle als Handlanger. Kapitalistische Unternehmen bedienen sich gerne der Justiz, um unliebsame Kritik zu unterbinden. Für derlei Kritik ist das Internet, insbesondere das WWW, ein praktischer Nährboden. Auch Individuen oder kleine Gruppen können hier publizieren, wobei selbst kritische Informationen durch Verlinkungen und Suchmaschinen eine viel weitergehende Verbreitung erreichen können als eine entsprechende Papierpublikation. Wer aber kritisch ist, ist meist ökonomisch schwach und darob fehlt dann leider die Rechtsabteilung, die der Klassenjustiz im Falle eines Konflikts mit einem kritisierten Unternehmen ein Urteil gegen ein solches abringen könnte. Neben einem beträchtlichen Abmahnunwesen auch im bzw. gegen das Internet ist ein weiteres Tätigkeitsfeld der BRD-Justiz der sogenannte Schutz der Persönlichkeitsrechte von Nazis. Genau wie auf der Straße sind eigenständige, insbesondere wirksame Aktivitäten der Bevölkerung gegen die Enkel des Gröfaz unerwünscht. Und außerhalb der üblicherweise verdächtigen Dissidentenkreise greift der Staat zur Durchsetzung der Interessen der Copyright-Industrie zum Rundumschlag gegen Internet-NutzerInnen legislativ, juristisch und exekutiv. Durch Digitalisierung und die Distributionsmöglichkeiten des Internet sind die Kulturverwertungskonzerne faktisch zumindest teilweise überflüssig geworden und viele Text-, Musik- und FilmliebhaberInnen betätigen sich mittels file sharing (z.B. Tauschbörsen, peer-to-peer Netze) selbst als DistributorInnen digitalisierter Kulturgüter, zuungunsten der Profite der Copyright-Industrie. Zu Hintergründen des Spannungsfeldes von Rechteverwertung und Digitalisierung siehe "Die rechtliche Ordnung des Wissens" ([Grassmuck] S. 31-176). Ein Dreh- und Angelpunkt der o.g. staatlichen Angriffe sowie des staatlichen Handelns "in eigener Sache" ist die Verknüpfung von virtueller und realer Identität von NutzerInnen. Dazu sind den Internet- und Telefonie- Providern in den letzten Jahren Hilfstätigkeiten aufgebürdet worden, die zunächst die Erfassung von Kundendaten und ihre Verfügbarmachung für die Staatsorgane umfassen. Anonymisierungsdienste wie Tor waren in der BRD bereits Ziel fadenscheinig begründeter staatlicher Repression und sollen im Zuge der u.g. Vorratsdatenspeicherung in der BRD im Endeffekt verboten werden. Aber auch bei der Überwachung der Inhalte von Telekommunikation hat es gesetzliche "Fortschritte" gegeben, die die Anbieter von Telekommunikationsdiensten zur Bereithaltung von Überwachungstechnik verpflichtet - auf Kosten der Provider und damit letztlich der überwachten Kunden. Diese Überwachungstechnik müssen sie dann auf Anordnung der berechtigten Stellen (Strafverfolgung, Nachrichtendienste) einsetzen, um von den verdächtigten Nutzern die Kommunikation (Telefon, e-mail, gesamter Internettraffic eines verdächtigten Anschlusses) in Kopie dem jeweiligen Staatsorgan zu übermitteln. Aktueller Höhepunkt der Überwachungswelle ist die auf EU-Ebene angeordnete Vorratsdatenspeicherung, mit der die gesamten Verbindungsdaten von Telefonie (egal ob leitungsvermittelt, mobil oder via Internet), SMS, FAX und e-mail, außerdem die Zuordnung von IP-Adressen an Kunden von Internet-Zugangsprovidern sowie Gerätekennung und Standort von Mobilfunkgeräten [AK Vorrat]. Diese sind von den jeweiligen Telekommunikations- bzw. Internetprovidern in der BRD vollständig für ein halbes Jahr zu speichern, in anderen EU-Ländern sind es bis zu zwei Jahren. Die gesamte telekommunizierende Bevölkerung wird also einem Generalverdacht auf Kriminalität unterworfen. Die Verbindungsdaten sind natürlich auch ohne die kommunizierten Inhalte schon höchst interessant um soziale, d.h. potentiell kriminelle, Beziehungsnetze erkennen und analysieren zu können. Eine formale Handhabe zum Zugriff auf die Daten bei den Providern lässt sich gerade bei Dissidenten notfalls immer konstruieren, beliebt sind dafür die sog. Ausforschungsparagraphen 129/a/b des StGB. Jüngere Beispiele dafür waren 2007 im Vorfeld des G8-Gipfels in Heiligendamm groß angelegte Razzien des BKA gegen diverse soziale Bewegungen, die auch gegen den G8-Gipfel mobilisierten, sowie jahrelanges intensives Abhören und Observieren von AktivistInnen, teils auf Betreiben des Verfassungsschutzes ([Betroffene], [ Schmidt], [Einstellung]). Dass der heutige selbsternannte Anti-Terror Rechts-Staat darüber hinaus auch immer weniger auf die Lehren aus der deutschen Geschichte gibt, sieht man z.B. an der sogenannten Antiterrordatei, einer Zusammenschaltung von Datenbeständen der Strafverfolgungsbehörden und der Nachrichtendienste von Bund und Ländern, welche dem Trennungsgebot von Polizei und Nachrichtendiensten offensichtlich widerspricht. Apropos Nachrichtendienste: in den USA ist durch Enthüllungen von Technikern [Klein] aufgeflogen, dass sich die NSA ("National Security Agency"), der größte und für weltweites Abhören zuständige Geheimdienst der USA, von kooperierenden Carriern an Knotenpunkten auf Glasfaserkabel aufgeschaltet wurde und damit massiv auch Inlandsverbindungen mitgeschnitten hat. Angeordnet von Präsident Bush wegen Terrorismus und ohne gesetzliche Grundlage ([EFF]). In der BRD ist beim Bundesinnenministerium eine organisatorische Bündelung von Theorie und Praxis des Abhörens für Nachrichtendienste und Polizeien in Arbeit. Dieses "Kompetenz- und Servicezentrum Telekommunikationsüberwachung" ist offenbar inspiriert von den angelsächsischen Schnüffelvorbildern NSA (s.o.) und GCHQ ("Government Communications Headquarters", Großbritannien), s. [ Bundestagsdrucksache]. Zur konkreten Umsetzung des Abhörens müssen die Telekommunikationsanbieter standardisierte Schnittstellen [ETSI], [Moechel] für die Durchführung der Abgriffe zur Verfügung stellen, welche folglich die Hersteller von Telekommunikationsausrüstung in ihre Geräte einbauen müssen. Umgekehrt beteiligen diese sich an der Entwicklung der Abhörstandards. Obige Darstellungen sollen nicht als Aufruf zu oft kontraproduktiver Paranoia verstanden werden. Es bleibt aber festzuhalten, dass die Kapitalkonzentration von Telekommunikation und Internet zu staatlichen Überwachungsmöglichkeiten führt, die an "1984" erinnern. Auch wenn man den dahingehenden Scharfmachern wie Bundesinnengeneral Schäuble keine totalitären Intentionen unterstellt, so würde sich ein solches Regime herzlich bedanken ob der juristischen, technologischen und logistischen Vorarbeit in Sachen totaler Überwachung, die ihm bei einer Machtübergabe in die Hände fiele. Ein dahingehendes Problembewusstsein fehlt z.B. dem Juristen und Politiker Schäuble nicht nur völlig, sondern im Gegenteil wird das Problembewusstsein der KritikerInnen zum Problem erklärt: „Wir haben nämlich in Deutschland schon einmal eine Freiheitsordnung durch verantwortungsloses und bösartiges Gerede derart diffamiert, dass am Ende die NS-Gewalt- und Willkürherrschaft an die Macht kommen konnte.“ [Schäuble ] 1.4.3. Datenmüll und Verbrechen Der größere Teil der Internet-NutzerInnen hat mit den o.g. Annehmlichkeiten wie Justiz, Repression und Überwachung (noch) keine Probleme. Viele sind aber Opfer und unfreiwillige Helfershelfer anderer problematischer Entwicklungen auf der Anwendungsebene des Internet. Das offensichtlichste Müllproblem ist das der sog. Spam- oder junk-mails, d.h. unverlangter und massenhaft verbreiteter e-mails, Fachausdruck UBE (unsolicited bulk e-mail). UBE wird überwiegend zu unseriösen kommerziellen Zwecken oder als Teil von Trickbetrügereien versandt, etwa um an Kontenzugänge oder Kreditkarteninformationen zu gelangen ("phishing"), oder um Schadsoftware auf die Computer der EmpfängerInnen zu bringen. Die Ko-Evolution zwischen den Methoden des Spam-Versands einerseits und den Gegenmaßnahmen andererseits stellen ein globales kommunikationsökologisches Phänomen dar, mit dem aktuellen Spielstand, dass der weit überwiegende Teil des globalen e-mail-Verkehrs aus Spam, also aus Müll besteht. Die eine logistische Basis der Spammer sind Provider, die wegen Geldgier und/oder Missmanagement die über sie ans Internet angeschlossenen Spammer nicht umgehend abklemmen. Das andere Standbein der Spammer ist mit steigender Tendenz die Benutzung von Botnetzen für den Spamversand. Botnetze bestehen aus ferngesteuerten (Windows-)PCs, die sie durch Unkenntnis der BenutzerInnen oder Sicherheitslücken der von ihnen verwendeten Software unter Kontrolle gebracht haben. Nach Schätzungen sind 10% aller (Windows-)PCs "Zombies", d.h. befinden sich unter fremder Kontrolle und diese Kontrolle wird auf einem illegalen Markt gehandelt [ Kamluk]. Die darüber käuflichen Kapazitäten werden außer zur Verbreitung von Spam auch für DDoS (distributed denial of service) Angriffe genutzt, wobei das "Geschäftsmodell" in der Erpressung der angegriffenen Serverbetreiber besteht. Mittlerweile gibt es auch "politische" DDoS Angriffe, etwa gegen Estland 2007 und Georgien 2008, weniger spektakulär gegen antifaschistische Server und Indymedia [Indymedia]. Die Evolution der Botnetze, aktuell wie beim "Storm-Worm" [Dahl] etwa durch ständig modifizierte Signaturen und Rootkit-Funktionalität, was Antiviren-Software wirkungslos macht, oder Dezentralisierung durch peer-to-peer Technologie, was die Trockenlegung der Steuerzentrale eines Botnetzes unmöglich macht, lässt befürchten, dass kriminelle Energie einen zunehmend größeren Hebel im Internet benutzen kann. Unkenntnis und Trägheit der Endanwender in Sachen Software und Internet im Verbund mit dem de facto Micro$oft-Monopol auf Endanwendersoftware lassen kaum Hoffnung auf wirksame Gegenmaßnahmen: „Redesigning the Microsoft Windows operating system would work, but that's ridiculous to even suggest. “ [Schneier] Die Mobilisierung von Endnutzerkapazitäten hat zwar grundsätzlich auch ein fortschrittliches Potential, aber die kriminelle Nutzung wird durch die Behandlung der Endnutzergeräte als "hosts zweiter Klasse", also durch NAT und Zwangstrennung mit Vergabe einer anderen IP-Adresse, befördert, weil die Lokalisierung und Sperrung fremdgesteuerter Rechner stark erschwert wird. Ob man die - im Gegensatz zu obigem - legale Datenmüllversorgung als kriminell einstuft, mag vom Standpunkt abhängen. Bei der online Werbung auf Webseiten etwa wird genau wie bei Spam neben technischen Ressourcen vor allem die kognitive Kapazität der NutzerInnen belastet. Diese ergreifen - wie oben aus Unkenntnis und Trägheit - meist keine technischen Gegenmaßnahmen. Sie sind im Zuge der fortschreitenden 0,-Euro-Mentalität auch bereit, sich auf werbefinanzierte, für sie aber kostenlose Dienstangebote einzulassen, insb. für das Web-Mail-Postfach oder das hosting eigener Inhalte (Websites, Blogs, Multimedia). Damit wird die systemstabilisierende Grundstruktur Konzern <-> Konsument zementiert und neben dem Großen Bruder Staat konnten sich auch Kleine Brüder kommerzieller Art mit der Sammlung und Auswertung persönlicher Daten und Verhaltensweisen etablieren. Sicherlich standpunktabhängig ist die Beurteilung der Nutzung des WWW - gerade in seiner modernen Ausführung als "Web 2.0" - zur Publikation als Breitensport. Was dem einen als privater Datenmüll und Belastung des öffentlichen virtuellen Raums erscheint, ist der anderen die Basis für das Knüpfen sozialer Netze. 1.4.4. Kollektive Vereinzelung Zwei Abstraktionen, die dem Internet zugrunde liegen, führen zu einer Deprivation des (Er)Lebens seiner NutzerInnen. Zunächst die Digitalisierung der Inhalte als Handlungsgegenstände und damit die Homogenisierung der Interaktion durch die Verwendung eines Computers - der physischen Form nach eine monotone Maschinenbedienung mit nur minimaler körperlicher Aktivität. Zum anderen die Abstraktion vom Raum - denn alles ist vom eigenen Computer aus erreichbar, ein Fortbewegen des Körpers unnötig. Dies gehört zum visionären Urgestein des Internet, s. obiges Zitat ([Licklider I], S. 8). Die private Nutzung von Computer und Internet verlängert die Reduktion körperlichen Erlebens aus Fabrik und Büro in die sogenannte Freizeit, allerdings ohne die soziale Dimension der Arbeit in einem Betrieb. Die vereinzelnde Wirkung des Fernsehens wird auf interaktive Handlungsbereiche ausgedehnt. Überkapazitäten und die "Nöte" der Kapitalverwertung machen den Videokonsum im Internet breit und nähern es auch von daher dem Fernsehen an. Und zur systemstabilisierenden Bedeutung des Fernsehens muss hier nichts weiter ausgeführt werden. Die o.g. Grundstruktur Konzern <-> Konsument reduziert die Relevanz des anderen Menschen zugunsten der Bedeutung der Maschinerie des Konzerns. Insgesamt lässt sich die folgende, vor über 60 Jahren formulierte, d.h. prä-digitale Kritik also bis heute verlängern: "Je komplizierter und feiner die gesellschaftliche, ökonomische und wissenschaftliche Apparatur, auf deren Bedienung das Produktionssystem den Leib längst abgestimmt hat, um so verarmter die Erlebnisse, deren er fähig ist. Die Eliminierung der Qualitäten, ihre Umrechnung in Funktionen überträgt sich von der Wissenschaft vermöge der rationalisierten Arbeitsweisen auf die Erfahrungswelt der Völker und ähnelt sie tendenziell wieder der der Lurche an. Die Regression der Massen heute ist die Unfähigkeit, mit eigenen Ohren Ungehörtes hören, Unergriffenes mit eigenen Händen tasten zu können, die neue Gestalt der Verblendung, die jede besiegte mythische ablöst. Durch die Vermittlung der totalen, alle Beziehungen und Regungen erfassenden Gesellschaft hindurch werden die Menschen zu eben dem wieder gemacht, wogegen sich das Entwicklungsgesetz der Gesellschaft, das Prinzip des Selbst gekehrt hatte: zu bloßen Gattungswesen, einander gleich durch Isolierung in der zwangshaft gelenkten Kollektivität." ([Horkheimer/Adorno], S. 43) Das Internet bietet neben der Entsinnlichung auch als Maschinerie der "totalen Vermittlung" zur Bekräftigung obiger Analyse sich an. Also erstmal keine Hoffnung auf echten Fortschritt für das Projekt des Selbst, des modernen Subjekts? Offenbar nicht vom üblicherweise verdächtigen revolutionären Subjekt, der ArbeiterInnenklasse, denn: "Die Ohnmacht der Arbeiter ist nicht bloß eine Finte der Herrschenden, sondern die logische Konsequenz der Industriegesellschaft [...]." (Ebd.) Und um wie viel mehr muss dies heute gelten, wo Auto und Supermarkt, Leiharbeit und Erwerbslosigkeit, Fernsehen und Internet den früheren sozialen Nährboden der ArbeiterInnenbewegung, den direkten und längerfristigen Kontakt von Mensch zu Menschen, trockengelegt haben? Aber die "Dialektik der Aufklärung" wäre keine emanzipatorische, wenn sie nicht auch solche Einsichten formulierte: "Diese logische Notwendigkeit aber ist keine endgültige. Sie bleibt an die Herrschaft gefesselt, als deren Abglanz und Werkzeug zugleich." (Ebd.) Hier scheint umgekehrt die Möglichkeit auf, durch Trockenlegung der Herrschaft zu einer Umwälzung der Industriegesellschaft zu kommen, in der das Potential der Maschinerie statt zur Profitproduktion für wenige zur Bedürfnisbefriedigung aller genutzt wird. Diese eng miteinander verknüpften Ziele - Trockenlegung der Herrschaft und bedürfnisorientierte industrielle Produktion - sind zentrale Aspekte des Anarchosyndikalismus, der über das - noch? - vorhandene Organisierungspotential des Internet eine neue Aktualität gewinnen könnte. Denn Internetproduktionsmittel (Computer und Netzzugang) sind bei der ArbeiterInnenklasse zumindest der technologisch fortgeschrittenen Industriegesellschaften breit verfügbar. Aber ganz ohne eine Rekonstruktion der traditionellen Basis der ArbeiterInnenbewegung, der unvermittelt sozialen, wird das nicht gelingen, sofern man die obige Analyse der Altmeister auf das soziale Erleben und Handeln anwendet. Trotz obiger fundamentalistischer Kritik sollte man nicht verachten, dass bereits die heutige Nutzung des Internet in sozialen Bewegungen und weit darüber hinaus auch sehr positive Züge aufweist wie aufklärerisches Publizieren, gegenseitige Hilfe und herrschaftsfreie Kooperation, Experimentierfreudigkeit, Solidarität z.B. bei Repression, etc. Kapitel 2. Internet undstattoder Anarchismus Inhaltsverzeichnis 2.1. Vom Internet lernen ... 2.1.1. Dezentralität und Einheit 2.1.2. Gedankenexperiment: Anarchismus als Internet 2.2. Vom Anarchismus lernen ... 2.2.1. Regulation von unten 2.2.2. Freiheit mit Staat und Markt? 2.3. Praktische Möglichkeiten 2.3.1. "Bildet Banden!" 2.3.2. Konzerne - nein danke! 2.3.3. Freie, open source Software 2.3.4. Verschlüsselung, Sicherheit und Anonymität Die Idee, der Anarchismus könne in eine ergiebige Beziehung zum Internet gesetzt werden, mag - etwa aufgrund der obigen Kritik - auf grundsätzliche Bedenken stoßen. Ist das Internet doch ein mit militärischer Finanzierung gestartetes Projekt, das sich mittlerweile fest in kapitalistischer Hand und unter staatlicher Beobachtung befindet. Und die den NutzerInnen unverständliche und kapitalintensive Hochtechnologie sorgt für noch mehr Vereinzelung, Entfremdung und Verblendung. Von daher empfiehlt sich doch eine strikte Ablehnung. Dass diese Position aber das Kind mit dem Bade ausschüttet, soll an einer Analogie aus der anarchistischen Praxis der letzten Jahrzehnte illustriert werden, dem Kampf gegen die Atomwirtschaft. Auch hier ist eine rigorose Ablehnung formuliert worden, nämlich die Ablehnung der Atomenergie (und der Atomwaffen). Diese kompromisslose Ablehnung war strategisch wichtig, um nicht durch die üblichen Tricks der Herrschenden (Teilen und Herrschen, Reformieren, Integrieren) gespalten, zerfasert oder assimiliert zu werden. Ein wichtiger Aspekt des Atomenergiekomplexes wurde zwar gelegentlich durch taktisches Mastumlegen angegriffen, aber nicht grundsätzlich in Frage gestellt - das Stromverbundnetz. Dieses entspricht viel eher dem Internet, als der "böse" Atommeiler. Das "Böse" gibt es im Internet natürlich auch, und nicht zu knapp, s.o.: Großer Bruder Schäuble, Kleiner Bruder Google, Monopolist Micro$oft, Spam und kriminellaggressive Botnetze etc. pp. Der Kampf gegen die "böse" Atomenergie hatte und hat aber auch gleichzeitig eine konstruktive Seite. So ist es durch die jahrzehntelangen Anstrengungen der Ökologiebewegung schließlich gelungen, regenerative Energien zu einem relevanten Faktor zu machen - zu dem viele Menschen einen alltäglichen Beitrag leisten - durch das Stromverbundnetz. Und das, obwohl es immer noch Atomkraftwerke und Oligopole im Energiesektor gibt, die natürlich auch das Stromnetz nutzen. In der bisherigen Durchsetzungsgeschichte der regenerativen Energien gibt es neben der Beharrlichkeit der AktivistInnen einen fundamentalen Pluspunkt gegenüber den herkömmlichen Energiequellen: sie sind regenerativ, haben also einen prinzipiellen Kostenvorteil bei der Beschaffung ihres "Rohstoffs". Diese Betonung des ökonomischen Arguments ist als Anhaltspunkt für die Auslotung emanzipatorischer Möglichkeiten im Umgang mit dem Internet gedacht, und soll keinesfalls die Bedeutung der ethischen Dimension kleiner machen. Denn ohne die Empörung über die Beschaffungskriminalität und die langfristigen Folgen der herkömmlichen Energiewirtschaft wären der lange Atem der Bewegung wie auch die Bereitschaft vieler "Normalos", regenerative Energien zu fördern, wohl nicht zu erklären. Von dieser Analogie ausgehend kann es durchaus sinnvoll sein, das Internet in emanzipatorische Strategien einzubeziehen. Dafür lohnt es sich, die progressiven Aspekte des Internet zu analysieren, um sie zum einen als Anregung für Aktivitäten in anderen Bereichen zu nutzen, zum anderen aber auch als Ansatzpunkte für emanzipatorische Bemühungen im und mit dem Internet selbst. 2.1. Vom Internet lernen ... 2.1.1. Dezentralität und Einheit 2.1.2. Gedankenexperiment: Anarchismus als Internet 2.1.1. Dezentralität und Einheit Aus dem Material des ersten Teils wollen wir dazu extrahieren, wie im Internet die "Quadratur des Kreises" gelingt - nämlich die Verbindung von Dezentralität und Einheit. Dezentralität im Internet hat als Basis die operative Autonomie der einzelnen Netze. Darauf aufbauend werden durch bilaterale Vereinbarungen die Verbindungen zwischen den Netzen geknüpft. Bestandteil dieser Vereinbarung ist die Erreichbarkeit weiterer Teile des Verbundnetzes, bei transit-Beziehungen zum gesamten Verbund. Dadurch sind Wachstum und Kapazitätsplanung dezentral möglich - und nötig, in Ermangelung einer operativen Zentrale. Die Einheit des Internet basiert zunächst auf den bilateralen Vereinbarungen, die die Erreichbarkeit weiterer Netze bzw. des gesamten Verbundes bezwecken. Grundlage der technischen Umsetzung der "Einheit" sind die Standards. Diese werden von temporären Assoziationen engagierter Individuen ohne formale Organisationsstruktur erarbeitet. Maßstab dieser Arbeit sind dadurch nicht (wirtschafts-)politische Interessen, sondern die technische Qualität des Ergebnisses ("rough consensus and running code"). Für die operative Einheit ist weiterhin die eindeutige Verteilung der IP-Adressen erforderlich. Diese wird von Vergabestellen als Dienstleistung an ihre Mitglieder, die Provider erbracht. Die Mitglieder finanzieren ihre Vergabestelle und bestimmen ihre Richtlinien. Durch diese technisch-wirtschaftliche Selbstorganisation wird eine einseitige ökonomische oder gar politische Kontrolle über die IP-Adressen verhindert. Wie wichtig solche Organisationsprinzipien sind, merkt man dort, wo sie nicht eingehalten werden. Beim real ex. Domainnamensystem gibt es zentrale operative Komponenten (root server und root zone), und beim DNS ist den Juristen auch der Durchbruch beim Zugriff auf den virtuellen Raum gelungen. Wodurch - nur scheinbar paradox - Diebstahl von und Spekulation mit Domainnamen eine "ordentliche" Grundlage bekamen. Die Politnummer ICANN mit ihren Mehrheitsentscheidungen der Direktoren ergänzt hier das unglückliche Bild. 2.1.2. Gedankenexperiment: Anarchismus als Internet Die Erfahrungen und Prinzipien des Internet sind im libertären Kontext vor allem dann interessant, wenn es • um Verbundprojekte geht, • die auf Wachstum angelegt sind und • deren Gegenstand objektive Kriterien bietet, ob "es funktioniert". D.h. dass z.B. einzelne Landkommunen oder Theoriezirkel weniger vom Internet lernen können als Föderationen (von Föderationen). Versuchen wir als Gedankenexperiment die Übertragung der o.g. essentiellen Internet-Prinzipien auf "den Anarchismus" als Gesamtprojekt, so lassen sich am real ex. Anarchismus folgende Mängel benennen: • Zwar ist Autonomie an der Basis nicht nur gewollt, sondern übliche libertäre Praxis, aber es fehlen meist die stabilen operativen Beziehungen zwischen den einzelnen Projekten als weitere und unverzichtbare Basis eines Verbundprojekts. Die direkten Beziehungen müssten auch das Ziel einer Einheit des Verbundes beinhalten. • Der Wille zum Wachstum ist zumindest im Anspruch angelegt, da sich eine herrschaftslose Gesellschaft nicht auf z.B. einige Protestgruppen, WGs , Syndikate oder selbstverwaltete Betriebe beschränken kann. Die bei den libertären AktivistInnen vorhandene Energie geht aber zumeist in ein Einzelprojekt oder in Richtung der sozialen Bewegungen. Das ist selbstverständlich richtig und wichtig, aber diese Energie fehlt einem "Verbundprojekt Anarchismus". • Da schon der Gegenstand des Anarchismus, die Herrschaftslosigkeit, viele und sehr unterschiedliche Aspekte der Gesellschaft betrifft und auch subjektive Faktoren enthält, ist unklar, wie Kriterien aussehen sollen, die allen Beteiligten ein objektives Urteil darüber erlauben, ob etwas im Verbundprojekt funktioniert oder durch eine Änderung verbessert wurde. Das erschwert (Selbst-)Optimierungen, die für Wachstumsprozesse aber nötig sind. Unser Gedankenexperiment legt folgenden Schluss nahe: weniger bringt mehr. Durch die Konzentration der Verbundbemühungen auf einen konkreten Bereich, der viele Libertäre (und möglichst auch weitere Teile der Bevölkerung) betrifft und möglichst alltagsnah ist, können genug Kräfte zusammen kommen, die einen zumindest ansatzweise funktionierenden Verbund zum praktischen Nutzen der Beteiligten in Gang bringen. Durch eine geeignete "Architektur" des Verbunds und seine Fähigkeit zur Selbstoptimierung sind quantitatives und dann auch qualitatives Wachstum möglich. Um den Verbund herum können sich weitere libertäre Aktivitäten entfalten, die durch die operative Basis des Verbunds mehr Möglichkeiten und größere Reichweiten in die Gesellschaft haben. Der Anarchismus ist dann nicht "nur" das Salz in der Suppe der sozialen Bewegungen, sondern wird zunehmend auch der Nährstoff. Gelingt der Wachstumsprozess weiter, kann er schließlich Kapital (Maschinen, Häuser, Betriebe) assimilieren und damit unter selbstverwaltete "Kontrolle" bringen. Was Attraktivität und Reichweite des Verbundes weiter erhöht. Soviel zum Potential eines konzentrierten Verbundprojekts. Zur Veranschaulichung des Konzepts noch eine Analogie aus der Naturwissenschaft. Zur Zeit wirken AnarchistInnen hauptsächlichkatalytisch, d.h. sie fördern emanzipatorische Prozesse in verschiedenen gesellschaftlichen Bereichen. Damit sind sie erstmal ausgelastet, aber es ergeben sich dadurch auch Erfahrungen und Kontakte. Die "Architektur" des Verbundes sollte dann autokatalytisch sein, d.h. die Resultate des Verbundprozesses wirken positiv rückgekoppelt, d.h. fördernd auf ihn selbst. Diese Dynamik kann sich durch die bereits erarbeiteten emanzipatorischen Kontakte aus der ersten, der katalytischen Phase, in diverse gesellschaftliche Bereiche ausdehnen. Sind schließlich genügend Menschen in und durch die Praxis des Verbunds mobilisiert, können sie durch das koordinierende Potential des Verbundes zum Übergreifen auf die sog. Realwirtschaft schreiten. Gelingt auch hier das Wachstum, könnte der Prozess schließlich autopoietisch [Maturana/Varela], d.h. vollständig selbstreproduzierend werden, also eine eigenständige freie Gesellschaft bilden. Diese chemisch-biologische Analogie soll keinesfalls als Automatismus oder Biologismus missverstanden werden - der gedachte Verbund besteht schließlich aus Menschen, mit ihren Schwächen und Stärken, insbesondere der Fähigkeit zur Reflektion. Letztere ist für die Optimierungen und insbesondere das qualitative Wachstum des Verbundes unverzichtbar - allerdings auch nicht vorhersagbar. Schauen wir von hier aus zurück zum Ausgangspunkt der Überlegungen, dem Internet. Dieses hat zwar immer noch wesentliche Züge seiner autokatalytischen Dynamik, aber ein Übergang zur Autopoiese ist ihm prinzipiell nicht möglich, da es im Gegensatz zum Anarchismus a priori kein Projekt ist, welches alle Aspekte der Gesellschaft umfasst. Und so besteht die allzu reale Gefahr, dass es seiner qualitativen Dynamik letztlich beraubt wird, indem es als teilautonomes, aber funktionales Element in die Autopoiese des real ex. Kapitalismus eingebaut und dieser untergeordnet wird. Wie ein Organell in einer biologischen Zelle. Dieser Konflikt bietet andererseits die Möglichkeit einer tieferen Interaktion von Anarchismus und Internet. 2.2. Vom Anarchismus lernen ... 2.2.1. Regulation von unten 2.2.2. Freiheit mit Staat und Markt? Dem Gedanken des vorigen Abschnitts, dass nämlich das Internet - im Gegensatz zum Anarchismus - keine gesamtgesellschaftliche Perspektive ist, ließe sich auf den ersten Blick zweierlei entgegenhalten. Erstens, dass Freiheitsideale bis hin zur Herrschaftsablehnung eine wichtige Motivation vieler InternetprotagonistInnen und immer noch Bestandteil der Netzkultur sind. Zweitens, dass ein Ende des Vordringens des Internet in die Gesellschaft gar nicht absehbar ist. Beides ist zwar richtig, aber ändert nichts an den Kommandostrukturen und Verblendungszusammenhängen, die das Internet von der real ex. Gesellschaft umso mehr "erbt", je mehr es sie durchdringt. Dennoch lohnt sich eine genauere Untersuchung der beiden Aspekte auf ihr libertäres Potential. 2.2.1. Regulation von unten Das Vordringen des Internet in die Gesellschaft erfolgt technisch aufgrund seiner quantitativen Offenheit, ökonomisch - seit dem Übergang von der akademischen zur kommerziellen Phase - in kapitalistischen Formen. Die resultierenden Probleme wurden oben ja angesprochen, sie hängen wesentlich mit der Regulation des Wachstums durch cash flow zusammen. Auf der Anwendungsebene des Internet haben die verschiedenen kommunikativen Nischen, z.B. Usenet, IRC, Wikis, Blogs etc., jeweils eigene technische und soziale Regulationsmethoden entwickelt. Im operativen Kern des Internet dagegen ist eine Änderung der Regulationsmethodik von technisch-wirtschaftlich zu technisch-sozial aufgrund der Eigentumsverhältnisse und Verwertungsinteressen nicht zu erwarten. Daher werden kriminelle (und) staatliche Angriffe weiter zur Tagesordnung gehören. Dennoch sollen hier beispielhaft zwei Bereiche dargestellt werden, die libertäre technisch-soziale Regulationsmethoden unterhalb der Anwendungsebene etablieren könnten und den Spieß so umdrehen, dass das Internet bei seiner Durchdringung der Gesellschaft explizit libertäre Prinzipien nutzt und damit verbreitet. • Wie schon erwähnt ist das DNS (domain name system) des Internet zwar dezentral verwaltet, hat aber zentrale operative Komponenten und ein davon ausgehendes hierarchisches Delegationssystem. So entsteht z.B. für den BRD Staat die Möglichkeit, durch Verfügung an das DENIC .de Domains zu zensieren. Es ist relativ leicht möglich, mit der existierenden DNS software alternative root server aufzubauen, die optional eine alternative root zone verwenden können. So etwas wurde auch praktiziert, z.B. [ORSN]. Allerdings bleibt dabei die top-down Struktur des DNS erhalten. Für eine systematische bottom-up Lösung müssten also auch technische Modifikationen am DNS vorgenommen werden. Der Aufwand für Endbenutzer könnte allerdings minimal gehalten werden. Sie müssten lediglich vertrauenswürdige DNS resolver eintragen. Dazu sollte das zensurablehnende Publikum aber spätestens seit den Zensurbemühungen der Bezirksregierung Düsseldorf 2001 in der Lage sein [CCC]. Neben dem grundsätzlich realisierbaren technischen Aspekt eines bottom-up DNS bleibt die spannende Frage, wie die technisch-soziale Regulation eines solchen DNS aussehen kann, insb. wenn zur Vermeidung von staatlichen Zugriffsoptionen dieses auf eine möglichst breite Basis gestellt werden soll. Hier könnte libertäres Mitwirken zu einer Freiheitsproduktion beitragen, die für viele NutzerInnen wirksam würde. • Im Gegensatz zu anderen Echtzeitnetzen (Stromnetz, Telefonnetz) haben paketvermittelte Netze wie das Internet durch ihre Abstraktion vom Transportmedium und der Trennung von Transportinformation und Nutzlast die Eigenschaft, sich gewissermaßen selbst transportieren zu können. Hat man also ein funktionierendes internet (insbesondere natürlich das real ex. Internet), so kann man dieses als Transportmedium für ganz anders strukturierte Netze verwenden, aber insbesondere auch für ein internet. Das zugrunde liegende Transportnetz weiß dabei nichts über die Struktur des transportierten Netzes, und bei Verwendung von Verschlüsselung erfährt es auch nichts über die Inhalte des sog. overlay networks oder virtual private networks. Was dem Neuling vielleicht nach Magie klingt, ist eine im Internet verbreitete Technik, etwa bei peer-to-peer Netzen oder bei Unternehmensnetzwerken zur verschlüsselten Anbindung von Filialen oder AußendienstmitarbeiterInnen. Übrigens hat das Internet selbst ja als overlay network über dem bestehenden Telefonnetz angefangen. Hier könnten Libertäre Netze (mit)aufbauen, in denen ohne Interferenz mit dem kapitalistisch-staatlich-verblendeten-etc. öffentlichen Internet technische und soziale Regulationsmethoden für internets entwickelt und erprobt werden. 2.2.2. Freiheit mit Staat und Markt? Der im Internet immer noch gern verwendete Begriff der Freiheit stellt einen weiteren Anknüpfungspunkt für anarchistischen input ins Internet dar. Wie nötig das ist, soll im Folgenden beispielhaft durch eine Auseinandersetzung mit der "kalifornischen Ideologie" [Barbrook], [Schulz], [Lovink] der New Economy[tm] und dem zugehörigen Spannungsfeld von Freiheit und Ökonomie verdeutlicht werden. Als umstrittenes aber paradigmatisches Beispiel für solche Freiheitsvorstellungen im virtuellen Raum sei der Anfang von "A Declaration of the Independence of Cyberspace" zitiert: "Governments of the Industrial World, you weary giants of flesh and steel, I come from Cyberspace, the new home of Mind. On behalf of the future, I ask you of the past to leave us alone. You are not welcome among us. You have no sovereignty where we gather." [Barlow] Barlow, ehemaliger Texter der Grateful Dead und Mitbegründer der Electronic Frontier Foundation, veröffentlichte die "Declaration" 1996 anlässlich der Verabschiedung des Communications Decency Act (CDA) der USA. Mit diesem Gesetz wurde u.a. die öffentliche, d.h. für Kinder und Jugendliche zugängliche Verwendung von obszönen Inhalten und Worten wie "shit" und "fuck" in online Medien verboten. Der CDA wurde später von US-Gerichten teilweise wieder kassiert, da im Widerspruch zum "First Amendment" der US-Verfassung stehend, in dem u.a. die freie Rede garantiert wird. Dass Barlow's "Declaration" auf zehntausenden Websites kopiert wurde, lässt sich als Zeichen für die damalige Bedeutung des Konflikts zwischen Staat und den "Bewohnern" des virtuellen Raums lesen. In dieser Periode traf die Tradition der wissenschaftlichen Entwicklungsphase des Internet und damit auch der Idee des herrschaftsfreien Diskurses auf die kapitalistisch getragene Ausweitung des Netzes zum Massenmedium und die damit einhergehenden staatlichen Regulierungsbemühungen. Dass die Freiheitsrhetorik der "Declaration" an die Gründungszeit der USA erinnert, liegt nicht nur am Kernpunkt der juristischen Auseinandersetzungen um den CDA, dem First Amendment von 1791, sondern auch an der Vorstellung des Cyberspace als unbegrenztem Raum, bereit für die Landnahme und mit genug Platz für alle (Gedanken;). Aus anarchistischer Perspektive gibt es einiges an der wohl einflussreichen "Declaration" des ehem. Religionswissenschaftlers zu kritisieren. Er spricht zu Recht vom Cyberspace als einem kollektiv konstruierten sozialen Raum, den er aber komplett in den Bereich des Immateriellen, Körperlosen verlegt: „Cyberspace [...] is not where bodies live“ [Barlow] - man hört den Nachhall der Worte des Herrn: „Mein Reich ist nicht von dieser Welt“ [ Jesus I]. Die Körper bleiben weiterhin der "gerechten Macht" (s.u.) der Regierungen unterworfen - nix Neues seit „Gebet dem Kaiser, was des Kaisers ist“ [Jesus II]. Durch diese traditionsreiche Spaltung von Körper und Geist, Staat und Kultur wird der anstehende Grundsatzkonflikt mit der Herrschaft abgewiegelt, incl. einem Kniefall vor den Regierungen durch die Anerkennung ihrer vermeintlichen Legitimation durch die Regierten: „ Governments derive their just powers from the consent of the governed.“ [ Barlow] Das damit bereits vorweg genommene Scheitern der herbei deklarierten virtuellen Republik hat seine operativen Gründe in den so (leider;) nicht zutreffenden Behauptungen über die Beschaffenheit des Cyberspace. Wegen ihrer Bedeutung für eine Auseinandersetzung mit Herrschaft und Ausbeutung im virtuellen Raum seien sie hier aufgeführt ... (mit "you" sind die Regierungen gemeint) ... • „You have no [...] methods of enforcement we have true reason to fear.“ (Ebd.) • „We are forming our own Social Contract.“ (Ebd.) • „The global conveyance of thought no longer requires your factories to accomplish.“ (Ebd.) • „[...] nor did you create the wealth of our marketplaces.“ (Ebd.) ... und diskutiert: • Auch wenn freundlicherweise seit der "Declaration" immer noch kein Weltstaat etabliert ist, der die gesamte Internet-Öffentlichkeit kontrollieren könnte, macht das "enforcement" der real ex. Nationalstaaten doch zunehmend mehr Probleme. Der Gang ins virtuelle Exil ist zwar eine noch mögliche Reaktion und leichter als bei den bisherigen Medien, schafft aber Repression und vor allem deren indirekte Wirkungen nicht ab. • Von der prinzipiellen Problematik eines meist naturrechtlich begründeten "Social Contract" als Legitimation einer "gerechten Macht" einmal abgesehen, wurde ein solcher im Internet nicht geschlossen. Offene technische Standards, bilaterale Vereinbarungen und die jeweiligen Gepflogenheiten der verschiedenen Anwendungsbereiche sorgen dafür, dass das Internet funktioniert, und kein universeller Gesellschaftsvertrag, auf dessen Basis sich der "Freistaat Internet" [ Schulz] gegen die Einmischung fremder Regierungen erheben könnte. • Wenn im dritten der obigen Zitate die neue Heimat des Geistes von den Fabriken der Regierungen losgesagt wird, so ist das doppelt falsch: erstens gehören diese üblicherweise nicht den Regierungen, sondern privaten Eigentümern, und zweitens wird das Internet seit seiner Kommerzialisierung sehr wohl fabrikmäßig betrieben. In den Serverfarmen läuft weniger Personal herum als in sonstigen Fabriken, dafür sitzen die für Betrieb und Inhalt der Server Arbeitenden halt andernorts in vernetzten Büros. • Dass - viertes Zitat - Regierungen keinen Wohlstand erschaffen, sondern bestenfalls verbrauchen und verhindern, schlimmstenfalls vernichten, ist klar, lenkt aber vom Hauptanliegen der ganzen Freiheitsrhetorik ab: der Wohlstandsverteilung vermittels "our marketplaces". Der CDA als Zensurangriff der Regierung und die resultierende Empörung vieler NetznutzerInnen dient so der Konstruktion eines "wir", dem der Wohlstand der virtuellen Märkte gehören soll. Wesentlicher Grund für die Popularität des Internet war und ist aber, dass der (inhaltliche) Wohlstand darin zu großen Teilen eben nicht marktförmig organisiert ist, sondern die digitale Distributionsmechanik Internet für eine solche Marktförmigkeit erst entsprechend zugerichtet werden muss. Bei Herbeiführung der intendierten Marktförmigkeit zerfällt das Boot, in dem "wir" sitzen und vermeintlich gegen den Staat rudern, in die üblichen zwei Teile - die, die rudern, und die, denen das Boot gehört. Die obige "wir"-Konstruktion war für die kommerzielle Boomphase des Internet in den 1990er Jahren hegemonial, hat dabei viel Kreativität und Finanzkapital "verbrannt", den beachtlichen .com-crash als Vorläufer der heutigen Subprime-Krise hingelegt, und das Internet mit seinen Überkapazitäten und ein paar neuen Marktführern hinterlassen. Der süße Duft der Freiheit, mit dem viel virtuelles Fußvolk gelockt wurde, erweist für dieses als Etikettenschwindel sich, denn gemeint war die Freiheit der Cyberunternehmer. Die wiederum brauchen für "our marketplaces" motivierte SpezialistInnen, die sich mit Aktienoptionen und dem Duzen des Chefs in virtueller Freiheit wähnen. Auf der anderen Seite brauchen - und wollen - diese Unternehmer ausdrücklich den Staat, damit er eine virtuelle Eigentumsordnung definiert und durchsetzt, ohne die die "competitive battlegrounds" des "knowledge age" sich nicht etablieren können [Dyson]. So wird doppelt betrogen: ökonomisch durch Ausbeutung und Spekulation, gesellschaftlich durch die Ratifizierung des Bockes Staat zum Gärtner der Freiheit. Es mag billig erscheinen, Jahre nach dem .com-crash auf der zugrunde liegenden technoliberalen Ideologie herumzuhacken, zumal das zugehörige Akkumulations-, Verwertungs- und Vernichtungsgeschehen auch rein marxistisch analysiert werden kann. Nur hilft letzteres wie üblich konstruktiv nicht weiter. Deshalb und wegen Unzuständigkeit in Sachen Freiheit sind von dieser Seite auch keine ökonomisch tragfähigen Alternativen zum Technoliberalismus zu erwarten, die dem virtuell aktiven Teil der Bevölkerung helfen, ihre Freizeitproduktion virtuellen Wohlstands zu einer Freiheitsproduktion mit gesamtgesellschaftlicher Perspektive weiter zu entwickeln. Hier liegt also - um auf den Titel des Kapitels zurückzukommen - eine konstruktive Aufgabe für AnarchistInnen, historische und praktische Erfahrungen und Analysen der Bewegung zu Gunsten einer ökonomisch fundierten Freiheitsproduktion im und durch den virtuellen Raum zu nutzen. Zur Anregung dafür sollen die oben kritisch verdauten Themen der "Declaration" im Folgenden konstruktiv recycelt werden: • Staatliches "enforcement" : Gerade im konstruktiven Kontext ein unbequemes und schlimmstenfalls lähmendes Thema. Dennoch ist nicht liberale Verdrängung, sondern ein expliziter, aber entspannter und vorausschauender Umgang mit diesem Komplex empfehlenswert. Einerseits wegen der zunehmenden staatlichen Selbstermächtigung zu Übergriffen gegen "seine" (s.o.) Bevölkerung, andererseits um die gerade in der BRD historisch bedingte Angst vor der Obrigkeit (Vernichtung der ArbeiterInnenbewegung, RAF Hysterie) konstruktiv zu bearbeiten. • "Social Contract": Der Begriff wird von englischsprachigen progressiven Projekten auch heute schon verwendet [Debian], [riseup.net], und hat abgesehen von seiner philosophischen Problematik den Vorteil einer implizierten gesamtgesellschaftlichen Perspektive. Allerdings sollte man sich nicht zur Erweckung uneinlösbarer Erwartungen à la Barlow verleiten lassen, sondern erstmal konkretere, dem jeweiligen Projektstand angemessenere Übereinkünfte anstreben und entsprechend betiteln, z.B. freie Vereinbarung oder Föderationsstatut. Inhaltlich wichtig bei den Übereinkünften ist wegen der ökonomischen Dimension die Konfliktvermeidung und -bearbeitung, um Regressionen auf staatliches "enforcement" zu vermeiden. • "factories": Auch der virtuelle Raum wird von Menschen produziert und hat eine materielle Basis. Trotz aller Virtualität sollte man sich nicht dazu verleiten lassen, davon zu abstrahieren. Aus prinzipiellen, strategischen und taktischen Gründen sollten die ProduzentInnen die Kontrolle über diese Produktionsmittel haben bzw. anstreben. Kollektivierungen in größeren Zusammenhängen (z.B. regionale KonsumentInnen-ProduzentInnen-Vereinigungen) sollten diese Gründe berücksichtigen. • "the wealth of our marketplaces": Der Begriff Wohlstand hat, zumal in einer herabgewirtschafteten Hartz IV Republik, in welcher die dafür Verantwortlichen (so wurde uns zugetragen) im Rest des miserablen Fernsehprogramms gar nicht mehr auffallen, eine fast obszöne Konnotation bekommen als etwas, das nur noch Betrügern und Arbeiterverrätern zusteht. Da wirkt allein die positive Verwendung des Begriffs durch den Technoliberalen Barlow schon wie eine Wellnessreise in die Zeit der Goldwährung. Und Wohlstand ist auch nicht notwendig an die Ausbeutung von Mensch und Natur gekoppelt, sondern eher an die Muße, von der eine sich allseitig entfaltende anarchistische Persönlichkeit kaum genug haben kann. Damit der von allen (Beteiligten) erarbeitete Wohlstand auch wirklich allen (Beteiligten) zukommt, muss neben der Produktion auch die Distribution entsprechend funktionieren. Im Kontext virtuellen Wohlstands kein Problem, ist das Internet doch die perfekte Distributionsmaschine für digitale Güter und Dienstleistungen. Der rein technische Kopiervorgang bildet den klassischen Distributionsvorgang allerdings nur in eine Richtung ab, beinhaltet dieser doch außerdem eine Übertragung von Forderungen in die Gegenrichtung der Güterdistribution ("Bezahlung"), also in Richtung der ProduzentInnen. Durch Verausgabung der so erworbenen Forderungen können diese wiederum ihre Produktionsmittel und ihre eigene Reproduktion organisieren. Der Wegfall der Symmetrie zwischen Distribution und Bezahlung reißt in bisherige ökonomische Theorien ein weites Loch, das unseres Wissens bis heute nicht gestopft ist. Den Liberalen fällt in ihrer Markt- und Staatsfixiertheit auch nix wesentlich besseres ein, als zu verknappen, d.h. den asymmetrisch sprudelnden Quell mit technischen Tricks bis hinunter zur Symmetrie wieder zu verstopfen, oder - ähnlich schräg - die Güter in Dienstleistungen zu verwandeln (s. das Barlow-Zitat in [Dyson]). Die vergleichsweise glücklichen Marxisten haben mehrere Möglichkeiten, sich mit dem Problem gar nicht erst zu konfrontieren: weil es in der Planwirtschaft gar nicht vorgesehen ist, weil im amorphen "alles für alle" nach dem zwangsläufigen Übergang zum Kommunismus die Distributionsprobleme sowieso gelöst sein werden, oder weil die Distributionssphäre der kapitalismuskonstituierenden Mehrwertabschöpfung in der Produktion völlig nachgeordnet ist (und ihre genauere Analyse strukturell antisemitisch). Diese Distributionsproblematik gärt im kulturellen Bereich schon länger, wo sie durch die Materialität der Medien (Bücher, Tonträger) oder die Singularität von Aufführungen in traditionelle ökonomische Formen integrierbar war. Mit fortschreitender Verbreitung und Verbesserung von Digitalisierungstechnologie wird sich das Problem aber verschärfen (Scanner und Texterkennung, Hendis mit Audio-/Videostreaming ins Internet), und schon jetzt zielen die Schläge bzw. Tritte der Verwertungsindustrie zur Verteidigung ihrer Pfründe unter die Gürtellinie der Bevölkerung. Eine konstruktive Lösung des Problems wäre nicht nur eine neue Qualität für das Internet, sondern ein Fuß in der Tür zu postkapitalistischer Ökonomie. Der Anarchismus mit seiner theoretischen und praktischen Spannweite vom anti-monopolistischen Geldsystem bis zur syndikalistischen Industrieföderation sollte in der Lage sein, zur Lösung einen Beitrag zu leisten. Ob und inwieweit diese neue ökonomische Form einem "marketplace" ähnelt, muss sich zeigen. Ausgeschlossen ist das aus libertärer Sicht - und im Gegensatz zum Marxismus - zwar nicht, aber die Spielregeln würden sich - im Gegensatz zum Liberalismus - unter der Kontrolle der Beteiligten befinden. 2.3. Praktische Möglichkeiten 2.3.1. "Bildet Banden!" 2.3.2. Konzerne - nein danke! 2.3.3. Freie, open source Software 2.3.4. Verschlüsselung, Sicherheit und Anonymität Dass die bisherigen Überlegungen zu Beziehungen zwischen Anarchismus und Internet recht abstrakt und stückwerkhaft waren, ist keine böse Absicht der AutorInnen. Der Versuch, zwei jeweils in sich schon sehr komplexe Felder konkreter, genauer und umfassend zueinander in Bezug zu setzen, würde die verfügbaren Ressourcen, wohl auch der meisten LeserInnen, weit überschreiten. Da aber sowohl der Anarchismus als auch das Internet keine rein akademischen Projekte (mehr) sind, können die geneigten LeserInnen selbst aktiv werden, indem sie eigene Erfahrungen in diesem Beziehungsfeld sammeln. Zum einen als Basis weiterer Reflektionen, zum anderen als konkreter Beitrag für den Aufbau gesellschaftlicher Freiräume. Dazu sollen vor dem Hintergrund der bisherigen Überlegungen einige Ansatzpunkte vorgestellt werden. 2.3.1. "Bildet Banden!" Es empfiehlt sich unbedingt, den Vereinzelungstendenzen des Internet durch Organisierung vor Ort entgegenzuwirken. Ehe das Internet auch hierzulande breit zugänglich wurde, gab es selbstorganisierte Mailboxnetze. Dabei haben lokale Gruppen jeweils eigene Mailboxen (Computer mit Telefonleitungen) betrieben, in die sich die NutzerInnen zum damaligen Ortstarif per Modem einwählten um Nachrichten auszutauschen. Die Mailboxen der verschiedenen Orte haben dann zu Nachttarifen den überregionalen Nachrichtenaustausch organisiert. Um den Betrieb der lokalen Mailboxen herum gab es regelmäßige Treffen zur gegenseitigen Hilfe im Umgang mit der Technik und dem Medium, und zum sonstigen Austausch. Diese sozialen Brennpunkte des virtuellen Lebens sind heute ausdifferenzierter. Serverprojekte, Linux User Groups, Hackertreffs, Freifunknetze, Medienprojekte, Internetcafés in autonomen Zentren etc. suchen meist MitmacherInnen, vermitteln Wissen, und können vor Ort den Einstieg in den (libertären) Netzaktivismus erleichtern. Auch in seiner unmittelbaren Nachbarschaft kann man etwas in Bewegung bringen, indem man sich mit Nachbarn den Internetanschluss teilt, durch das Verlegen eigener Ethernet- oder gar Glasfaserkabel, oder per WLAN. Neben dem "dank" Hartz IV etc. leider relevanten individuellen ökonomischen Vorteil können solche nachbarschaftlichen internets z.B. auch zum Aufbau gemeinsamer digitaler Mediatheken genutzt werden. 2.3.2. Konzerne - nein danke! Probleme der Kapitalakkumulation im und für das Internet sind oben ja kurz angesprochen worden. Sie haben im Internet ihre spezifische Ausprägung, aber in allen ökonomischen Sphären macht der Kapitalismus bekanntlich Probleme. Verblüffend bis erschreckend ist daher, wie vielen kapitalismuskritischen Menschen diese Erkenntnis ausgerechnet beim Umgang mit dem Internet abhanden zu kommen scheint. Am auffälligsten ist dies bei (Web)Mail, wo die wenigsten wissen, dass die wg. 0,-Euro beliebten GMX und web.de mittlerweile zum gleichen Konzern, dem aus 1&1 hervorgegangenen United Internet, gehören. Die "0,-Euro" funktionieren durch Werbeflächen auf den zugehörigen Portalseiten, Werbebotschaften, die in die mails der NutzerInnen eingebaut werden, und die Nutzung von Kundendaten für Marketingzwecke. Anstatt sein Postfach bei einem Konzern zu haben, wäre es besser, seine Post auszudrucken, per Brief zu verschicken und dabei gleich eine Kopie bei der nächsten Polizeiwache abzugeben. Dort müsste der Inhalt dann eingescannt und mit Texterkennungs-Software behandelt werden. Das würde dem Apparat zumindest deutlich mehr Arbeit machen als der digitale Abgriff bei den zur Kollaboration verpflichteten und bereiten Großanbietern. Vielleicht noch schlimmer als der Überwachungsaspekt ist an dieser Gedankenlosigkeit, dass in dem Maße, wie man die Konzerne dadurch fetter macht (selbst bei 0,-Euro), den alternativen Projekten der Bewegung die soziale und ökonomische Basis entzogen wird. Ohne Unterstützung durch die Bewegung können sich emanzipatorische Internetprojekte nicht halten und weiterentwickeln, was schließlich in einem Verlust operativer Basis und des zugehörigen Wissens endet. Das ist strategisch fatal, da das Internet durch die digitale Medienkonvergenz absehbar eine immer größere Rolle spielen wird. Und die Bedeutung eigener Medien gerade für staats- und kapitalkritische Bewegungen kann wohl kaum überschätzt werden. Als Internet-spezifisches Problem mag erscheinen, dass durch die verwendete Hochtechnologie die Bewegung von wenigen SpezialistInnen abhängig werden könnte. Sicherlich stellt für normale NutzerInnen schon der eigene Computer, um so mehr der Betrieb von Servern ein Buch mit sieben Siegeln dar, aber strukturell ist das auch nicht wesentlich anders als früher mit Setzern und Druckern. Strategisch bedeutend zur nachhaltigen Bewältigung dieses Problems sind drei Faktoren: Dezentralisierung, Dezentralisierung, Dezentralisierung. Und dies wird wohl ohnehin nur gelingen durch das Einbeziehen jüngerer Menschen, die durch ihre stärkere Sozialisation mit Internet und Computern einen leichteren Start in die bisweilen komplexe Materie haben. 2.3.3. Freie, open source Software Vor allem beim Betriebssystem ist die Quelloffenheit für die Teilnahme am Internet von besonderer Bedeutung - der TÜV würde auch kein Auto auf die Straße lassen, bei dem der Hersteller die Auskunft über die Funktionsweise der Bremsen verweigert. Auch durch zustimmende Rezeption der bisherigen antikapitalistischen und antimonopolistischen Ausführungen dieses Textes hat der/die LeserIn die logisch zwingende Pflicht erworben, das evtl. auf seinem Computer befindliche Monopolbetriebssystem von Micro$oft unverzüglich zu entfernen, und damit auch gleich Bots und Bundestrojaner mit ins Nirvana zu jagen. Dieser Akt der Befreiung führt übrigens nicht zu digitaler Handlungsunfähigkeit, eher im Gegenteil, gibt es mittlerweile doch genügend freie, open source Betriebssysteme und Anwendungssoftware. Die ist sogar leichter zu installieren als der Monopolkram, sicherer sowieso, und deckt mittlerweile die allermeisten Bedürfnisse der Arbeit mit dem Computer ab. In diese zehntausende von freien Softwarepaketen sind im Laufe der letzten ca. 20 Jahre beträchtliche, oft hochqualifizierte Arbeitsmengen eingeflossen, und sie kann sich der Enteignung und Unterdrückung entziehen. Ersteres durch entsprechende Lizenzen und nahezu kostenlose Kopierbarkeit z.B. über das Internet. Zweiteres durch die Integration in die Infrastruktur des Internet und kommerzieller Softwareproduktion, die sie (die freie Software) auch für die kapitalistische Produktion unverzichtbar macht. Wie dieser erstaunliche, für alle Interessierten verfügbare Wohlstand an freier Software zustande kommt, wäre auf jeden Fall eine eigene Abhandlung wert, das sprengt hier trotz der hohen Relevanz für libertären Erkenntnisgewinn den Rahmen, aber zum Glück gibt es bereits ([ Grassmuck], S. 202ff). Bei aller Konsumfreundlichkeit, die freie Softwaredistributionen inzwischen erreicht haben, gilt auch für diesen Akt der Befreiung eines Umstiegs auf solche Software: gemeinsam macht es mehr Spaß und ist nachhaltiger. Da Software beim heutigen Stand der Technik prinzipiell keine Perfektheit garantieren kann, kann es natürlich auch bei open source Software Probleme geben. Einen großen Anteil an diesen Problemen stellen Schwierigkeiten bei der Hardwareunterstützung dar, weil Hardwarehersteller oft nur Treiber für Micro$oft-Betriebssysteme erstellen und keinen Quellcode ("source") der Treibersoftware oder Spezifikationen der Hardware veröffentlichen, mit denen dann freie Treiber programmiert werden könnten. Ein Grund mehr, das de facto M$-Monopol endlich auf den Misthaufen der Geschichte zu werfen - und sich über die Genialität des Konzepts der offenen Standards im Internet zu freuen. 2.3.4. Verschlüsselung, Sicherheit und Anonymität Nach der Vergesellschaftung der Programmcodes kommen wir nun zu einem privateren Thema, bei dem genau das Gegenteil von Vergesellschaftung der Zweck ist, nämlich die Durchsetzung eines Freiraums namens Privatsphäre, angeblich ein Grundrecht in bürgerlichen Gesellschaften. Durch Digitalisierung und Vernetzung sind die technischen Möglichkeiten zur Datenschnüffelei und -manipulation in Orwellsche Dimensionen gewachsen, und die Schwellen zum Eingriff werden mit jedem "Terror"-Ruf weiter gesenkt. Glücklicherweise ist im digitalen Bereich dagegen Kraut gewachsen, und zwar mathematisches. Die heute verfügbaren kryptographischen Algorithmen erlauben Übertragung und Speicherung ohne dass es auf absehbare Zeit praktikable Gegenmaßnahmen des Knackens und Manipulierens gäbe. Dazu ist allerdings einiges zu beachten, denn Sicherheit ist ein komplexes Thema, und Sicherheitslösungen sind höchstens so stark wie ihr schwächstes Glied. Und das befindet sich meistens vor der Tastatur, d.h. ohne gewisse Grundkenntnisse, die eine/n NutzerIn die Bedeutung der Handlungen bei der Bedienung von Sicherheitssoftware verstehen lassen, kann die tollste Mathematik mit einem Klick nutzlos werden. Eine Mindestanforderung an Verschlüsselungs- und andere Sicherheitssoftware ist die Quelloffenheit ("open source"), denn nur durch die Analyse der Software durch möglichst viele, kompetente und unabhängige Dritte kann bestmöglich sichergestellt werden, dass sie keine Hintertürchen hat. Leider verbreitetes Gegenbeispiel: angeblich verschlüsselte Internet-Telefonie mit Skype. Vom größten Sicherheitsproblem des heutigen Internet, den nicht quelloffenen Viren äh Betriebssystemen von Micro$oft, hat sich der/die LeserIn spätestens nach der Lektüre des vorigen Abschnitts ja schon verabschiedet. Aber auch bei freier Software gilt, wenn sie am Internet betrieben wird: kryptographisch signierte Sicherheitsaktualisierungen einspielen! Für den Mailverkehr verwendet man PGP in seiner freien Inkarnation GnuPG und fixt auch möglichst alle seine virtuellen KommunikationspartnerInnen darauf an. (Der vorige Satz enthält zwar virales Marketing, aber für die Verteidigung der Privatsphäre gegen die Großen und Kleinen Brüder haben wir das genehmigt.-) Festplattenverschlüsselung ist auch empfehlenswert, aber meist betriebssystemabhängig. Bei der Übertragung von Authentifizierungsinformationen im Internet, z.B. beim Abruf oder Versand von mail oder beim Einloggen in interne Bereiche von Websites, achtet man auf die Verwendung verschlüsselter Übertragungsprotokolle. Falls der jeweilige Provider so etwas nicht anbietet, sollte man spätestens dann über den Wechsel zu einem alternativen Serverprojekt nachdenken. Ein etwas anders gelagertes Problem für die Privatsphäre besteht in unvermeidlichen Datenspuren, die man im Internet bereits dadurch hinterlässt, dass man es nutzt - egal wie. Denn die eigene IP-Adresse muss notwendig in jedem Datenpaket enthalten sein, dass man versendet. Dadurch können Suchmaschinen mitschneiden, von welcher IP-Adresse aus sich jemand für ein bestimmtes Thema interessiert hat. Wenn man - wie die meisten Konsumenten - keine feste IP Adresse hat, bekommt man sie vom Provider zugeteilt, und spätestens über diesen können die Organe dann feststellen, wer sich für ihnen suspekte Themen interessiert hat. Gegen so etwas helfen Anonymisierungsdienste, im einfachsten Fall ein vertrauenswürdiger Webproxy. Kryptographisch ausgeklügelt ist das Anonymisierungsnetzwerk Tor ("the onion router"), z.Z. wohl das beste freie System für diesen Zweck, das sogar gegen eine Komplettüberwachung des eigenen Internetzugangs helfen kann. Allerdings ist das Surfen darüber bisweilen langsam, d.h. der/die LeserIn könnte sinnvollerweise überlegen, selbst einen Tor-Knoten zu betreiben und damit das Netzwerk zu verbessern und aktiv auch etwas für die Privatsphäre anderer zu tun. Solche fortgeschritteneren Fragen wie auch alle einfacheren in Sachen emanzipatorischer Internetnutzung und -gestaltung erörtert man am besten nach der oben gegebenen Empfehlung: Bildet Banden! Quellen [FNord] AutorInnenkollektiv um Frank Nord: „Anarchismus und Internet“. < http://projekte.free.de/anarchismus-und-internet/>. S. 247-275 in: Anarchismus 2.0. Bestandsaufnahmen. Perspektiven. Hrsg. von Hans Jürgen Degen und Jochen Knoblauch , Schmetterling Verlag Stuttgart , April 2009. ISBN 3-89657-052-8. . [DadA] Datenbank des deutschsprachigen Anarchismus. , . [Grassmuck] Volker Grassmuck: Freie Software - zwischen Privat- und Gemeineigentum. 2., korrigierte Auflage, Bonn, 2004. ISBN 3-89331-569-1. < http://freie-software.bpb.de/>. [Musch] J. Musch, : „Die Geschichte des Netzes: ein historischer Abriß.“. < http://www.uni-duesseldorf.de/home/Fakultaeten/math_nat/WE/Psychologie/ abteilungen/ddp/Dokumente/Publications/ 1997.Musch.Die_Geschichte_des_Netzes.html>. In: B. Batinic, : Internet für Psychologen, Göttingen, 1997. [Gillies] James Gillies, / , : „Die Geburt des Internet“. . In: Die Wiege des Web, Heidelberg, 2002. [RFCxyz] RFCxyz. oder oder . [Bradner] S Bradner: The Internet Standards Process. Revision 3. BCP9, RFC2026. Oktober 1996. . [Crocker] D. Crocker, : „Making Standards the IETF Way“. . In: StandardView, Vol 1, No. 1, September 1993, S.48-56. ISSN 1067-9936. [Rutkowski] Anthony M. Rutkowski: Today's Cooperative Competitive Standards Environment For Open Information and Telecommunication Networks and the Internet Standards-Making Model. 1994. . [ITU] ITU (International Telecommunication Union): T-MPLS agreement: ITU-T and IETF. 2007. . [IAB] IAB and IESG (Internet Architecture Board and Internet Engineering Steering Group): T-MPLS use of the MPLS Ethertypes. 2007. . [Licklider I] J.C.R. Licklider, : „Man-Computer Symbiosis“. . In: IRE Transactions on Human Factors in Electronics, volume HFE-1, S.4-11, März 1960. [Licklider II] J.C.R. Licklider: Memorandum For Members and Affiliates of the Intergalactic Computer Network. 1960. , . [RAND] RAND: History and Mission. . [Baran I] Paul Baran / et al.: On Distributed Communications (I-XI). RAND, Santa Monica, 1964. . [Baran II] Paul Baran, : „On Distributed Communications Networks“. . In: IEEE Transactions on Communications, Volume CS-12, Issue 1, März 1964, S.1-9, ISSN 0096-1965. [Davies] D.W. Davies, / / / : „A digital communication network for computers giving rapid response at remote terminals“. . In: Proceedings of the first ACM symposium on Operating System Principles, Gatlinburg, Tennessee - October 1967. [Barber] Derek Barber, : „The Origins of Packet Switching“. . In: Computer Resurrection, The Bulletin of the Computer Conservation Society, No. 5, Frühjahr 1993. [Roberts I] Lawrence G. Roberts, : „Multiple Computer Networks and Intercomputer Communication“. , . In: Proceedings of the first ACM symposium on Operating System Principles, Gatlinburg, Tennessee - October 1967. [Roberts II] Lawrence G. Roberts, : „The Evolution of Packet Switching“. < http://www.packet.cc/files/ev-packet-sw.html>, . In: Proceedings of the IEEE, Volume 66, Issue 11, November 1978, S.1307-1313, ISSN 0018-9219. [Leiner] Barry M. Leiner / Vinton G. Cerf / David D. Clark / Robert E. Kahn / Leonard Kleinrock / Daniel C. Lynch / Jon Postel / Larry G. Roberts / Stephen Wolff: A Brief History of the Internet. Version 3.32, Dezember 2003 . . [Baran III] Paul Baran, : „Founding Father“. . Interview von Stewart Brand in: Wired Magazine , Volume 9, Issue 3, März 2001. [NWG] NWG (Network Working Group): ARPA Network Mailing Lists. RFC300, Januar 1972. . [Crocker] Steve Crocker: Documentation conventions. RFC3, April 1969. . [Kirstein] Peter T. Kirstein: Early Experiences with the ARPANET and INTERNET in the UK. Juli 1998. . [Kalle] Claus Kalle, : „Das Internet in Deutschland - Ein alter Hut ?“. < http://www.uni-koeln.de/rrzk/kompass/64/wmwork/www/k64_15.html>. In: RRZK-Kompass, Ausgabe Nr.64, Dezember 1994. [NSFNET] NSFNET: A Partnership for High-Speed Networking, Final Report 1987-1995. . [NSF] NSF (National Science Foundation), Office of Inspector General: Review of NSFNET. April 1993. . [CNI] CNI (Coalition for Networked Information): NSFNET Acceptable Use Policy. . [Halabi] Sam Halabi / with Danny McPherson: Internet Routing Architectures. Second Edition, Cisco Press, August 2000. ISBN 1-57870-233-X. . [DE-CIX] DE-CIX: DE-CIX Customers. . [Berners-Lee] Tim Berners-Lee: Information Management: A Proposal. CERN, März 1989. . [McKenna] McKenna: 867 F.Supp. 202, MTV NETWORKS, A DIVISION OF VIACOM INTERNATIONAL, INC., Plaintiff, v. Adam CURRY, Defendant. No. 94 Civ. 3271 (LMM). United States District Court, S.D. New York, Oktober 1994. . [Clark] David D. Clark: A Cloudy Crystal Ball - Visions of the Future. IETF , Juli 1992. . [Hoffman] Paul Hoffman: The Tao of IETF: A Novice's Guide to the Internet Engineering Task Force. FYI17, RFC4677, September 2006. , . [Alvestrand] Harald Tveit Alvestrand: A Mission Statement for the IETF. BCP95, RFC3935, Oktober 2004. . [Hovey] Richard Hovey / Scott Bradner: The Organizations Involved in the IETF Standards Process. BCP11, RFC2028, Oktober 1996. . [ICANN] ICANN: Internet Corporation for Assigned Names and Numbers. . [Hofmann] Jeanette Hofmann, : „Internet Corporation for Assigned Names and Numbers (ICANN)“. . In: Global Information Society Watch 2007 Report. Hrsg. von Association for Progressive Communications (APC) und Third World Institute (ITeM), Mai 2007 . [Müller-Maguhn] Andy Müller-Maguhn: Regierungs erklärung. Oktober 1996. < http://www.datenreisen.de/papers/Regierungserklaerung.html>. [RIPE] RIPE: About the RIPE NCC. . [ISC] ISC: ISC Internet Domain Survey. . [Bleich] Holger Bleich, : „Bosse der Fasern“. . In: c't, Ausgabe Nr.7/2005, S.88. [Handley] Mark Handley, : „Why the Internet only just works“. . In: BT Technology Journal, Vol 24, No 3, S. 119-129, Juli 2006. [Bundesnetzagentur] Bundesnetzagentur: Eckpunkte der Zusammenschaltung IP-basierter Netze. Februar 2008. . [AK Vorrat] AK Vorrat (Arbeitskreis Vorratsdatenspeicherung): Stoppt die Vorratsdatenspeicherung! - Hintergrund-Informationen. . [Betroffene] Betroffene: §129a-Verfahren "Militante Kampagne gegen den G8-Gipfel" eingestellt - Erklärung Betroffener. Oktober 2008. . [Schmidt] Caroline Schmidt, / : „Lautloses Ende“. . In: DER SPIEGEL, Nr. 42, Oktober 2006, S. 86f. [Einstellung] Einstellung: Wie wird man Terrorist?. November 2007. . [Klein] Mark Klein: Declaration of Mark Klein. Unites States District Court Northern District Of California, C-06-0672-VRW, Juni 2006. . [EFF] EFF (Electronic Frontier Foundation): NSA Spying. . [Bundestagsdrucksache] Bundestagsdrucksache: Aufbau neuer Strukturen des Bundes zur Telekommunikationsüberwachung. Deutscher Bundestag, 16/10137, August 2008. . [ETSI] ETSI (European Telecommunications Standards Institute): Lawful Interception. . [Moechel] Erich Moechel: Die ETSI-Dossiers. Telepolis, März 2001. . [Schäuble] Wolfgang Schäuble, : „Ich schütze, ich gefährde sie nicht“. < http://www.taz.de/1/politik/schwerpunkt-ueberwachung/artikel/1/ ich-schuetze-ich-gefaehrde-sie-nicht/>. Interview in der taz vom 14. Oktober 2006. [Kamluk] Vitaly Kamluk: Botnetze - Geschäfte mit Zombies. Mai 2008. . [Indymedia] DDOS-Attacke auf deutsches Indymedia. 31.12.2008. . [Dahl] Frédéric Dahl: Der Storm-Worm. Universität Mannheim, März 2008. < http://pi1.informatik.uni-mannheim.de/filepool/theses/ diplomarbeit-2008-dahl.pdf>. [Schneier] Bruce Schneier: Gathering 'Storm' Superworm Poses Grave Threat to PC Nets. Oktober 2007. . [Horkheimer/Adorno] Max Horkheimer / Theodor W. Adorno: Dialektik der Aufklärung. Frankfurt am Main, 1988. ISBN 3-596-27404-4. Erstveröffentlichung: 1947. [Maturana/Varela] Humberto R. Maturana / Francisco J. Varela: Der Baum der Erkenntnis. 1987. ISBN 3-442-11460-8, (Taschenbuchausgabe). [ORSN] ORSN: Open Root Server Network. . [CCC] CCC (Chaos Computer Club): Anleitung zur Konfiguration der DNS-Einstellungen. Juni 2003. . [Barbrook] Richard Barbrook, / : „Die kalifornische Ideologie“. . S. 15-36 in: Netzkritik. Materialien zur Internet-Debatte. Hrsg. von nettime, Berlin 1997. ISBN 3-89408-060-4. [Schulz] Pit Schulz / Geert Lovink: Der Anti-Barlow. Mai 1996. , . [Lovink] Geert Lovink: kritik der "kalifornischen ideologie". Interview von Richard Brem, Mai 2003. . [Barlow] John Perry Barlow: A Declaration of the Independence of Cyberspace . Februar 1996. . Deutsche Übersetzung: . [Jesus I] Jesus: Evangelium nach Johannes. Kapitel 18, Vers 36. . [Jesus II] Jesus: Evangelium nach Markus. Kapitel 12, Vers 17. . [Dyson] Esther Dyson / George Gilder / George Keyworth / Alvin Toffler: Cyberspace and the American Dream: A Magna Carta for the Knowledge Age. August 1994. . [Debian] Debian: Debian-Gesellschaftsvertrag. April 2004. . [riseup.net] riseup.net: Riseup Networks' Social Contract. . Index A Abmahnunwesen, Der Staat alternativer Namensraum (DNS), Regulation von unten Anarchosyndikalismus, Kollektive Vereinzelung Anonymisierungsdienste, Verschlüsselung, Sicherheit und Anonymität AS, Autonomes System, Qualitative Offenheit , Netztopologie und Besitzverhältnisse AUP, Kommerz und WWW Ausforschungsparagraphen 129/a/b StGB, Der Staat Autopoiese, Gedankenexperiment: Anarchismus als Internet B bilaterale Vereinbarungen, Vom Internet lernen ... Botnetz, Datenmüll und Verbrechen, Freie, open source Software Bundestrojaner, Freie, open source Software C Communications Decency Act (CDA), Freiheit mit Staat und Markt? Copyright-Industrie, Der Staat, Freiheit mit Staat und Markt? D DadA, Einleitung Datenschnüffelei, Verschlüsselung, Sicherheit und Anonymität Datenspuren, Verschlüsselung, Sicherheit und Anonymität Datenübertragungsnetze ARPANET, Qualitative Offenheit , Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET BITNET, TCP/IP, BSD Unix, CSNET, NSFNET, Internet BTX, Herstellerneutrale, offene Standards CSNET, TCP/IP, BSD Unix, CSNET, NSFNET, Internet Cyclades, TCP/IP, BSD Unix, CSNET, NSFNET, Internet FidoNet, TCP/IP, BSD Unix, CSNET, NSFNET, Internet MILNET, TCP/IP, BSD Unix, CSNET, NSFNET, Internet NSFNET, TCP/IP, BSD Unix, CSNET, NSFNET, Internet, Kommerz und WWW Telenet, TCP/IP, BSD Unix, CSNET, NSFNET, Internet Tymnet, TCP/IP, BSD Unix, CSNET, NSFNET, Internet Usenet, TCP/IP, BSD Unix, CSNET, NSFNET, Internet uucp, TCP/IP, BSD Unix, CSNET, NSFNET, Internet WAN, ARPANET X-WiN, Der Staat X.25, TCP/IP, BSD Unix, CSNET, NSFNET, Internet DDoS-Angriffe, Datenmüll und Verbrechen Declaration of the Independence of Cyberspace, Freiheit mit Staat und Markt? Dezentralisierung, Konzerne - nein danke! DNS, Domain Name System, Qualitative Offenheit Domain-Namen, Qualitative Offenheit , Kommerz und WWW , Vom Internet lernen ... E e-mail, Qualitative Offenheit , ARPANET Erfassung von Kundendaten, Der Staat Ethernet, Qualitative Offenheit , TCP/IP, BSD Unix, CSNET, NSFNET, Internet F Festplattenverschlüsselung, Verschlüsselung, Sicherheit und Anonymität file sharing, Der Staat G GEZ, Kommerz und WWW H Handlanger kapitalistischer Unternehmen, Der Staat Hardwareunterstützung, Freie, open source Software I IMP, Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET Infrastruktur Anschlussleitungen zu den Endkunden, Netztopologie und Besitzverhältnisse backbone, Kommerz und WWW , Netztopologie und Besitzverhältnisse Glasfaserstrecken, Netztopologie und Besitzverhältnisse Internet-Knotenpunkte DE-CIX, Kommerz und WWW IX, Kommerz und WWW , Netztopologie und Besitzverhältnisse NAP, Kommerz und WWW Mailgateways, Kommerz und WWW Rechenzentren, Netztopologie und Besitzverhältnisse Rootserver des DNS, Eindeutige Nummern und Namen Server, Netztopologie und Besitzverhältnisse Supercomputerzentren, TCP/IP, BSD Unix, CSNET, NSFNET, Internet Überkapazitäten, Netztopologie und Besitzverhältnisse Wege(rechts)inhaber, Netztopologie und Besitzverhältnisse Innovationszyklus, Kapitalismus und/oder Innovation Institutionen (D)ARPA, Militärisch-wissenschaftliche Wurzeln, "packet switching" CERN, Kommerz und WWW DFN, Der Staat MIT, Militärisch-wissenschaftliche Wurzeln, "packet switching" NPL, Militärisch-wissenschaftliche Wurzeln, "packet switching" RAND, Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET UCL, ARPANET UCLA, Militärisch-wissenschaftliche Wurzeln, "packet switching" Internet-Organisationen DENIC, Eindeutige Nummern und Namen IAB, Standards IANA, Eindeutige Nummern und Namen ICANN, Eindeutige Nummern und Namen , Vom Internet lernen ... IESG, Standards IGF, Standards IRTF, Standards ISOC, Standards RIPE NCC, Eindeutige Nummern und Namen RIR, Eindeutige Nummern und Namen WSIS, Standards Internet-Prinzipien beliebige Verbindungen, Beliebige Verbindungen zwischen allen hosts, Kommerz und WWW , Kapitalismus und/oder Innovation Dezentralität, ARPANET Digital, Digital Kopierbarkeit, Digital packet switching, Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET Paketorientierung, Paketorientierung Redundanz, ARPANET Internet-Protokoll ftp, ARPANET http, Kommerz und WWW IP, Quantitative Offenheit IP-Adresse, Qualitative Offenheit , Verschlüsselung, Sicherheit und Anonymität Länge, Quantitative Offenheit Vergabe, Eindeutige Nummern und Namen , Vom Internet lernen ... Zuordnung Domainname, Eindeutige Nummern und Namen IPv4, Quantitative Offenheit, Qualitative Offenheit IPv4-Präfixe, Qualitative Offenheit IPv6, Quantitative Offenheit, Kapitalismus und/oder Innovation multicast, Kapitalismus und/oder Innovation NCP, Qualitative Offenheit , ARPANET, TCP/IP, BSD Unix, CSNET, NSFNET, Internet TCP, Kapitalismus und/oder Innovation TCP/IP, TCP/IP, BSD Unix, CSNET, NSFNET, Internet telnet, ARPANET Internettelefonie, Qualitative Offenheit K kalifornische Ideologie, Freiheit mit Staat und Markt? kostenlose Dienste, Datenmüll und Verbrechen Kundendaten, Konzerne - nein danke! L LAN, Militärisch-wissenschaftliche Wurzeln, "packet switching", TCP/IP, BSD Unix, CSNET, NSFNET, Internet Leitungsorientierung, Paketorientierung Leitungstypen, Netztopologie und Besitzverhältnisse M Mailboxnetze, "Bildet Banden!" Markennamen, Kommerz und WWW Marktförmigkeit, Freiheit mit Staat und Markt? Monopolisierungsversuche, Herstellerneutrale, offene Standards N NAT, Quantitative Offenheit, Kapitalismus und/oder Innovation Next Generation Networks, Der Staat Null-Euro-Mentalität, Datenmüll und Verbrechen, Konzerne - nein danke! Nutzungsdaten, Kommerz und WWW O offene Netzwerkarchitektur, Quantitative Offenheit operative Autonomie, Vom Internet lernen ... Organisierung vor Ort, "Bildet Banden!" Organisierungspotential, Kollektive Vereinzelung overlay network, Regulation von unten P peer-to-peer Netze, Der Staat, Regulation von unten peering, Kommerz und WWW , Netztopologie und Besitzverhältnisse Personen Baran, Paul, Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET Barlow, John Perry, Freiheit mit Staat und Markt? Bush, George W., Der Staat Davies, Donald, Militärisch-wissenschaftliche Wurzeln, "packet switching" Kleinrock, Leonard, Militärisch-wissenschaftliche Wurzeln, "packet switching" Licklider, J.C.R., Militärisch-wissenschaftliche Wurzeln, "packet switching" Postel, Jon, Eindeutige Nummern und Namen Roberts, Lawrence G., Militärisch-wissenschaftliche Wurzeln, "packet switching" Schäuble, Wolfgang, Der Staat phishing, Datenmüll und Verbrechen postkapitalistische Ökonomie, Freiheit mit Staat und Markt? Privatsphäre, Verschlüsselung, Sicherheit und Anonymität Q QoS, Kapitalismus und/oder Innovation Quelloffenheit, Freie, open source Software R rechtsfreie Räume, Kommerz und WWW Regulationsmethoden, Regulation von unten Repression, Freiheit mit Staat und Markt? Router, Paketorientierung Routing -Informationen, Netztopologie und Besitzverhältnisse -Tabellen, Qualitative Offenheit CIDR, Kapitalismus und/oder Innovation Nachbarschaftsverbindungen, Netztopologie und Besitzverhältnisse Protokoll, BGP, Qualitative Offenheit , TCP/IP, BSD Unix, CSNET, NSFNET, Internet suboptimales, Netztopologie und Besitzverhältnisse Umstellung auf BGP4, Kapitalismus und/oder Innovation S Schutz der Persönlichkeitsrechte von Nazis, Der Staat Selbstoptimierung, Gedankenexperiment: Anarchismus als Internet Sicherheitsprobleme, Kapitalismus und/oder Innovation Sicherheitssoftware, Verschlüsselung, Sicherheit und Anonymität Skype, Verschlüsselung, Sicherheit und Anonymität Social Contract, Freiheit mit Staat und Markt? Software Betriebssysteme BSD Unix, TCP/IP, BSD Unix, CSNET, NSFNET, Internet open source, Freie, open source Software Unix, Qualitative Offenheit Webbrowser Mosaic, Kommerz und WWW Mozilla/Firefox, Kommerz und WWW Netscape, Kommerz und WWW soziale Dimension, Kollektive Vereinzelung Spam, Datenmüll und Verbrechen Staatliche Organe BKA, Der Staat Bundesnetzagentur, Netztopologie und Besitzverhältnisse GCHQ, Der Staat NSA, Der Staat Verfassungsschutz, Der Staat Standardisierungsgremien IETF, Herstellerneutrale, offene Standards, Standards ISO, Kommerz und WWW ITU, Herstellerneutrale, offene Standards OSI, Herstellerneutrale, offene Standards Standards Entwicklung von, Standards Ethernet, Herstellerneutrale, offene Standards HTML, Kommerz und WWW MPLS, Herstellerneutrale, offene Standards RFCs, ARPANET Schnittstellen zum Abhören, Der Staat SGML, Kommerz und WWW X.500, Herstellerneutrale, offene Standards Stromverbundnetz, Internet undstattoder Anarchismus Subnetz, Netztopologie und Besitzverhältnisse Symmetrie zwischen Distribution und Bezahlung, Freiheit mit Staat und Markt? T Tauschbörsen, Der Staat Technoliberalismus, Freiheit mit Staat und Markt? Telefonnetz, Herstellerneutrale, offene Standards Telekommunikationsüberwachungsverordnung, Kommerz und WWW tor, Der Staat, Verschlüsselung, Sicherheit und Anonymität transit, Netztopologie und Besitzverhältnisse transit traffic, Kommerz und WWW Transportnetz, Herstellerneutrale, offene Standards Trennung von Transportinformation und Nutzlast, Regulation von unten Trennungsgebot von Polizei und Nachrichtendiensten, Der Staat U Übertragungsmöglichkeiten, ARPANET, TCP/IP, BSD Unix, CSNET, NSFNET, Internet Überwachung, Konzerne - nein danke! Unterbindung von Kritik, Der Staat Unternehmen 1&1, Konzerne - nein danke! AOL, Kapitalismus und/oder Innovation BBN, Militärisch-wissenschaftliche Wurzeln, "packet switching", ARPANET Cisco, Kapitalismus und/oder Innovation CompuServe, Kommerz und WWW , Kapitalismus und/oder Innovation gmx, Konzerne - nein danke! Google, Netztopologie und Besitzverhältnisse IBM, Kommerz und WWW MCI, Kommerz und WWW MCI Mail, Kommerz und WWW Micro$oft, Netztopologie und Besitzverhältnisse, Kapitalismus und/oder Innovation, Freie, open source Software Telekoma, Kommerz und WWW , Kapitalismus und/oder Innovation United Internet, Konzerne - nein danke! web.de, Konzerne - nein danke! world.std.com, Kommerz und WWW V Verbot von Anonymisierungsdiensten, Der Staat Verbundprojekt, Gedankenexperiment: Anarchismus als Internet Verknappungsinstanzen geistiges Eigentum, Eindeutige Nummern und Namen Lizenzen, Quantitative Offenheit Markennamen, Eindeutige Nummern und Namen Monopole, Quantitative Offenheit Verknüpfung von virtueller und realer Identität, Der Staat Verpflichtung zur Überwachung, Der Staat Verschlüsselte Übertragungsprotokolle, Verschlüsselung, Sicherheit und Anonymität Verstopfungszusammenbrüche, Kapitalismus und/oder Innovation virtuelle Freiheit, Freiheit mit Staat und Markt? virtuelle Republik, Freiheit mit Staat und Markt? Vorratsdatenspeicherung, Kommerz und WWW , Der Staat VPN, virtual private network, Regulation von unten W WAN, ARPANET Webproxy, Verschlüsselung, Sicherheit und Anonymität Werbung, Kommerz und WWW , Datenmüll und Verbrechen, Konzerne - nein danke! WWW, Qualitative Offenheit , Kommerz und WWW Z Zensur, Regulation von unten, Freiheit mit Staat und Markt? Zugangsmöglichkeiten, Unabhängigkeit vom Übertragungsmedium, Kommerz und WWW , Netztopologie und Besitzverhältnisse Zwangstrennung, Datenmüll und Verbrechen