Advertisement
Not a member of Pastebin yet?
Sign Up,
it unlocks many cool features!
- Martin Warnke
- Theorien des Internet
- zur Einführung
- I Die Geschichte des Internet
- - die Prämissen der "Bauer" des Internets (Militär und Wissenschaft) waren unabhängig von Geld
- 1.1 Paketvermittlung und Vernetzung
- - der mediale Grundzug des Internets sind Datenströme in Einzelpaketen
- 1.2 Entwicklung in den USA
- - Paul Baran sollte für die U.S. Air Force ein Kommunikationsmodell entwickeln, das ggü
- Angriffen immun ist - durch verteilter, statt zentraler Netzstruktur
- - Daten werden nun durch die Zeit differenziert, nicht -wie vorher bei der analogen Telefonie-
- durch Frequenzen
- - in standardisierten Datenblöcken
- 1.3 Entwicklung in Europa
- - Man befürchtete eine ökonomische Dominanz durch die USA in der Computerindustrie
- - Donald Davies überlegte sich ein effizienteres Datenvermittlungsmodell
- - entwickelte Mark I, Computernetzwerk zur Vernetzung zwischen Wissenschaftsstandorten,
- um Programme auf anderen Standorten laufen zu lassen und gemeinsam daran zu arbeiten
- - Ausweitung wurde vor allem vom General Post Offive, brit. Telekommunikationsmonopol
- verhindert, erst 1973 kam es dazu
- 1.4 Die ARPA 1.5 Der Start des Arpanetzes
- - Advanced Research Project Agency
- - förderte seit 1970 Timesharing-Computer und deren Vernetzung nach Davies und Baran
- - verknüpfte Universitäten Berkeley, Los Angeles, Utah und Standford, das ARPANET
- - damit Testfall für herstellerunabhängige Datenkommunikation
- - Dadurch, dass vor allem Akademiker daran arbeiteten, die an Diversität interessiert waren,
- zieht sich dieser Grundsatz bis heute: Hersteller sollten nicht darüber entscheiden, wie ein
- Computer angeschlossen wird
- - Eine Konvention, also ein Protokoll, statt proprietärer Systeme sollte her
- - Protokolle sind bis heute der gemeinsame Nenner, der die Interaktion ermöglicht
- 1.7 Die Dienste des ARPANET
- - Sinnd und Zweck war es, entfernte Computer so benutzen zu können als wäre man vor Ort
- - Heterogene Gerätschaften wurden durch das TELNET verbunden - Simulation eines Terminals
- - Erster Dienst war LOGIN, Bitte um Erlaubnis zur Benutzung anderer Computer
- - zweiter Dienst: FTP (File Transfer Protocol) Wird noch immer verwendet
- [hier scheinen verschiedene Ansichten zu existieren, welche Protokolle denn nun al erstes
- im ARPAnet entwickelt wurden]
- - der Wunsch nach Mensch-zu-Mensch, statt nur Mensch-zu-Maschinen-Kommunikation führte
- zum Aufkommen der E-Mail
- - Ein wesentliches Datenaufkommen bestand aus Kommunikation miteinander
- - emergentes Phänomen
- Emergenz: Organisationsformen bedienen sich der Elemente der darunterliegenden Strukturen
- Nach Luhman: Übergeordnete Systeme können von geringer Komplexität sein, da sie sich ihre
- Elemente selbst bestimmen.
- Emergenz ist also keine Verkomplexualisierung, sondern Unterbrechung und Neubeginn des
- Komplexitätsaufbaus. Die technischen Voraussetzungen sind Möglichkeitsbedingungen. Die
- emergenten Formen lassen sich aber nicht durch den Unterbau erklären.
- 1.8 E-Mail
- Luhman: Kommunikation im Sinne eines sozialen prozesses, der Gesellschaft erst herstellt-
- braucht neben der Selektion von Information und Nachricht noch die des (Miss-)Verstehens,
- die die Kommunikation erst weitertreibt.
- Dazu bedarf es eines mit Bewusstsein begates Systems, das semantisch, nicht nur syntaktisch
- (wie Computer) verarbeitet.
- - erst wurde FTP dazu missbraucht, später wurde ein Programm entwickelt, mit dem nun auch
- Menschen miteinander kommunizieren konnten
- - Electronic Mail wurde sofort sowohl für technische, wissenschaftliche Zwecke verwendet
- und für transkontinentalen Drogenhandel
- - Gesellschaft reproduziert sich auch durch Kommunikation mit Hilfe digitaler Medien,
- das wurde spätestens seit 1972 durch den Siegeszug der E-Mail manifest,
- nicht erst durch heutige Social networks." (S. 39)
- - E-mail konnte auch von Laien verwendet werden
- - Menschen bestimmten also, was mit der Technik geschehen sollte -> Emergenz von oben,
- unerwartet, ungeplant
- 1.9 Spam
- - die erste Spam-Nachricht war eine Anti-Kriegs-Mail an 1000 EmpfängerInnen
- - Das SMTP-Protokoll öffnete Betrügern die Tür, da keine Authentifizierung
- nötig war
- 1.10 TCP/IP
- - Vinton Cerf & Robert Kahn entwickelten neues Basisprotokoll, um verschiedene technische
- Ansätze zu vereinen statt zu übersetzen
- - IP & ICTP wurden durch ARPA gefördert
- - ARPA finanzierte auch Implementierung von TCP/IP in Linux
- - spätere weitere Standardisierung durch militärische Befehle
- 1.11 Interessenkämpfe um Standards
- - Telekommunikationsunternehmen sollten und wollten Infrastruktur verwalten und sich kümmern
- - sahen allerdings intelligentes Netz und dumme Endgeräte vor mit dem Standard X.25
- - Es setze sich allerdings ein umfangreicheres Schichtenmodell von Protokollen durch, weswegen
- sich immer noch über TCP/IP Zugang zum Internet verschafft werden konnte
- - "TCP/IP war damit Basismedium des Internets und der "erste Kampf um die Netzneutralität
- war gewonnen" (S. 47)
- - Die Lösung aus militärischer Obhut und das Abstellen des ARPAnetzes führten letztendlich 1990
- zu einem exponentiellen Wachstum der Hosts, da alle Beschränkungen ggü den Potenzialen
- des Internets weg waren
- - "Erst einmal aus der Kontrolle des Militärs entlassen, wächst das Internet ohne erkennbare
- Grenze, auch ohne die von Nationen. Und es kam zu sich, fand den Dienst, der alles andere
- absorbierte, just in dieser Zeit. Die Rede ist vom World Wide Web." (S. 50)
- 1.12 Die massenhafte Durchsetzung des Internet im WWW
- - Geplant war Paketvermittlung, Fernbedienung, Dateiaustausch
- - nicht geplant war Email, World Wide Web
- - aber damals wie heute lief alles auf Grundlage von TCP/IP
- - Hypertext wurde Computer-Übergreifend zuerst in Cern entwickelt, damit ForscherInnen
- Fußnoten nicht nur anzeigen lassen konnten, sondern auch maschinell ausführbar machten
- - technisch bestand das WWW aus einem Protokoll, das auf TCP/IP aufbaute, dem HTTP und URL
- - all dies geschah im Rahmen von CERN, zwischen 1989 und 1992
- - "Wenn es eine Konstante in der Geschichte des Internet gibt, dann ist es Überraschung." (S. 52)
- Jane Abbate
- II. Die Technik des Internet
- 2.1 Das Internet-Protokoll
- - IP überträgt Datenpakete von Absendern zu Empfängern, mit einer IP-Adresse und der
- Zerlegung und dem Aufbau von Datenpaket-Teilen
- - IP ist gleichgültig ggü. der Nutzung von Daten und der Technik der Datenübertragung
- - Adressierung durch IP geschieht mittels des Headers eines Datenpakets
- - Version (meist 4)
- - IHL (Länge des Headers)
- - Type of Service - welche Präferenzen?
- - niedrige/hohe Verzägerungszeiten
- - niedriger/hoher Datendurchsatz
- - Grad d. Sicherheit
- Hierbei ist es eine Frage der Netzneutralität, ob die Pakete komplett
- oder gar nicht markiert sind. Soll zwischen den Datenpaketen differenziert
- werden?
- - total length
- - Identification, Fragment Offset, Flag (notwendig für die Zusammensetzung der Teile
- - Time to live ( Selbszerstörungsmechanismus)
- - max. 256 "hops", die bei jedem "Hop" heruntergezählt werden, falls länger als
- 1 Sekunde herumirrend
- - Protocol (welches Protokoll kümmert sich um das angekommene Paket, bspw. TCP)
- - Header Checksum (Prüfsumme)
- 2.2 IP-Adressen
- - bestehen aus 4 Gruppen von Zahlen zwischen 0 und 255
- - die ersten drei Gruppen sind für den globalen Subnetzraum verantwortlich
- - die letzte Gruppe für das lokale Subnetz, darum kümmert sich der Router
- - ICANN ist für die Adressverteilung zuständig
- 2.3 Domain Names
- - DNS - Dienst zur automatischen Zuordnung von Namen & Nummern,
- 2.4 Begrenzung der IP-Adressen
- - mit dem Muster der IPs können etwa 4Mrd Zahlen dargestellt werden, zu wenig
- - Lösungen:
- - DHCP: Dienst, der IP-Adressen nur nach Bedarf vergibt
- Der Zusammenhang zwischen PC und IP-Adresse ginge verloren
- - NAT: IP-Adressen pro Haushalt, können doppelt vergeben werden
- - IPv6: längere IP-Adressen, hat sich aber noch nicht durchgesetzt
- 2.5 Routing
- - Über den Header des Datenpakets wird die Wegfindung mit Richtung und Entfernung
- verfolgt, dafür haben Router Routingtabellen, die tracen, welche Route die kürzeste ist
- - Das Netz ist aufgeteilt in wenige wichtige Oberzentren und viele weniger wichtige
- Endknoten -> charakteristisches skalenfreies Netz
- - die autonomen Systeme können sich miteinander darpber austauschen, welche Weg der
- kürzeste ist
- 2.6 TCP: Die Verbindung im Internet
- - Diversität der Endgerät führte zu Heterogenität
- - IP ist schlicht, so dass Endgeräte für die Verbindung zuständig sind
- - dadurch können sogar Smartphones anspruchsvolle Dienste ausführen
- - TCP ist für den zuverlässigen, unverfälschten Datenverkehr, also die Flusskontrolle zuständig
- 1. Sender schickt Verbindungsanfrage, Empfänger richtet Puffer für Datenein und Datenstrom
- wird mit einer eindeutigen Nummer versehen (socket)
- 2. Ununterbrochener Datenstrom - Herunterzählen der Sequensnummern und Bestätigungen machen
- Datenstrom verlässlich
- Die Fehlerbehandlungen gehen von den Diensten aus, dadurch können Lösungen an die technischen
- Entwicklungen angepasst werden - rührt aus einem Kontrollverzicht des Protokolls
- 2. 7. Aufbau eines TCP-Segments
- langweilig
- 2.8 HTTP: Anforderung und Auslieferung von WWW-Seiten
- - 1992 am Cern entwickelt, ursprünglich für die Kollaboration mit versch. Computern am Cern
- - im Wesentlichen besteht HTTP daraus, Dokumente anzufordern und auszuliefern
- - wird von einem User Agent eingeleitet, Anfrage an die Ressource eines Usprungsservers
- - User Agent = Webbrowser, Server = Webserver
- - Http-Requests sind vielfach parametisierbar, also wechselnden Bedürfnissen anpassbar
- 2.9 Cookies
- - Die Verbindung zwischen Servern und Clients sind lose, "weak ties",
- - nach Granovetter bestimmen sie den Zusammenhalt zwischen modernen Gesellschaften
- - werden trotzdessen Spuren gespeichert, dann in sog. Cookies
- - Spuren wie Besuchsgeschichte, vor Allem für Firmen einsehbar
- - Name geht auf bewusstseinserweiternde Drogen in einem Comic zurück
- 2.10 HTML- Bau von Webseiten & 2.11 Die Rückker und die Überwindung des Buches
- - Strom wird zu einem lesbaren Dokument mit eingebetteten Grafiken und Querverweisen
- - HTML ist eine Dokumentbeschreibungssprache
- - versieht alles Inhaltliche mit Markern
- - Ist dabei keine Konvention sondern eine Empfehlung
- - CCS hat das Layout komplexer gemacht und die Trennung zwischen Inhalt und Struktur bewirkt
- - Da nun Medien in HTML zu finden sind, werden Webseiten Kreuzungen zwischen Buch und Fernsehen
- - was auch zu der Krise der Medienindustrie führte
- III. Die Wissenschaft von den Netzen
- 3.1 Komplexität
- - Wenn es eine Richtung der modernen Gesellschaft gibt, so strebt sie gen höherer Komplexität
- - Komplexität entsteht durch Bildung von Relationen -> Etwas unterscheidet sich, hat mit diesem
- zu tun, ist von ihm verschieden - dadurch können sie in Verbindung stehen
- - Nach Warnke gibt es eine strukturelle Verwandtschaft zwischen dem internet und der Gesellschaft
- "Dieses Etwas kann man einen Knoten nennen, die Verbindung eine Kante oder einen Link. Aus Knoten und deren Verbindungen bilden sich Netze, und mittlerweile bezeichnen wir eine große Menge von Phänomenen mit dieser Metapher.
- Das Internet hat eine solche Sichtweise motiviert, denn seine Komplexität entsteht aus Agenten, die
- miteinander Kommunikationsverbindungen eingehen..." (s. 100)
- 3.2 Netze überall
- - Eine Netzstruktur mit einer kleinen Zahl stark verlinkter und einer großen Zahl schwach verlinkter
- Objekte hat einen sehr kleinen Durchmesser bei vielen Knoten, ohne einen insgesamt hohen Vernetzungs-
- grad. Wir klumpen meist selber in unmittelbaren Kreisen mit wenigen, aber starken Bindungen
- - einige vernetzen diese Inseln über schwache Bekanntheitsbeziehungen
- - diese Einige heißen "Hubs"
- - es bedarf nur weniger Hubs um guten Zusammenhalt zu erzeugen
- - sie verkürzen auch die Wege ungemein (relevant für Router)
- 3.4 Stabilität
- - Die Wahrscheinlichkeit bei skalenfreien Netzen, dass _kein_ Hub getroffen wird ist größer
- als dass einer getroffen wird bei zufälligen Attacken
- - gezielte Attacken auf Hubs dagegen können Instabilität verursachen
- 3.5 Wachstum
- - Bei der Verküpfung neuer Knoten liegt ein Preferential Attachment vor, sie binden sich lieber an Hubs
- - Wachstum und "Lieblingsknoten" sind die beiden Triebkräfte bei der Entstehung
- des skalenfreien Netzes
- - Oberzentren ziehen den größten Teil an sich und vertragen auch so viel
- 3.6 Emergenz
- - Das Netz wächst und wird nicht gebaut
- - die wichtigsten Ingredienzen der postmodernen Gesellschaft sind von netzartig-emergentem
- Charakter -> Verlust von Steuerbarkeit. Wir können verstehen aber nicht beeinflussen.
- - "Das Internet ist ein "Erfolgs-Desaster, der Entwurf einer neuen Funktion, die in die
- Welt entweicht und sich ungeheuerlich vermehrt, bevor ihr Design noch ganz vorhanden wäre.
- Heute wird das Internet fast ausschließlich für das World Wide Web und E-Mail genutzt.
- Hätten seine anfänglichen Erbauer das vorhergesehen, hätten sie eine ganz andere Infrastruktur
- entworfen, die zu einer viel reibungsloseren Nutzung geführt hätte" (Barbasi 2003: 149)
- - Die neue Frage lautet: Was haben wir da eigentlich entworfen?
- IV Ökonomie des Internets
- 4.1 Ökonomie nach der Ökonomie
- Das Internet hat zu maßgeblichen Veränderungen im ökonomischen und rechtlichen Gefüge
- geführt -> entsprechend unübersichtlich ist auch der Diskurs
- Änderungen:
- - Globalisierung transnationaler Konzerne fegt nationales Recht beiseite
- - Produktentwicklung, Waren- und Finanztransaktionen wurden beschleunigt
- - Digitale Güter ohne materiellen Träger sind entstanden
- - eine Gratisökonomie hat sich angeblich entwickelt
- Folgen:
- - Neue Geschäftsmodelle & Marketingstrategien entstehen
- - Hoffnung wächst zur Überwindung des Zwangs zum ökonomischen Handeln
- - Teilen von Informationen führt zu Mehrwert, fundamental neue Ökonomie also?
- Nein:
- - Ökonomie wurde radikalisiert, internat. Wettbewerb wurde verschärft
- - beschleunigt, globalisiert in direkter Fortsetzung von Deregulierung und Liberalisierung
- von Kommunikationsstrukturen
- - durch Handel mit digitalen Gütern entstanden neue Distributions- und Erlösformen
- - sogar teilweise eine Gratisökonomie, taugt aber heute nicht als Geschäftsmodell
- - Der Cyberspace wird also von den üblichen Mechanismen des Marktsystems kolonialisiert
- - "Tatsächlich umfasst das Internet nicht weniger als den zentralen Produktions- und
- Kontrollapparat eines zunehmend supranationalen Marksystems (Schiller 2000) Das Internet
- ist das neue Medium des globalen Kapitalismus" (S. 120)
- 4.2 Globale Geschäftsfelder
- - Globalisierungsschub der Wirtschaft durch das Internet liegt an den Basisprotokollen,
- die vom Trägermedium unabhängig sind
- - "Indem es traditionelle, an Teritorien gebundene Kontrollen vernichtet, hat das
- Internet etwas herausgebildet, was ein Rechtsexpterte ein universelle Rechtssprechung
- genannt hat, die jede Souveränität auf einer darunte gelgenen Stufe bedroht" (Schiller 2000)
- - McLuhan: Medien verändern Raum- und Zeit-Verhältnisse
- - Das Internet hat Produktion und Handel globalisiert und beschleunigt
- 4.3 Erlösmodelle
- Versandhäuser
- - aus der old economy transportiert
- - Amazon bspw. ging 1995 online und verzeichnete 2002 den ersten Nettogewinn
- - Erfolgsmodell: riesige Auswahl, keine Läden, Vorschlagssystem, ebay hat nicht einmal ein Lager
- Werbemodell:
- - Gratisangebote/dienste werden durch Werbungs finanziert
- - je mehr Menschen diese Angebote nutzen, desto mehr Wissen ist über sie vorhanden
- - dadurch kann zielgenauere Werbung generiert werden und damit ein höherer Erlös
- - Online-Werbung kannibalisiert die Fernsehwerbung
- - Online-Werbung gewinnt die Kundschaft der traditionellen Werbemedien
- Subskriptions- und Transaktionsmodell
- - System von Angebot, Distribution und Bezahlung über das Internet
- - Fortsetzung von traditionellen Erlösmodellen
- - Bezahlmodelle, die in den Protokollen nicht vorgesehen waren, wurden nun durch
- SET-Protokoll ermöglicht
- - Google integriert verschiedene Stufen der Wertschöpfungskette, vom Betriebssystem bis zum Browser
- - Apple tut dies ebenfalls, offenkundig, Microsoft hinkt dabei hinterher
- Dienstleistungen
- - Amazon bspw. hält für das Weihnachtsgeschäft derart viel Rechenleistung bereit, dass sie später
- als Cloud Computing vermietet werden
- - Aus Besitz wird Erlaubnis der Nutzung
- Tauschleistungen
- - Peer-To-Peer-Tauschbörsen sind quasi ein Rückfall in die Ökonomie ohne Geld
- - Modell wird sich allerdings wegen fehlender Ressourcen nicht lange halten,
- hat aber aufgezeigt, dass andere Modelle nicht/schlecht an das internet angepasst waren
- und deswegen austrockneten
- Informationstausch-Modell
- - Community wird als Ware gegen persönliche Informationen getauscht
- - Datenschutztechnisch sind das Tatbestände, aber die Leute geben ihre Daten freiwillig
- - "so raffiniert ist wohl noch keine Protestbewegung rechts überholt worden" (S. 134)
- - Die Dienstleistung der Endkungen sind die persönlichen Daten, mit denen sie Facebook
- bspw. erst ermöglichen
- - Lawrence Lessig: Privacy as Property, fragt: Sind unsere Daten frei?
- - Amazon wollte eingangs keine Daten an Dritte verkaufen, konnte aber dank Klausel den Vertrag
- ändern und verkaufte sie doch
- - Diebstahl des Eigentums?
- - Privatheit als Besitz?
- - Es war ein "archaischer Akt der Gewaltanwendung", und den Betroffenen fehlte die Möglichkeit
- sich zu wehren
- 4.4. Long Tail
- Nischenprodukte sind von großer Zahl, nun in ökonomischer Reichweite und zusammengefasst ein
- bedeutsamer Markt. Im Gegensatz zu bspw. Kinos müssen Versandhäuser nicht zwangsweise nur
- den Massengeschmack bedienen, sondern können auch Nischenprodukte vertreiben und somit die
- Vielfalt erhöhren.
- Allerdings ist Vielfalt nicht immer gleich förderlich für das Individuum sondern kann auch
- unzufrieden machen. Dagegen steuert bspw. personalisierte Werbung/Empfehlung.
- V Hypertext - Von der Atombombe zum WWW
- Name stamm von Theodor Holm-Nelson, "Mit Hypertext meine ich nicht-sequenzielles Schreiben."
- 5.1 Atombombe und Schreibtisch: Vannevar Bush
- - koordinierte vormals Manhattan-Projekt
- - widmete sich dann dem der Wissenschaft bereits bekannten Problem der Informationsflut
- - Zentralnervensystem war bereits bekannt, das nicht wie ein Bücherregal aussieht, sondern
- assoziativ operiert
- - entwickelte den Memex, einen Schreibtisch, der vor allem auf Assoziationen spezialisert war
- - zwei Monitore, zwei Sachverhalte konnten über eine Taste miteinander verbunden werden
- - Mikrofilmtechnik war allerdings noch nicht so weit (1945)
- 5.2 Ein Anfängerfehler: Doug Engelbart
- - Gilt als Vater der "Mother of all Demos"
- - 1968 in Stanford demonstrierte Engelbart an einem hypertextuell operierenden Glossar
- den mit einem Klick auslösbaren Lexikon-Querverweis
- - Ted Nelson war begeistert, allerdings weist Warnke darauf hin, dass Engelbart damit auch
- den Vorläufer der PowerPoint Präsentation erfunden hatte
- "aber vorzulesen, was ohnehin auf dem Bildschirm zu sehen ist, ist eine dermaßen schlimme
- Form der Rhetorik und eine Zumutung an alle alphabetisierten Zuhörer und Zuhörerinnen, dass
- sie eigentlich verboten gehörte. Der Effekt auf den Rezipienten ist derselbe wie heutzutage:
- einschläfernd, weil unterfordernd" (S. 149)
- 5.3 Die Vereinigung der Menschheit: Ted Nelson
- - prägte den Begriff des Hypertexts
- - verbreitete die Hoffnung auf die Befreiung des menschlichen Intellekts
- - gründete Xanadu, bis er 30 Jahre später aufgab
- - Links sollten bidirektional sein und mehr können als HTML und HTTP
- - Über eine Nutzungsgebühr und Mikropayment sollten UrheberInnen der Dokumente byteweise
- bezahlt werden und Text nicht nur kopiert/referenziert sondern transkludiert werden
- - wurde nie fertiggestellt
- 5.4 William Gibson
- - 1989 erfand Tim Berners-Lee das World Wide Web
- - kam auf die naheliegende Idee, nicht nur Dokumente sondern auch Computer miteinander zu vernetzen
- - dezentral und keine Zugriffserlaubnis notwendig
- - spartanische Ausstattung, woran Xanadu scheiterte, eine einheitliche Struktur kann mit allem umgehen
- - William Gibson, Erfinder des Cyberspaces, sieht jeden Text von einer theoretischen Wolke von Google-
- Links umgeben (interview 12.Juni 2008 auf 3sat)
- VI Synthese, Mimesis, Emergenz - Zu einer Theorie des Internet
- Ist Turings Modell für informatische Grundlagen noch valide?
- - Zeit spielt keine Rolle für die Turingmaschine, aber Zeit wird durch das internet stark deformiert
- - der turing'sche Ansatz muss anscheinend erweitert werden
- 6.1 Berechenbarkeit und Kontingenz
- - Die Turing-Maschine ist ein Modell um zu klären was berechenbar ist und was nicht
- - Ergebnis: Es gibt eine Grenze der Berechenbarkeit jenseits derer formale Verfahren unbrauchbar werden
- Geschwindigkeit spielt dabei keine Rolle, die Grenze ist absolut
- - Aber was das Internet betrifft ist eine Entwicklung der Geschwindigkeit nicht die einzige Veränderung
- - Autor unterteilt die Phänomenlogie der Computerkultur in drei Phasen: Mimetik, Synthese, Emergenzen
- 6.2 Synthese
- - Die Methode der Hard Science: Phänomene werden untersucht, nacch Konstituenten & deren Wechselwirkungen,
- verstanden ist das Phänomen dann, wenn sie sich vollständig aus ihren Elementen und Operationen ergeben
- Die Umkehrung erfolgt durch den Computer: Er rekombiniert. Komplexes aus Einfachem, Aufbau des Ganzen
- aus seinen Teilen.
- Das erfordert einen Ausschluss von Kontingenz, stattdessen gilt eine strikte Beschränkung auf ein streng
- formal arbeitendes Verfahren, Endlichkeit, Überschaubarkeit
- Der Gewinn ist eine Charakterisierung der Menge aller Zahlen, die so überhaupt berechenbar sind- diese
- ist kleiner als die Menge der Zahlen, die definierbar sind
- Der logische Prozess ist also schöpferisch und verlangt Intelligenz. Für eine mathematische Theorie braucht es aber Kontingenz als das nicht berechenbare um sich weiterzuentwickeln und seine eigenen Probleme lösen zu können.
- Historisch steht diese Phase ebenfalls an erster Stelle, ihre technische Realisierung erfolgte durch den
- strikten Dreischritt der Computer: Eingabe, Verarbeitung, Ausgabe. Dabei konnte es keine Unterbrechung und
- damit Interaktion geben.
- 6.3 Mimesis
- Kontingenz muss also von außen hinzugefügt werden, da die Turingmaschine nicht produzieren kann, was nicht
- berechenbar ist. Dafür dient der menschliche Eingriff, die interaktive Bedienung. Sie gleicht den Mangel
- aus, der sonst den Output auf berechenbare Zahlen beschränken müsste. Das menschliche Bewusstsein führt dem
- System nötige INformationen zu, damit dieses Formen ausprägt, in denen das menschl. Bewusstsein wiederum
- Formen erkennt.
- Damit übertritt der Mensch die Trennfläche zwischen Berechenbarkeit und Kontingenz, das Interface.
- 6.4 Emergenz
- Der nächste Schritt ist die Verschaltung von vielen Automaten und Menschen. Die einzelnen Phänomene lassen
- sich nicht mehr isolierbaren Maschinen oder einzelnen Menschen zuordnen.
- Es stellt sich allerdings wiederum die systemtheoretische Gretchenfrage, wie emergente Phänomene am Besten
- zu beschreiben sind - als Konsequenz der Beschaffenheit des Systems oder als Phänomen für welches die
- Bedingungen niemals hinreichend, sondern nur notwendig sein können: Möglichkeitsbedingungen, eben gerade
- keine auslösenden Momente.
- Luhman plädiert für Letzteres, betrachtet Emergenz als Leistung des übergeordneten Systems. So ließen sich
- Phäneomene, an denen Computer beteiligt sind, niemals durch deren Bauweise und Software erklären, da nur
- materielle Träger einer Ordnung höherer Stufe, die ihren eigenen Strukturen verpflichtet ist: sozialen,
- kulturellen, eben kontingenten - aus Sicht der Informatik. Diese sieht sich tatsächlich immer wieder mit
- unvorhersehbaren Phänomenen konfrontiert, deren Spielregeln, Elemente, Randbedingungen und sogar Ziele
- immer wieder verändern. Damit machen sie jede Planung, jedes Modell zunichte.
- Das Internet ist eine besonders reichhaltige Sammlung emergenter Phänomene.
- " Dabei ist die Tatsache, dass es wächst und nicht nach Fertigstellung in Betrieb genommen wurde, seine
- interessanteste und markanteste Eigenschaft." (S. 174)
- Seit kurzem stellt eine wachsende Zahl von Forschern jedoch die unerwartete Frage:
- Was genau haben wir da entworfen? (Barbasi 2003)
- "Diese Frage bringt den interessantesten und für unser Thema aufschlussreichsten Aspekt dieses
- erfolgreichsten aller modernen technischen Artefakte zum Ausdruck: Seine Entwurfsprinzip auf der
- Grundlage von Kontrollverzicht."
- Das Internet als Vernetzung von Bewusstseinen & Computern demonstriert neue Herausforderungen für
- die Informatik. Sie muss sich auf
- - bewussten Kontrollverzicht
- - Gewährenlasssen emergenter Prozesse
- - Selbstorganisation
- - Netztopologien, die in ihrer Entwicklung im Detail nicht modellierbar sind
- einstellen.
- "Die Hard Sciences fordern Determinismus, Kausalität, die Formulierung hinreichender Kriterien, müssen
- aber sprachlos bleiben angesichts von Phänomenen wie Leben, Gesellschaft, Kontingenz. Will Informatik
- Informationsgesellschaft beschreiben können, muss sie sich einlassen auf bislang für sie
- wissenschaftsfremde Begriffe: Autopoiesis, Selbstorganisation, Emergenz, Möglichkeitsbedingungen.
- "Das Internet - vielleicht die digitalen Medien überhaupt - als dasjenige technische Artefakt, das
- unsere Gesellschaft am nachhaltigsten verändert hat, hat es uns vorgemacht: Den Kontrollverlust als
- Prinzip, die Möglichkeitsbedingung als Entwurfsrichtlinie." (s. 176)
- Zitate:
- " Gesellschaft reproduziert sich auch durch Kommunikation mit Hilfe digitaler Medien,
- das wurde spätestens seit 1972 durch den Siegeszug der E-Mail manifest,
- nicht erst durch heutige Social networks." (S. 39)
- "TCP/IP war damit Basismedium des Internets und der "erste Kampf um die Netzneutralität
- war gewonnen" (S. 47)
- - "Erst einmal aus der Kontrolle des Militärs entlassen, wächst das Internet ohne erkennbare
- Grenze, auch ohne die von Nationen. Und es kam zu sich, fand den Dienst, der alles andere
- absorbierte, just in dieser Zeit. Die Rede ist vom World Wide Web. (s. 50)
- - "Wenn es eine Konstante in der Geschichte des Internet gibt, dann ist es Überraschung." (S. 52, Abbate 2000: 218)
- "Dieses Etwas kann man einen Knoten nennen, die Verbindung eine Kante oder einen Link. Aus Knoten und deren Verbindungen
- bilden sich Netze, und mittlerweile bezeichnen wir eine große Menge von Phänomenen mit dieser Metapher.
- Das Internet hat eine solche Sichtweise motiviert, denn seine Komplexität entsteht aus Agenten, die
- miteinander Kommunikationsverbindungen eingehen..." (s. 100)
- "Das Internet ist ein "Erfolgs-Desaster, der Entwurf einer neuen Funktion, die in die
- Welt entweicht und sich ungeheuerlich vermehrt, bevor ihr Design noch ganz vorhanden wäre.
- Heute wird das Internet fast ausschließlich für das World Wide Web und E-Mail genutzt.
- Hätten seine anfänglichen Erbauer das vorhergesehen, hätten sie eine ganz andere Infrastruktur
- entworfen, die zu einer viel reibungsloseren Nutzung geführt hätte" (Barbasi 2003: 149)
- - Der Cyberspace wird also von den üblichen Mechanismen des Marktsystems kolonialisiert
- - "Tatsächlich umfasst das Internet nicht weniger als den zentralen Produktions- und
- Kontrollapparat eines zunehmend supranationalen Marksystems (Schiller 2000) Das Internet
- ist das neue Medium des globalen Kapitalismus" (S. 120)
- - "Indem es traditionelle, an Teritorien gebundene Kontrollen vernichtet, hat das
- Internet etwas herausgebildet, was ein Rechtsexpterte ein universelle Rechtssprechung
- genannt hat, die jede Souveränität auf einer darunte gelgenen Stufe bedroht" (Schiller 2000)
- "so raffiniert ist wohl noch keine Protestbewegung rechts überholt worden" (S. 134)
- "aber vorzulesen, was ohnehin auf dem Bildschirm zu sehen ist, ist eine dermaßen schlimme
- Form der Rhetorik und eine Zumutung an alle alphabetisierten Zuhörer und Zuhörerinnen, dass
- sie eigentlich verboten gehörte. Der Effekt auf den Rezipienten ist derselbe wie heutzutage:
- einschläfernd, weil unterfordernd" (S. 149)
- " Dabei ist die Tatsache, dass es wächst und nicht nach Fertigstellung in Betrieb genommen wurde, seine
- interessanteste und markanteste Eigenschaft." (S. 174)
- Seit kurzem stellt eine wachsende Zahl von Forschern jedoch die unerwartete Frage:
- Was genau haben wir da entworfen? (Barbasi 2003)
- "Diese Frage bringt den interessantesten und für unser Thema aufschlussreichsten Aspekt dieses
- erfolgreichsten aller modernen technischen Artefakte zum Ausdruck: Seine Entwurfsprinzip auf der
- Grundlage von Kontrollverzicht." (S. 175)
- "Die Hard Sciences fordern Determinismus, Kausalität, die Formulierung hinreichender Kriterien, müssen
- aber sprachlos bleiben angesichts von Phänomenen wie Leben, Gesellschaft, Kontingenz. Will Informatik
- Informationsgesellschaft beschreiben können, muss sie sich einlassen auf bislang für sie
- wissenschaftsfremde Begriffe: Autopoiesis, Selbstorganisation, Emergenz, Möglichkeitsbedingungen.
- "Das Internet - vielleicht die digitalen Medien überhaupt - als dasjenige technische Artefakt, das
- unsere Gesellschaft am nachhaltigsten verändert hat, hat es uns vorgemacht: Den Kontrollverlust als
- Prinzip, die Möglichkeitsbedingung als Entwurfsrichtlinie." (s. 176)
- Literatur:
- Linked - How everything is connected to Everything Else ... Barabasi
- Digital Capitalism - Dan Schiller
- Zu Medien und Raum-Zeit-Verhältnissen: Understanding Media. The Extensions of Man - McLuhan, new York 1964 (nicht zu verwechseln mit Luhman...)
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement