Internet (WWW)

Der Name leitet sich ursprünglich von „interconnecting network“ (inter = zwischen; net = Netz) ab, das heißt von einem Netz, das einzelne Netze untereinander verbindet. Es besteht aus einer Reihe großer internationaler und nationaler Netze sowie aus zahllosen regionalen und lokalen Netzen. Alle Unternetze des Internets benutzen ein einheitliches Adressierungsschema sowie die TCP/IP-Protokolle. All diese Rechnernetze und Einzelrechner sind miteinander verbunden, um den Datenaustausch zu ermöglichen. Das Internet selbst hat keinen Besitzer. Nur die einzelnen Datenleitungen, die die Internet-Rechner miteinander verbinden, gehören Telekommunikationsfirmen oder -behörden. Die für das Internet geltenden Standards und Verfahren werden nicht von einer zentralen Stelle festgelegt, sondern von technisch versierten Internet-Nutzer*innen in Diskussionen erarbeitet. Technische Verfahren, auf die man sich verständigt hat, werden von der US-amerikanischen Internet-Society (ISOC) in den sogenannten RFC-Dokumenten festgelegt. Die Geschichte des Internets begann in den 1960er Jahren in den USA. Zunächst suchte man zu primär militärischen Zwecken ein dezentrales Informationsnetzwerk. Aber nicht nur das Militär, sondern auch die Wissenschaft hatte ein starkes Interesse an einem solchen Netzwerk. Aufbauend auf einem vorhandenen „Mininetz“ wurde das ARPAnet entwickelt, das in erster Linie sicherstellen sollte, dass im Kriegsfall die militärischen Daten dezentral gespeichert waren. Weil viele unterschiedliche Rechner an diesem Netz angeschlossen waren, wurde 1973 ein speziell für das ARPAnet entwickeltes Protokoll zur Datenübertragung eingeführt: TCP/IP. Bereits 1971 hatte Ray Tomlinson ein Programm geschaffen, um Botschaften durch ein Netzwerk schicken zu können (e-mail). Über das Netzwerk können seitdem Dateien unterschiedlichster Art standardisiert übermittelt werden. Sie werden zu diesem Zweck in kleine Informationseinheiten, auch „packets“ genannt, zerteilt. Diese „packets“ bestehen aus der Information an sich und einer Adressinformation, die ihnen erlaubt, ihr Bestimmungsziel selbständig zu erreichen, an dem sie dann wieder zur ursprünglichen Gesamtinformation zusammengefügt werden. Man wählte dieses Verfahren, damit die Datenpakete eigenständig den günstigsten Weg durch das Internet finden können. Dadurch lassen sich „Stau“ und Leitungsunterbrechungen vermeiden. Selbst wenn ein Paket verloren geht, fällt dies spätestens dem empfangenden Computer auf, der es dann einfach vom sendenden Computer erneut anfordert. In den 1980er Jahren veränderte sich die Zusammensetzung der Netzbetreiber*innen und -user*innen. Neben Wissenschaftler*innenn, Universitätsangehörigen und Computerfirmen interessierten sich allmählich immer mehr kommerzielle Netzbetreiber*innen für das Internet. Parallel entwickelten sich Technologien, die das Internet für Privat-User*innen zunehmend benutzerfreundlicher machten: Der PC wurde Internet-tauglich, der Datentransfer über Telefonleitungen durch Modems schneller und auch sicherer. 1989 gelang schließlich Robert Cailliau und Tim Berners-Lee im europäischen Kernforschungszentrum in Genf (CERN) eine bahnbrechende Entwicklung: das WWW (World Wide Web). Dieses baut wesentlich auf dem Konzept des Hypertexts auf, worunter ein Organisations- und Verbindungsprinzip von Inhalten über Links steckt, das versucht, das menschliche Assoziieren nachzuvollziehen. Neu im Gegensatz zum bisherigen Einsatz von Hypertext war, dass Berners-Lee nicht nur auf Dokumente verweisen wollte, die auf demselben Computer liegen, sondern mit dem WWW ein System geschaffen wurde, das den weltweiten Austausch digitaler Dokumente ermöglicht. Hierfür entwickelte Berners-Lee eine neue Art der Adressierung von Links, den „Union Resource Locator“ (URL). Zuvor wurden Links vorwiegend in einer Datenbank organisiert. Die Vorteile lagen auf der Hand: Fiel ein Dokument aus oder wurde bewegt, änderte sich der Verweis in der Datenbank oder er wurde gelöscht. Anders als im heutigen World Wide Web gewährleistete das Datenbanksystem, dass Dokumente stets gefunden werden konnten oder Links auf solche Dokumente nach ihrer Löschung nicht mehr angezeigt wurden. Eine zentralisierte Link-Datenbank setzt jedoch eine zeitaufwendige Pflege voraus. Wegen der Geschwindigkeit, mit der Dokumente erstellt, verändert bzw. umorganisiert werden, ist die kontinuierliche Pflege und Koordination nahezu unmöglich. Aus diesem Grund entschied man sich für das Konzept „Uniform Resource Locator“, das zum Grundpfeiler des WWW wurde: Das Besondere an einem Link im WWW ist, dass er auf ein beliebiges Objekt (Dokumente jeglicher Art, Grafiken, Videos etc.) verweisen kann. Eine einfache und eindeutige Adresse bestimmt den Ort, an dem sich das Objekt befindet. Ob es dann tatsächlich (noch) existiert, liegt in der Verantwortung des jeweiligen Betreibers einer Web-Site. Eine zentrale Koordination wurde seither überflüssig, einem schnellen Wachstum des Informationssystems WWW stand nichts mehr im Wege. Hypertext-Dokumente im WWW werden als „Website“ bezeichnet. Für diese entwickelte man eine einfache und plattformunabhängige Sprache: HTML. Um die Dokumente bzw. Objekte schnell via Hyperlinks (Links) über das Netz aufzurufen, wurde für die Übertragung der Daten das HTTP (Hypertext-Transferprotokoll) entwickelt.