HTML-Einführung von Hubert Partl, Mai 1996


Geschichte und Geschichten

Es war einmal...

Ich schrieb diesen Überblick im Sommer 1995. Wenn Sie ihn lesen, kann er auch schon wieder Geschichte geworden sein, so rasant ist die Entwicklung der Technik gerade in diesem Bereich!


Vom Elektronengehirn zum World Wide Web

In den 40er-Jahren unseres Jahrhunderts wurden die ersten großen EDV-Anlagen gebaut, und in den 60er- und 70er-Jahren gehörten riesige Computer mit Lochkarten, Magnetbändern und Endlos-Printouts zu den Prestige-Objekten von Universitäten, Banken und großen Firmen, ehrfürchtig "Elektronengehirne" oder ironisch "Blechtrottel" genannt. In den 80er-Jahren zogen wesentlich kleinere "persönliche Computer" mit Textverarbeitung und Spiel-Programmen auf die Schreibtische und in die Privatwohnungen ein. Damit lösten bunte Bildschirme und Mäuse und intuitiv erfaßbare graphische Benutzeroberflächen die bis dahin nur für Wissenschaftler verständlichen Programmiersprachen ab.

Waren die ersten Computer noch in die Maschinenräume ihrer stolzen Besitzer eingesperrt, so trat bald die Notwendigkeit für eine Verbindung der Computer und eine Zusammenarbeit der Computer-Benutzer auf. Ende der 60er-Jahre wurde von einer Projektgruppe des amerikanischen Verteidigungsministeriums (ARPA) ein Computer-Netz konstruiert, das viele Subnetze ohne zentrale Kontrolle zu einem weltumspannenden Netzwerk verbinden kann: Das Internet war geboren. Es verbreitete sich in den 70er- und 80er-Jahren vor allem im akademischen Bereich und seit Beginn der 90er-Jahre immer mehr auch im kommerziellen Bereich rund um den Erdball und ist derzeit das bei weitem umfangreichste Computer-Netzwerk der Erde.

Populär wurde das Internet 1993, als der US-Vizepräsident Al Gore den "Information Super-Highway" zum nationalen Anliegen erklärte und bald auch die Politiker und die Massenmedien in den anderen Ländern zumindest verbale Unterstützung für diese Ideen signalisierten.

In "Das Wunder von Issaquah" erklärte damals George Gilder die Vorteile der Computer-Vernetzung mit dem folgenden Vergleich:

Ein Auto im Dschungel

Stellen Sie sich vor, wir finden mitten im Dschungel ein Auto. Wir werden bald herausfinden, daß es sich dabei um ein äußerst nützliches Mehrzweck-Gerät handelt: Es bietet uns ein Dach gegen Regen, bequeme Sitze, helles Licht, eine Heizung und Klimaanlage, ein Radio mit Kassettenspieler, und eine Hupe zum Verjagen von wilden Tieren. Voll Bewunderung für alle diese Eigenschaften fragen wir gar nicht danach, zu welchen noch viel größeren Wundern das Auto fähig wäre, wenn wir es auf eine asphaltierte Straße brächten.

Wenn wir Computer oder PCs "nur" für die Berechnung von Zahlen und die Speicherung von Texten verwenden, sind sie für uns so nützlich wie das Auto im Dschungel. Das volle Potential ihrer möglichen Leistungen bieten sie uns erst, wenn wir sie über Computer-Netze mit anderen Computern verbinden.

Die ersten am Internet verfügbaren Dienste waren noch recht primitiv: "Telnet" für den Zugriff auf Programme auf anderen Computern, "FTP" (File Transfer Protocol) für die Übertragung von Dateien auf andere Computer, "Electronic Mail" und "Usenet News" für den Austausch von Informationen.

Ende der 80er-Jahre wurden zwei Arten von Informations-Systemen entwickelt, die einen gegenüber diesen alten Services wesentlich bequemeren Zugriff auf weltweit verstreute Informationen ermöglichen: "Gopher" und das "World Wide Web" (WWW).

Das WWW, von Tim Berners-Lee im europäischen Kernforschungszentrum CERN entwickelt, wurde zunächst hauptsächlich von den dortigen Physikern für den Zugriff auf ihre Dokumentationen und Daten mit relativ einfachen, zeilenorientierten "Web-Browsern" unter Unix und einer einfachen Hypertext-Sprache namens "Hypertext Markup Language" (HTML) genutzt.

Populär wurde das WWW schlagartig 1993/94, als das National Center for Supercomputing Applications (NCSA) in den USA einen Web-Browser mit einer graphischen Benutzer-Oberfläche herausbrachte und allen Benutzern kostenlos zur Verfügung stellte: Mosaic, programmiert vom damaligen Studenten und späteren Netscape-Firmengründer Marc Andreessen. Damit steht das World Wide Web plötzlich mit modischen bunten Bildern und einfachen Maus-Klicks für jeden PC-Benutzer offen, und WWW-Server mit mehr oder weniger interessanten Informationen sowie Web-Browser mit mehr oder weniger guten Eigenschaften sprießen wie die sprichwörtlichen Schwammerln überall aus dem nahrhaften Boden der Informations-Gesellschaft. Rasch brachten auch kommerzielle Firmen wie Spry und Netscape, IBM und Silicon Graphics, AOL und Prodigy, und bald auch Microsoft ihre eigenen, zum Teil inkompatiblen WWW-Software-Produkte heraus. Alle paar Monate gibt es neue Server- und Client-Software und neue Ideen zu Erweiterungen von HTML.

Die Zentrale der WWW-Entwicklung hat sich inzwischen vom CERN gelöst und wird nun von einem eigenen W3-Consortium geleitet, dem unter anderem die Forschungseinrichtungen INRIA in Frankreich und MIT in den USA sowie einschlägige Software-Firmen wie z.B. Netscape und Microsoft angehören. Dort wird an HTML-Normen gearbeitet, die erweiterte Möglichkeiten für spezielle Darstellungsformen und Layout-Varianten bieten und die von verschiedenen Software-Firmen herausgebrachten HTML-Varianten unter einen Hut bringen sollen. Auch an anderen Orten wird an vielversprechenden Weiterentwicklungen gearbeitet, so zum Beispiel an Hyper-G, PDF, VRML und Java.

Es gehört zum guten Image jeder Universität und jeder Firma in den 90er-Jahren, im WWW präsent zu sein, zumindest mit ein paar bunten und werbewirksamen Bildern. Tausende Schüler und Studenten bemühen sich, ihre "cool Web pages" mit "hot links" zu anderen WWW-Servern aufzubauen und ihren Freunden in aller Welt zur Verfügung stellen. Es ist zu hoffen, daß auch die wirklich nützlichen Informationen im World Wide Web noch weiter zunehmen werden.

Die Menge der am WWW erreichbaren Informationen, Services, Texte, Bilder und Töne ist bereits so umfangreich und unüberschaubar geworden, daß das größte Problem darin liegt, eine nützliche Information aufzufinden. Deshalb sind Suchhilfen zu einem wichtigen Hilfsmittel geworden, und schon gibt es auch Hilfsmittel zum Auffinden von Suchhilfen. Ein möglicherweise zukunftsweisendes Forschungs-Projekt stellt die Idee von "intelligenten Agenten" dar, die wie ein gutartiges Virus über das Internet ausschwärmen, um bestimmte Informationen auf allen angeschlossenen Computern zu suchen, und, wenn sie fündig geworden sind, die Ergebnisse an den Auftraggeber senden.

Jedenfalls sind Übung und Erfahrung - oder die Hilfe von geübten und erfahrenen Informations-Beratern - notwendig, um nicht wie eine Fliege in diesem weltweiten Spinnennetz hängen zu bleiben, sondern wie eine Spinne die nahrhaften Informations-Bissen darin zu ernten und zu nützen.


Von der Textverarbeitung zur Hypertext Markup Language

Die ersten Programme für die Ausgabe von Texten im Zeitalter der Lochkarten und Kettendrucker waren so konzipiert, daß die Angaben für die Formatierung der Texte vom Benutzer mit Hilfe spezieller Zeichenkombinationen direkt in den Text eingebettet wurden und dann bei der Ausgabe die entsprechenden Effekte wie Leerzeilen, Einrückungen, Unterstreichungen u.dgl. bewirkten. Dieses Prinzip wird als "Presentation-based Markup" bezeichnet.

Auf den "persönlichen Computern" wie Apple und PC, viele Jahre später, kam eine völlig neue Generation von Textverarbeitungs-Programmen heraus, die nach dem WYSIWYG-Prinzip (what you see is what you get) funktionieren, d.h. die Benutzer können das Layout mit der Maus direkt am Bildschirm "freihändig" einstellen.

Unbeirrt von der Popularität der WYSIWYG-Programme, entwickelte Prof. Donald Knuth an der Stanford-Universität Ende der 70er-Jahre ein computergestütztes Text-Satz-System namens "TeX" (TEX), bei dem die Layout-Elemente ebenfalls als Markup-Befehle innerhalb des Eingabe-Files und zunächst in einer vom Ausgabegerät unabhängigen Darstellung festgelegt werden, und das Druckbild dann mit Driver-Programmen auf verschiedenen Ausgabegeräten jeweils optimal ausgedruckt wird.

Leslie Lamport erweiterte dieses System Anfang der 80er-Jahre mit "LaTeX" (LATEX) dahingehend, daß Inhalt und Form getrennt festgelegt werden: Der Inhalt wird nur mit einem logischen Markup versehen, d.h. mit Angaben, welche logische Bedeutung die Text-Elemente haben (z.B. Überschrift, Absatz, hervorgehobenes Wort, Zitat, mathematische Formel, Gleichungsnummer, Liste, Listenelement, Tabelle, Tabellenspalte, Tabellenzeile usw.). In welchem Layout diese Elemente dargestellt werden (Schriftarten, Schriftgrößen, Abstände, Seitenformat usw.), wird separat davon in sogenannten Style-Files festgelegt. Dadurch kann derselbe Inhalt durch die Verwendung verschiedener Style-Files in verschiedenen Formaten ausgedruckt werden (z.B. als Skriptum, als Artikel in einer Zeitschrift und als Buch), und umgekehrt können mehrere Informationen durch die Verwendung desselben Style-Files automatisch in einem einheitlichen Layout und konsistenten Format ausgedruckt werden (z.B. alle Skripten eines Instituts, alle Briefe und alle Werbebroschüren einer Firma, oder alle Bücher eines Verlages).

Dieses Prinzip des "Content-based Markup" wurde Mitte der 80er-Jahre zur "Standard Generalized Markup Language" SGML verallgemeinert, und die im World Wide Web verwendete "Hypertext Markup Language" (HTML) baut auf diesem SGML-Standard auf.

So kommt es, daß ich mich beim Schreiben der vorliegenden "HTML-Einführung" eng an die "LaTeX-Kurzbeschreibung" anlehnen konnte, die ich 1987 gemeinsam mit Irene Hyna und Elisabeth Schlegl geschrieben und damals auf einem Listserver über das Bitnet und später auf FTP-Servern über das Internet veröffentlicht hatte.


Vorwort . Wegweiser . Inhaltsverzeichnis . Wörterbuch . Referenzen . Copyright
© Hubert Partl, BOKU Wien