Zwar eigentlich als schriftliche Version eines Referates gedacht, entwickelte sich dieses Essay schnell einmal zu einer pseudophilosophischen Abhandlung über die Konstruktion des WordWideWebs an sich.
Es ist durchaus fraglich, ob die ursprüngliche und heute immer noch frischfröhlich vertretene Ansicht, das Internet sei die Realisierung eines hierarchiefreien und rein assoziativen Wissensraumes wirklich anwendbar ist – oder ob das Web zum einen das gar nicht ist und zum anderen das auch gar nicht sein soll.
Einführung
Hypertext ist sexy. Hypertext ist zu einem Lebensgefühl, einem «Lifestyle» geworden. Es gibt heute kaum ein Programm auf dem Markt, das nicht eine rudimentäre Möglichkeit anbietet, Medien aller Arten, ob sinnvoll oder nicht, miteinander zu verknüpfen. Dabei wird das WorldWideWeb als Mittelpunkt und einzige Realisation von Hypertext angesehen. Vergessen wird dabei, dass es Hypertext-Konzepte zuvor gab, die sich teilweise erheblich vom heutigen WWW unterschieden.
Eines dieser Konzepte – Xanadu, wahrscheinlich das kontroverseste – möchte ich in dieser Arbeit mit dem WWW vergleichen. Wie wir im letzten Teil sehen werden, unterscheiden sich die beiden Systeme fundamental in ihrer Ausrichtung, ihrer Benutzung und ihren Zielen. Die benutzten Werkzeuge beeinflussen immer das Endprodukt, deshalb wird es in der Arbeit darum gehen, wie man in den beiden System Daten publizieren und lesen kann. Zudem soll erklärt werden, wie die Daten angeordnet und abgerufen werden können. Zuletzt soll ein Ausblick zeigen, wie wir womöglich in der Zukunft mit grossen Informationsmengen und Hypertext arbeiten werden. Zudem möchte ich zeigen, dass der so oft proklamierte Abschied von der Hierarchie weder möglich noch wirklich sinnvoll ist.
Xanadu
Xanadu: der magische Ort des literarischen Gedächtnisses oder doch eher the longest-running vaporware project in the history of computing
? Ohne Zweifel hat Ted Nelson’s Hypertext-Konzept wie kein anderes das Denken über Hypertext beeinflusst, inspiriert und gleichzeitig herausgefordert. Liest man zum ersten Mal die Vision Ted Nelsons, so erkennt man, was mit Hypertext alles möglich wäre. Gleichzeitig schleicht sich ein leichtes Erstaunen darüber ein, dass ein Hypertext-System, das laut Nelson watered down and oversimplified the hypertext idea
so viel mehr Erfolg haben könnte als Xanadu. Die Lösung dieses scheinbaren Problems ist denkbar einfach: Das WWW, über das Nelson so polemisch schreibt, wurde realisiert, wohingegen Xanadu die ganze Zeit über nur eine Vision blieb, an die jedoch viele Leute glaubten, dafür arbeiteten1 oder sogar Geld dafür ausgaben. Nelsons Idee war offensichtlich so bestechend, dass selbst die Software-Firma «Autodesk» Ende der 80er Jahre Geld darin investierte, in der Hoffnung, die Entwicklung soweit zu professionalisieren, dass am Schluss ein fertiges, verkäufliches Produkt entstehen sollte. Doch die Hoffnungen von Autodesk sollten sich zerschlagen. Denn das Konzept weist auf den zweiten Blick ziemlich viele Probleme auf, die selbst mit der heutigen zur Verfügung stehenden Computertechnologie nur schwer zu lösen wären.
Die Idee …
Project Xanadu, the original hypertext project, is often misunderstood as an attempt to create the World Wide Web. It has always been much more ambitious, proposing an entire form of literature where links do not break as versions change; where documents may be closely compared side by side and closely annotated; where it is possible to see the origins of every quotation; and in which there is a valid copyright system – a literary, legal and business arrangement – for frictionless, non-negotiated quotation at any time and in any amount.
So beschreibt Ted Nelson selber sein System. Die Möglichkeiten, die er aufzählt, sind immens: In Xanadu sollte es möglich sein, alle Arten von Informationen zu speichern und zu verlinken. Kreierte man einen Link, so sollte dieser auch auf dem umgekehrten Weg funktionieren (also bidirektional sein, im Unterschied zu den heutigen unidirektionalen Links im WWW), und er sollte vor allem nie mehr geändert werden müssen: Adressen bleiben bestehen, selbst bei Änderungen des «Zieldokumentes». Sämtliche Versionen eines Dokumentes sind einsehbar und können am Bildschirm nebeneinander verglichen werden. Es ist möglich, zu allen Versionen eines Dokumentes zu linken. Des weiteren sah Nelson eine Funktion vor, mit der das «Zitieren» einfacher gemacht werden sollte: Statt eine Kopie eines Textes in das eigene Dokument einzufügen, würde man einen Verweis zu einem Teil des Originaldokumentes machen, was den Vorteil hat, dass dieses Zitat auch aktualisiert wird, wenn der zitierte Text überarbeitet wird.2
Neudefinition der Dokument-Metapher
Nelson macht dies möglich, indem er die Dokument-Metapher neu definiert: Nicht mehr länger sollte ein Dokument den Text direkt enthalten, sondern vielmehr wie ein Inhaltsverzeichnis auf verschiedene Textblöcke im sogennanten _Grand Adress Space_3 verweisen:
A sequential document or version is represented by a content list, which is the fundamental form of representing or transmitting a document. […] Though the content may appear on the screen as an ordinary block of text, structurally its chief representation is a list of contents – a sequence of reference pointers. These pointers designate spans of characters (or other elements). These spans, concatenated to make a virtual stream of the designated elements, thus represents the sequential text […].
Es macht deshalb keinen Unterschied, ob mein Inhaltsverzeichnis auf Texte von mir oder von jemand anderem verweist. Dasselbe gilt für Überarbeitungen: hierbei verbindet das Inhaltsverzeichnis einfach zu den neu hinzugefügten Teilen.
Enthierarchisierung
Xanadu sollte nach dem Willen Nelsons, ganz im Geiste Vannevar Bush’s (vgl. Bush 1945), das menschliche Hirn abbilden – und deshalb komplett hierarchielos erscheinen:
The point has been not to simplify the world of ideas and connection, or force others to simplify (as today’s software and hypermedia do); the point has been to represent the world of ideas correctly and clearly, which is much harder – replacing not just paper media, but conventional computer files and hierarchy, with finer-grained and wholly different families of structure.
Leider führt Nelson nicht weiter aus, welcher Art diese «komplett anderen Strukturen» sind. Die Frage, ob es wirklich ganz ohne Hierarchien geht, wird uns später noch beschäftigen.
Xanadu sollte dazu nicht nur als «Speichermedium» dienen, sondern gleichzeitig auch eine neue Publikationsform darstellen: wollte man Texte auf Xanadu lesen, so musste man, abhängig von der Menge des Textes dem Autor eine gewisse Summe bezahlen. Dafür hatte man das Recht, mit diesem Text zu arbeiten und in eigenen Texten zu zitieren. Bei Zitaten sollte dabei der Zitierte das Geld bekommen und nicht der Zitierende. Nelson nennt dies «Transcopyright»4.
… und die Technik
Was nun beim ersten Lesen wunderschön und vernünftig aussieht, hat leider einige Schönheitsfehler. Eine für das Funktionieren des Systems notwendige, aber in ihren Konsequenzen weitreichende Tatsache besteht darin, dass nichts gelöscht werden darf. Nötig wird diese Forderung, um das Versprechen der immer gültigen Links einzulösen. Sämtliche Daten kommen – in der Reihenfolge des Eintrages – in den Grand Adress Space und werden dort abgespeichert. Es entsteht also ein einziger langer Bandwurm aus Daten. Änderungen eines Dokumentes werden dabei einfach an den Schluss dieses Bandwurmes gestellt, selbst wenn sich schon ein paar hundert andere Dokumente zwischen der Änderung und dem Original-Dokument befinden. Diese Daten werden fortlaufend durchnummeriert5 und sind unter dieser Nummer verlinkbar. Überarbeitet man nun ein Dokument, so filtert Xanadu heraus, welcher Text neu ist, und setzt diesen an das Ende dieses Datenbandwurms, und aktualisiert dabei das «Inhaltsverzeichnis». So kann es sein, dass der Beginn des Dokuments von ganz vorne des Datenbandwurms stammt, der Mittelteil, der später hinzugefügt wurde, vom Ende des Bandwurms und der Schlussteil wiederum vom Beginn des Bandwurmes. Das System kopiert also intern noch einmal die Idee des nicht-linearen Lesens, indem die Reihenfolge des dargestellten Textes nicht unbedingt der Reihenfolge entsprechen muss, in dem er abgespeichert worden ist.
Fragmentierung der Daten
Die Methode des «Anhängens» von Daten ist in der Informatik altbekannt; noch heute funktionieren die meisten Dateisysteme nach diesem Prinzip – und sie alle tragen ein konzeptionelles Problem in sich: die so genannte Fragmentierung. Dabei werden Teile eines Dokumentes über mehrere Orte auf der Festplatte verteilt. Bei einem Lesevorgang müssen diese Teile wieder zusammengesetzt werden, was bei hoher Fragmentierung die Systemleistung merklich verlangsamt. Dies wird zu vermeiden gesucht, indem das System Dateien zu Beginn einen gewissen Bereich an Speicherplatz zuweist, selbst wenn sie diesen nicht komplett ausfüllen. So muss eine Datei erst getrennt werden, wenn sie über diesen zugewiesenen Bereich wächst. Ausserdem werden bei Änderungen die Daten direkt überschrieben; bei kleinen Änderungen ändert sich also die Dateigrösse kaum.
Was nun im Innern eines Computers, also bei geringsten Übertragungsdistanzen und hohen Übertragungsgeschwindigkeiten, schon ein Problem ist, wird von Nelson zum Prinzip seines «xanalogical storage» erhoben: im Grand Adress Space wird Text an Text gereiht, aber eben auch Änderung an Änderung. Für einen viel bearbeiteten Text kann das heissen, dass fast jedes zweite Wort aus einem anderen Ort des «Grand Adress Space» geholt wird. Vor allem auch für Korrekturen von Tippfehlern wird das Konzept grotesk, da damit in der Folge einzelne Buchstaben adressiert und von einem anderen Ort abgerufen werden. Es ist deshalb auch nicht unmöglich, dass schlussendlich das «Inhaltsverzeichnis» länger wird als der eigentliche Text. Und dies alles, wenn man strikt der Maxime von «nichts darf gelöscht werden» folgt. Es versteht sich von selbst, dass dabei gleichzeitig auch Unmengen an Speicherplatz gebraucht werden.
Anwendung im Netzwerk
Nelson spricht zwar davon, dass Xanadu sich nicht nur auf einen Server allein beschränken würde6, sondern auf mehrere Server verteilt werden könnte. Hier gibt es zwei Möglichkeiten: auf der einen Seite können die Server sich gegenseitig «spiegeln», so dass zumindest immer ein Server läuft und die Daten liefern kann – was aber nichts anderes heisst, als dass noch mehr Speicher benötigt wird. Auf der anderen Seite können die Daten auf mehrere Server verteilt werden, was darin resultieren könnte, dass Dokumente beim Ausfall eines Servers nur in Bruchstücken abgerufen werden können. Ted Nelson bleibt in dieser Frage wiederum äusserst vage:
It is true that transpublishing requires some kind of network, but it (sic!) not necessarily perfect connectivity; it should be possible for transpublishing to work efficiently on imperfect networks through caching systems designed for the purpose. ‘But that means if the network goes down I can’t get it’ – true, but that’s the same as for any other downloads.
In der Tat trifft dies auch auf das WWW zu, doch man muss sich fragen, was angenehmer ist: ein Dokument gar nicht mehr zu finden – oder aber nur in Bruchstücken. Die Tatsache, dass Ted Nelson nach vielen Jahren der Entwicklung von Xanadu immer noch äusserst vage bleibt, was die technische Umsetzung angeht («…eine Art von Netzwerk…») wirft ein eigenartiges Licht auf das Projekt, und vermag wohl auch zu erklären, warum es Xanadu bis heute nicht gibt.
Links sind nicht ewig (auch hier nicht)
Selbst wenn es «tote Links» mit Xanadu nicht mehr geben sollte, hätte man seine Texte genauso unterhalten müssen, wie man es heute bei einer Website tun muss. Schliesslich können die Texte mehrfach überarbeitet werden. Links dazu bleiben dabei bestehen. Wenn ich aber nun nicht nachkontrolliere, ob immer noch ungefähr das selbe steht, wie ich verlinkt habe, kommentiert oder zitiert habe, laufe ich in Gefahr, dass ich mich im dazugehörigen Text auf etwas beziehe, das im Original schon längst nicht mehr existiert. Natürlich habe ich die Möglichkeit, in einem solchen Fall auf eine ältere Version zu verweisen, womit ich scheinbar meine Probleme gelöst hätte; dies muss aber nicht unbedingt im Sinne des Autoren des Zitates sein, der unbedingt möchte, dass nur die neuste Version seines Textes benutzt wird. Ted Nelson (2000) meint dazu:
It will be evident that this mechanism – keeping a link attached between occurrences of surviving content through successive versions – will retain structure that otherwise will be lost. […] So we represent the literary connections that move, or remain. Obviously there can be different problems with this, depending on the particular revisions of different documents, documents’ semantics. Still, this method manages the *presumptive* inheritance of meaning among versions; and the reader‘s intelligence, plus access to other versions, should take care of the rest.
Das Versprechen, dass tote Links in Xanadu nicht existieren, läuft also darauf hinaus, dass Links in Xanadu immer zu etwas führen. Ob es dann auch das Gewünschte ist, scheint dabei nebensächlich, denn dazu gibt es ja «the reader’s intelligence» …
Moralische Fragen
Die Maxime, dass nichts gelöscht werden darf, wirft denn nicht nur technische, sondern auch moralische Fragen auf. Will ich wirklich, dass ältere Versionen von meinen Texten öffentlich zugänglich sind, selbst wenn ich schon längst nicht mehr der dort vertretenen Meinung bin und eigentlich nicht möchte, dass diese weiter verbreitet wird? Xanadu, das so offensichtlich auf akademische Autoren zugeschnitten ist, vergisst, dass Menschen ihre Meinung ändern können. Das wäre noch das eine. Xanadu soll offen für alle sein: The system will not keep records of who sends for what; otherwise reading becomes a political act.
(Phelbs, 1994). Genauso wird niemand kontrollieren, wer was auf Xanadu publiziert. Man stelle sich also vor, was passiert, wenn auf Xanadu bewusst Falschinformationen verbreitet werden. Einmal hochgeladen, bleiben sie dort, können vor jedem aufgerufen und, der Maxime folgend, nicht mehr gelöscht werden. Die Folgen wären geradewegs diametral zu den Träumen der Xanadu-Designer gestanden:
By putting all information within reach of all people, Xanadu was meant to eliminate scientific ignorance and cure political misunderstandings. And, on the very hackerish assumption that global catastrophes are caused by ignorance, stupidity, and communication failures, Xanadu was supposed to save the world.
Transcopyright
Mit diesem Zitat aus Gary Wolfs Artikel in _WIRED_ zeigt sich denn auch ein weiterer Widerspruch. Zwar sollte Xanadu Informationen für alle zugänglich machen – aber nur gegen Bezahlung. Der Ansatz war vielleicht gut, denn Autoren sollten für ihre Arbeit auch entschädigt werden, andererseits war das System verhältnismässig eindimensional: es basierte weit mehr auf Quantität als auf Qualität. Ein Autor, der ein vielfaches mehr schreibt als ein anderer, dabei aber nicht mehr sagt, bekommt trotzdem ein vielfaches mehr Geld für seine «Arbeit». Das WWW zeigt, dass die meisten Benutzer kaum bereit sind, für Informationen zu bezahlen. Dies wäre wohl auch das Schicksal von Xanadu gewesen, hätte es je existiert – die Welt wäre kaum gerettet worden. Es lassen sich zudem viele Wege denken, mit dem man das System überlisten könnte – um weniger zu bezahlen, um andere mehr bezahlen zu lassen, beispielsweise – und es ist müssig, diese alle aufzuzählen.
Xanadu ist zwar ein interessantes Gedankenspiel, leider aber auch nicht mehr als das. Das System scheint zwar für eine grosse Menge von Daten gedacht, wäre darunter aber wahrscheinlich zusammengebrochen. Verglichen mit diesem Gedankenexperiment ist das WorldWideWeb in der Tat «verwässert» und allzu vereinfacht, aber wahrscheinlich waren gerade dies die Punkte, die das WWW technisch realisierbar gemacht haben und ihm schliesslich zum Durchbruch verholfen haben.
WorldWideWeb
Die Basis des Netzes
Das WorldWideWeb ist der alten Art, wissenschaftliche Artikel zu publizieren, näher als man denkt. Genau wie das physische Publizieren trennt auch das WWW die Benutzer in zwei Klassen: Leser und Autoren. Während der Autor die Inhalte auf dem Netz publiziert, sie mit anderen Webpages verknüpft und im besten Falle auch unterhält, ist der Leser darauf beschränkt, diese Inhalte zu konsumieren. Er kann zwar Inhalte kopieren und auf seinem Rechner speichern, doch damit arbeiten in der Art und Weise, wie dies bei Xanadu (oder in Vannevar Bushs Memex-Konzept) der Fall ist, kann er nicht.
Diese Tatsache hat mit der Basis des WWW zu tun, dem HyperText Transfer Protocol (HTTP), das nur dazu entwickelt worden ist, zwei Dinge zu tun: Von einem Leser aus eine Anfrage an einen Server senden, um nachzusehen, ob dort eine Datei liegt, und im Falle eines Erfolges diese an den Leser zu senden. HTTP ist ursprünglich nicht dafür gedacht, Informationen vom Leser an den Server zurückzusenden.7
Glossierung
Durch diese Einseitigkeit sind im urspünglichen WWW viele Dinge nicht möglich, die Ted Nelson einst als für Hypertext konstituierend betrachtet hat. Das Glossieren und Kommentieren von Texten im Internet, so dass diese Kommentare von allen eingesehen werden können, ist zum Beispiel nicht möglich. Anmerkungen und Korrekturen, Erweiterungen eines Dokumentes und so interessante Rätsel wie der letzte Satz von Fermat kann es im Internet nicht geben. Mit etwas Glück ist eine Kontaktadresse des Autors angegeben, um diesem eigene Beobachtungen mitzuteilen. Aber es gibt keine Garantie, dass diese dann gelesen, beachtet und ausgeführt werden.
Verknüpfung durch den Leser
Die Möglichkeit, das Web zu individualisieren, in dem Sinne, wie es schon Vannevar Bush vorgeschlagen hat, fehlt vollständig – sofern ich nicht selbst zum Autor werden will. Ich muss mit den Verknüpfungen vorlieb nehmen, die mir die Autorin oder der Autor bietet. Diese werden in den seltensten Fällen vollständig sein oder mögen nicht meinem Geschmack entsprechen. Vielleicht möchte ich aber auch selber Verknüpfungen machen, auf die die Autorin oder der Autor nicht gekommen sind. Das Read-Only-Konzept des WWWs verhindert aber wirksam, dass ich mir so ein eigenes Netz aufbauen kann. Ein mehr schlechter als rechter Ersatz können die so genannten Bookmarks bilden: in dieser Liste kann ich Adressen von Seiten speichern, damit ich mir diese nicht merken muss. Mit einer geschickten Verwaltung kann man so auch eine Art der Leser-Verknüpfung erstellen; doch das gleicht dann mehr einem Büchergestell, in dem mehr oder weniger passende Bücher nebeneinander gestellt worden sind. Wirklich verknüpft, wie es die Hypertext-Definition fordern würde, ist dies natürlich noch lange nicht.
404 – nicht gefunden
Zudem werden bei diesen Bookmarks nicht die Daten selbst gespeichert, sondern nur die URL. Mit etwas Pech befinden sich unter dieser Adresse nach kurzer Zeit gar nicht mehr die von mir gewünschten Informationen, sondern etwas ganz anderes. Oder aber die Site ist umgezogen und hat eine andere Adresse. Beides ist relativ häufig im Internet und stellt auch Autoren von Websites vor Probleme: was kann ich tun, damit die Leser meiner Website wirklich dort landen, wo ich sie haben will? Da im Internet prinzipiell alles publiziert wird (ob legal oder nicht, ist eine ganz andere Frage), muss ich durch regelmässige Kontrollen feststellen, ob noch alle Links im von mir intendierten Sinn funktionieren. Oder aber ich schreibe eine Erklärung auf die erste Page, dass ich nicht für den Inhalt der von mir verlinkten Seiten verantwortlich bin, so wie dies nun in Deutschland üblich ist. Tim Berners Lee, James Hendler und Ora Lassila drücken diesen Umstand so aus: Die Dezentralisierung hat ihren Preis. […] Wenn jeder das Seinige zum grossen Netz betragen darf, ohne kontrolliert zu werden, muss man Defekte in Kauf nehmen.
8 Die Zahl 4049 ist inzwischen so Allgemeingut geworden, dass sie schon von Kindern gebraucht wird, um zu sagen, dass sie etwas gerade vergessen haben. In einem System wie Xanadu wäre dies wohl weit weniger passiert – der Ressourcenverbrauch, um das zu verhindern, wäre aber durchaus auch enorm gewesen.
Hierarchisierung überall
Auch (vor allem Nelsons (1999b)) Forderung der De-Hierarchisierung der Daten kommt das Internet nicht wirklich nach. Schliesslich muss ich, um zu einem Dokument zu kommen, eine Adresse eingeben, die klar hierarchisch aufgebaut ist: so findet sich die Einstiegsseite des Instituts für Theaterwissenschaft in der Schweiz (ch) auf dem Server der Universität Bern (unibe) in der Gruppe Theaterwissenschaft (theaterwissenschaft) und dort wiederum im speziellen Verzeichnis für Webseiten (www), was schlussendlich die Adresse gibt: www.theaterwissenschaft.unibe.ch
. Die meisten modernen Websites gliedern auch die folgenden Daten hierarchisch. So findet sich das Vorlesungsverzeichnis unter «Studium». Grosse Websites haben teilweise äusserst tief verzweigte Strukturen, durch die man sich von Ebene zu Ebene hangelt. So gibt die URL developer.apple.com/ue/aqua/dock.html
an, dass es sich um ein Dokument zum Dock handelt, das Teil des Aqua Interfaces ist, das zur User Experience gehört, die in der Entwickler-Dokumentation von Apple abgehandelt wird. Diese Hierarchisierung haben die gleichen Vor- und Nachteile wie sonstige Indizes: sie sind nützlich, wenn die einzelnen Themenbereiche trennscharf abgegrenzt werden können, und versagen kläglich, wenn dies nicht möglich ist. Der Leser klickt sich in diesem Falle durch die ganze Hierarchie, ohne das Dokument zu finden, das er sucht. Zudem weiss er meist nicht einmal, ob ein solches überhaupt existiert. Eine Lösung besteht darin, ähnliche Hierarchien miteinander zu verknüpfen. Wo die Dateien auf dem Server gespeichert sind, und wie sie im Interface dargestellt sind, muss nicht notwendigerweise korrelieren, obwohl dies heute oft der Fall ist. Das kann auf der einen Seite hilfreich sein, auf der anderen aber auch verwirren, da damit gleichzeitig das Hierarchie-System ausgehebelt wird. Der Leser bemerkt durchaus, wenn er «umgeleitet» wird.
Abhängigkeit von maschinellen Suchmaschinen
Gleichzeitig wird auch ein weiteres Problem klar, das aber sämtlichen Hypertext-System innewohnt: eine Datei, auf die keine Links verweisen, existiert nicht im Web, selbst wenn sie auf dem Server abgespeichert ist. Grosse Websites haben heute eine Komplexität erreicht, die sie unüberschaubar macht. Die Information, die ich suche, kann zwar schon existieren, aber wenn ich den Link dazu nicht finde, bin ich verloren. Es müssen also Suchmaschinen existieren, die für mich nach solchen Dateien suchen. Damit bin ich wieder der Logik einer Maschine ausgeliefert, die kaum nach assoziativen Regeln suchen wird, sondern bloss den Inhalt durchstöbert und mir dann ein paar «Resultate» hinknallt, in denen die Maschine die von mir eingegebenen Begriffe gefunden hat. Wenn die gewünschte Information nicht unter dem Begriff läuft, mit dem ich gesucht habe, finde ich sie also nicht. Unsere Sprache, die für viele Begriffe Synonyme hat und damit zur Vielfalt beiträgt, wird damit zum Problem. Noch sind die Suchmaschinen nicht so weit, dass sie automatisch nach Synonymen suchen können. Eine der ersten erfolgreichen Sites, die das Finden von Informationen im Internet erleichtern sollte, hatte dementsprechend als grundlegendes Konzept die Kategorisierung. Die Rede ist von Yahoo, die mit diesem Konzept äusserst erfolgreich waren, bis sie zuerst von Altavista und später von Google überholt wurde.
Es verwundert nicht, dass sich Ted Nelson heute in aller Schärfe gegen dieses Konzept wehrt. Er nennt das Web denn auch «decorated directories». Und er führt weiter aus: What we have instead is the vacuous victory of typesetters over authors, and the most trivial form of hypertext that could have been imagined.
In seinem Artikel «Way Out of the Box» (1999), in dem er gleichzeitig über das Web und die heutigen GUIs10 von Macintosh und Windows herzieht, meint er:
Hypertext, as suddenly adapted to the Internet by Berners-Lee and then Andreessen, is still the paper model! Its long rectangular sheets, aptly called “pages”, can be escaped only by one-way links. There can be no marginal notes. There can be no annotation (at least not in the deep structure). The Web is the same four-walled prison of paper as the Mac and the Windows PC, with the least possible concession to nonsequential writing (“nonsequential writing” was my original 1965 definition of hypertext) that a sequence-and-hierarchy chauvinist could possibly have made.
Trotzdem ist das Web am florieren wie nie zuvor, als würden diese Beschränkungen nicht existieren. Das Geheimnis liegt in der Erweiterbarkeit und – zu einem gewissen Grade – in der Trennung von Autor und Leser; oder anders ausgedrückt: in der Trennung von Server und Client.
Erweiterungsmöglichkeiten
Das Schlag- und Zauberwort nennt sich «Serverseitige Applikationen». Man muss sich vergegenwärtigen, dass die Server, die die Daten enthalten und an die Clients liefern, nicht nur dumme Festplatten sind, die Daten aufnehmen und auf Befehl wieder ausspucken können. Server haben Prozessoren eingebaut und können deshalb eines: rechnen. Was liegt also näher, als diesen Umstand zu nutzen, und Programme auf dem Server auszuführen? Die Tatsache, dass das WWW einen klaren Unix-Hintergrund hat, machte die Sache zusätzlich einfach, denn Unix war von Beginn als Server-System gebaut worden, das ermöglichte, Aufgaben für einen Client auszuführen.
Frühere Hypertext-Systeme setzten meist voraus, dass bei einer Funktionserweiterung das Client-Programm auch aktualisiert wird. Webbenutzer sind aber dabei oft nicht die schnellsten11. Indem man nun diese neuen Features auf den Server beschränkt (auf den der Autor ja unbeschränkt Zugriff hat), müssen Browser nicht aktualisiert werden. Solche serverseitige Applikationen führen Berechnungen, Abfragen von Datenbanken, ganze Programme aus und wandeln die Resultate dann wieder in das allgemeingültige HTML um, das von allen Browsern verstanden wird. Theoretisch wäre es also möglich, dass selbst ein Benutzer von Mosaic (der allererste kommerzielle Browser) ohne Probleme durch das Web surfen kann. Praktisch geht das natürlich nicht – denn die unterliegenden Codesprachen (HTML, CSS, Java-Script etc.) wurden natürlich auch modernisiert, und benötigen neuere Browser. Es ist dennoch erstaunlich zu sehen, wie weit rückwärtskompatibel das Web ist. Eine gut gebaute Site kann immer noch mit Lynx, einem textbasierenden Browser, angesehen werden. Die beiden Bereiche, die heute auf den Servern arbeiten, lassen sich auf zwei Bereiche beschränken: Scriptsprachen und Datenbanken.
Scriptsprachen
Skriptsprachen wie PHP (Hypertext PreProcessor) oder ASP (Active Server Pages), um die Bekanntesten zu nennen, machen das Web interaktiv. Sie können Eingaben von Benutzern übernehmen und verarbeiten und für jeden Benutzer und jede Situation individuelle Webspages ausgeben. So kann man etwa die Inhalte einer Website auf die jeweilige Tageszeit anpassen. Wirklich mächtig werden diese Sprachen jedoch mit untergelegten Datenbanken, deren Daten sie abfragen können und in HTML übersetzen können. Diese Technologie ist wie oben schon erklärt vollkommen vom benutzten Browser unabhängig, denn das jeweilige Programm muss ja bloss auf dem Server ausgeführt werden.
Datenbanken
Datenbanken ihrerseits sind heute zur Wirbelsäule vieler grosser Websites geworden. Man stelle sich vor, für jedes der Produkte auf Amazon müsste von Hand eine HTML-Datei angelegt werden und bei Preis- und anderen Änderungen genauso aktualisiert werden. Der Aufwand wäre beträchtlich und kaum durchführbar. Dazu gibt es heute Datenbanken, die von den Scriptsprachen gesteuert werden können, und deren Daten dann in browserlesbares HTML umgewandelt werden. Die meisten dieser Datenbanken sind heute ungemein komplex und untereinander verknüpft. So gibt es inzwischen Datenbanken, die aufgrund der angesammelten Daten dem Benutzer weitere, der gerade besuchten Page ähnliche Websites vorschlagen – eine Art computergenerierter assoziativer Links.
Eine neue Form im WWW: Weblogs
Mit den obengenannten Methoden kann man zwar das Internet flexibler und interaktiver machen, Marginalien und Kommentare sind aber damit immer noch nicht möglich. Blogs (die Abkürzung von Weblogs) waren die logische Folge der Erkenntnis, dass man, um das WWW im Sinne von Bush zu individualisieren, zum Autoren werden musste. Nur so ist es möglich, sich ein eigenes Netz im Netz aufzubauen. Kaum verwunderlich, dass die ersten Blogs vor allem Linklisten waren, die regelmässig aktualisiert wurden (vgl. die ersten Einträge von scriptingnews.com). Mit der Zeit wurden diese dann auch immer ausführlicher kommentiert und bewertet. Quasi durch die Hintertür hatte man also die Kommentier- und Marginalien-Möglichkeit in das Web eingeführt, wenn auch nicht so perfekt: Es ist von der kommentierten Seite aus nicht möglich, die Kommentare und Marginalien einzusehen. In der Regel lese ich also zuerst in einem Blog den Kommentar und danach den Originaltext.
Bis heute werden Blogs von Leuten verwendet, die selbst in irgendeiner Weise mit Computern zu tun haben.12 Einträge in solchen Blogs gleichen meist eher kurzen Essays oder Aufsätzen, die sich um die Lösung eines bestimmten Problems drehen. Diese Blogs werden von anderen Bloggern gelesen, die sich ihrerseits Gedanken über dieses Problem machen und Lösungsvorschläge ausbreiten, die wiederum von anderen besprochen werden. So bilden sich nach einiger Zeit regelrechte Zirkel aus, die zu bestimmten Themen bloggen und die Arbeiten gegenseitig kommentieren.
Öffentliche Tagebücher
In den letzten Jahren haben auch Jugendliche das «bloggen» entdeckt, brauchen es aber nicht mehr ausschliesslich, um andere Sites und Artikel zu verlinken. Stattdessen ist es zu ihrem Tagebuch geworden: öffentlich und für alle einsehbar. Der Mentalitätswandel, der dahinter steckt, ist immens: vom verschlossenen, versteckten Tagebuch, das niemand auch nur anrühren darf, zum komplett öffentlichen Weblog, das jeder auf dem Netz einsehen kann. Emily Nussbaum schreibt zu Beginn dieses Jahres in einem Artikel der New York Times, es existiere a generation of compulsive self-chroniclers, a fleet of juvenile Marcel Prousts gone wild
. Die ganze Palette der multimedialen Ausdruckmittel findet hier ihren Platz: normale Tagebucheinträge, meist verbunden mit der Angabe, in welcher Stimmung man gerade ist und welche Musik man gerade hört, dazu Gedichte, Geschichten, Bilder von MMS-Handys, Digitalkameras oder Webcams, Auszüge aus IM-Konversationen13, Links zu anderen Sites. Dazu kommen Kommentare von Freunden und Kollegen, die dasselbe tun. Nussbaum führt aus:
Peer into an online journal, and you find the operatic texture of teenage life with its fits of romantic misery, quick-change moods and sardonic inside jokes. Gossip spreads like poison. Diary writers compete for attention, then fret when they get it. And everything parents fear is true. (For one thing, their children view them as stupid and insane, with terrible musical taste.) But the linked journals also form a community, an intriguing, unchecked experiment in silent group therapy – a hive mind in which everyone commiserates about how it feels to be an outsider, in perfect choral unison.
Diese Form des Schreibens bildet automatisch neue Formen aus, die zu untersuchen sich lohnen würde. Viele Einträge sind äusserst kurz und kryptisch. Ähnlich einem japanischen Haiku drücken sie eine Impression, eine Stimmung aus. Was Blogs in den meisten Fällen auszeichnet, ist die hohe Dichte an Verknüpfungen. Die meisten Begriffe, von denen man die Adresse kennt, werden konsequent verlinkt. Die ursprüngliche Funktion, neue, unbekannte Websites «auszugraben» und einer grösseren Öffentlichkeit zu präsentieren ist noch heute eine der Funktionen von Blogs. Welche Auswirkungen eine Nennung in einem vielgelesenen Blog haben kann, zeigt dieser Kommentar:
AdamPolselli.com’s traffic has steadily risen over the twelve months… that is until just a couple days ago when the site was added to Paul Scrivens’ CSS Vault. (Thanks, by the way!) Since then, the number of hits and visits has tripled, and today I even received an email warning me that my domain is about to exceed it’s bandwidth limit.
Dass Google die Firma Pyra, die als eine der ersten den Begriff des ‹bloggens› geprägt haben, aufgekauft hat, erstaunt nicht.
Diese Form des Schreibens und Verknüpfens hat wohl am meisten Ähnlichkeit mit Nelsons Xanadu. In der Tat können die archivierten Einträge mit der Zeit eine Art «literarisches Wissen» bilden. Das Problem liegt natürlich in der Unbeständigkeit des Webs, die dafür sorgt, dass viele der älteren Links ins Leere führen. Gleichzeitig werden mit den Kommentierungsfunktionen14 die in älteren Hypertext-Konzepten oft geforderten Marginalien möglich. Da in diesen auch Verknüpfungen eingefügt werden können, beginnt in der Tat ein assoziativ verknüpftes Netz zu entstehen. Die von Nussbaum angesprochene Idee des «Hive-Minds» scheint hier in der Tat nicht weit hergeholt zu sein.
Ein Blick in die Zukunft: Das Semantische Netz
Als mögliche Zukunftsvision, die auch stark vom W3C gefördert wird, ist heute das «Semantische» oder auch «bedeutungstragende» Netz zu sehen. In dessen Ausformulierung ist wiederum Tim Berners-Lee beteiligt, der schon das ursprüngliche Netz initiiert hat. Das ist natürlich kein Zufall – als er 1989 das Web erfand, hatte er dafür mehr semantischen Inhalt im Sinn, als später allgemein gebräuchlich wurde
, wie es in seiner Kurzbiografie des Artikels zum semantischen Netz8 heisst (2001:49).
Dass Konzept des semantischen Webs basiert auf dem schon existierenden WWW und baut es weiter aus:
Die Dateien des WWW, die so genannten Websites, sind bislang darauf ausgelegt, von Menschen gelesen, nicht aber von Computerprogrammen ausgewertet und interpretiert zu werden. […] Das semantische Netz wird den Inhalt von Websites mit einer Struktur versehen, sodass Softwareagenten von Datei zu Datei wandern können und komplizierte Aufgaben erfüllen können. (Berners-Lee u.A. 2001:42f)
Dateien sollen durch die Computer nicht nur alleine dargestellt, sondern vielmehr verstanden werden können. Damit können so genannte Software-Agenten Informationen aus diesen Sites ziehen und weiterverarbeiten. Im Beispiel, das das Autorenteam präsentiert, sucht ein Software-Agent eigenständig nach einer Physiotherapie-Praxis in der Nähe seines «Besitzers» und arrangiert einen Termin dort, der in dessen Agenda passt. Dabei passiert der Agent etliche verschiedene Websites, die äusserlich unterschiedlich aussehen mögen, aber allesamt maschinenlesbare Informationen beinhalten, die der Agent interpretieren und je nach Aufgabe kombinieren und verbinden kann. Der Software-Agent wird also das tun, was wir bislang mit der Hilfe von Suchmaschinen und Webverzeichnissen mühsam selber tun mussten: Weit verstreute Informationen suchen und zu einem Gesamtbild zusammensetzen. Es scheint sich damit also tatsächlich eine Art globale Datenbank aufzubauen, ähnlich der «internen» Datenbanken von grossen Websites, die in der Tat langsam einem nicht-statischen, auf «Assoziation» basierenden Modell basiert, in dem die Agenten von Sites zu Sites springen und sich Informationen zusammensuchen.15
Dieser Ansatz, so interessant er scheinen mag, wird nicht von allen unterstützt. Wieder einmal ist es Ted Nelson, der sich kräftig gegen das aufkommende «Semantic Web» wehrt. Er sieht vor allem das Problem im Umstand, dass all diese Informationen in XML gespeichert werden – und XML eine Sprache ist, die rein auf Kategorisierung und Hierarchie basiert; Konzepte, die er in Xanadu tunlichst zu vermeiden suchte, um damit Bush’s Ideal vom assoziativen Arbeiten möglichst nahe zu kommen.
XML is not an improvement but a hierarchy hamburger. Everything, everything must be forced into hierarchical templates! And the „semantic web“ means that tekkie committees will decide the world‘s true concepts for once and for all.
Es ist fraglich, ob sich Nelson da nicht täuscht. Schliesslich sind das Zielpublikum des bedeutungstragenden Netzes nicht Menschen, sondern vielmehr Maschinen – und diesen hat man bis jetzt noch nicht wirklich beigebracht, assoziativ zu denken. Das «Semantic Web» hält niemand davon ab, seine Text auf dem Internet assoziativ zu verknüpfen.
Abschied von der Hierarchie?
Es scheint mir an der Zeit, den Ansatz von Ted Nelson zu überdenken. Kann Hypertext nur rein assoziativ funktionieren? Interessanterweise scheint es niemanden gross zu stören, dass viele Informationen auf dem WWW wie oben beschrieben stark hierarchisch geordnet sind. Würde unser Hirn nur rein assoziativ funktionieren, wie es vor über fünfzig Jahren Vannevar Bush beschrieben hat, müssten wir mit all diesen Hierarchien äusserst Mühe haben. Das Gegenteil scheint der Fall zu sein: Tagtäglich arbeiten wir damit. Hierarchien helfen uns, unsere komplexe Umwelt zu ordnen und in den Griff zu bekommen. Hierarchien tauchen überall auf: in der Art, wie wir Briefe adressieren, wie wir Zeitung lesen, wie wir im Supermarkt ein Joghurt kaufen, um nur ein paar Beispiele zu nennen. Das wir sie im WWW antreffen, scheint deshalb durchaus natürlich – vor allem auch durch die Tatsache, wie wir das Web benutzen.
Assoziationen mögen in kreativen Prozessen eine wichtige Rolle spielen, in Momenten, wo es darum geht, reine Information zu holen, scheinen sie aber zu versagen: Untersuchungen haben gezeigt, dass bei einer Suche nach spezifischen Informationen streng kategorisierte Datenbanksysteme Hypertext-Systemen meist überlegen sind.
(Fendt 1993:49)16. Klicke ich im WWW einen Link an und finde dahinter nicht die erwartete Information, so fühle ich mich eher verwirrt als erleuchtet. Der Link mag zwar von einem assoziativen Standpunkt eines anderen Menschen durchaus Sinn machen, da es aber nicht dem entspricht, was ich mir darunter vorstelle, wird die Information kaum eine Wirkung auf mich haben. Die meisten Benutzer des Webs sind Leser, die auf der Suche nach Informationen sind, und diese mögen zuweilen mit einer «universelleren» Hierarchie einfacher zu finden sein als mit einem individuellen Assoziationsmuster. In Bush’s Memex oder Nelsons Xanadu, die beide weit mehr autorenzentriert sind, macht ein solcher Ansatz der Dehierarchisierung weit mehr Sinn. Der Autor soll mit dem vorhandenen Textmaterial arbeiten und es seiner Art und Weise zu Denken anpassen können. Trotzdem kommen beide an gewissen Stellen um die Indexierung und Kategorisierung nicht herum: Memex muss eine (willkürlich geordnete) Liste haben, in der sämtliche Mikrofilme des Archivs verzeichnet sind, zusammen mit dem Code, mit dem sie angezeigt werden können:
There is, of course, provision for consultation of the record by the usual scheme of indexing. If the user wishes to consult a certain book, he taps its code on the keyboard, and the title page of the book promptly appears before him, projected onto one of his viewing positions.
Dasselbe gilt für Xanadu – wie kann ich ein Dokument verknüpfen, wenn ich nicht eine (willkürklich geordnete) Liste habe, in der alle in Xanadu vorhandenen Texte verzeichnet sind? Natürlich kann ich durch «Surfen» auf diese Texte stossen – doch dies funktioniert nur, wenn das Archiv relativ klein ist, und ich sicher sein kann, dass alle Texte irgendwie mit allen verknüpft sind. Weder das eine, noch das andere ist heute im WWW der Fall. Zum einen ist es so gross geworden, dass ich viel zu lange haben würde, um so zu den gewünschten Informationen zu kommen, zum andern ist nicht alles mit allem verknüpft. Vielmehr bestehen oft eine Art Galaxien – Websites, die sich um ein ähnliches Thema drehen und eng miteinander verknüpft sind. Doch zwischen den Galaxien herrschen Lichtjahre von Leere, die kaum durch Links überbrückt werden. Von den Websites der Kaninchenzüchterverbände werde ich kaum zu den Websites der Webdesign-Avantgardisten finden.
Andere Zielgruppe – andere Information
Xanadu und das WorldWideWeb mögen sich zwar auf eine ähnliche Grundidee beziehen, die Art der gespeicherten Informationen ist aber fundamental unterschiedlich. Xanadu wäre in der Tat ein Publikationssystem geworden, das vor allem längere, zusammenhängende Texte, wie Aufsätze und Essays enthalten hätte. Das WWW hat diese Textarten durchaus. In weit höherem Masse besteht es jedoch aus kurzen bis kürzesten Informationsstücken. In diesem Sinne wird es denn auch gebraucht. Der Benutzer will eine ganz bestimmte Information und diese möglich schnell, ohne auf Abwege zu geraten. Die Benutzung von (trennscharfen) Hierarchien macht deshalb durchaus Sinn. Hierarchien können helfen, Informationen einzuordnen und aus einer Vogelperspektive zu betrachten. Zusammen mit den assoziativen Links ergibt sich eine sinnvolle Symbiose: Mit assoziativen Links können Hierarchien aufgebrochen und transparent gemacht werden. Nicht mehr länger muss ich in einer Sackgasse landen, wenn ich mein «Zielobjekt» zu ungenau definiert habe und deshalb im falschen Ast gelandet bin. Ein Link, der mich zu einem anderen Ast der Hierarchie bringt, holt mich da raus – auf assoziativem Wege, aber so, dass ich immer noch weiss, wo ich mich befinde. Es ist zu bezweifeln, ob ein System, das auf rein assoziativen Links beruht, wirklich das «Erkennen und Verstehen komplexer Strukturen» (Fendt 1993:48) fördert, oder aber nicht eher ein Gefühl des Schwimmens in der Informationssuppe bewirkt. Die Fähigkeit, aus einer Vielzahl unterschiedlichster Informationen ein Gesamtbild zu erstellen, ist eine intellektuelle Fähigkeit, die längst nicht alle beherrschen und die mit der zunehmenden Menge an Information im Internet immer schwieriger wird.
Schlussendlich haben wir wiederum dasselbe Problem, das schon Vannevar Bush zur Erfindung seines Memex geführt hat: publication has been extended far beyond our present ability to make real use of the record
(Bush 1945). Wir können gar nicht mehr alle Websites zu einem Thema verlinken, geschweige denn allen Verzweigungen folgen, um «grössere Zusammenhänge« zu erkennen, selbst wenn wir diese Fähigkeit geübt haben. Das «Semantische Web», selbst wenn es ein «hierarchischer Hamburger» ist, wird es ermöglichen, solche Zusammenhänge mit Hilfe von Software-Agenten wieder herzustellen, da diese in unerreichtem Tempo tausende von Websites durchforschen, sich dabei alle gefundenen Informationen merken und diese unter Zuhilfenahme logischer Schlussregeln zu brauchbaren Resultaten zusammensetzen können.
Aus einer radikalen Perspektive reduziert sich dies alles auf die Frage nach einem zweckmässigen User Interface, also auf den Weg, wie wir mit Maschinen interagieren. Es muss eine Art gefunden werden, wie zwischen der fest verdrahteten Maschinenlogik und dem flexiblen menschlichen Gehirn eine Verbindung etabliert werden kann, die die Maschinen in der Tat zu Memex’ werden lässt – zu Erweiterungen unseres Geistes. Viel ist in den letzten 50 Jahren getan worden, doch der Weg kann noch weitergegangen werden, und es ist ungewiss, wohin er führen wird. Die Unsicherheiten, die damit verbunden sind, zeigen sich nicht zuletzt in Filmen wie «Ghost in the Shell» und «The Matrix», oder in Erzählungen wie «Do Androids Dream of Electric Sheep», in denen die Grenze zwischen Mensch und Maschine zu verschwinden droht.
-
Lange Zeit wurde an Xanadu in der Freizeit seiner Entwickler gearbeitet. ↩︎
-
Im Dezember 2004 hat Ted Nelson ein Stück Software herausgebracht, das TransQuoting auch im WWW ermöglichen soll. Was ich davon halte, kann hier gefunden werden. ↩︎
-
Im «Grand Adress Space» werden sämtliche Daten Xanadus gespeichert und bekommen, wie der Name schon andeutet, eine feste Adresse, mit der diese Daten aufgerufen werden können. ↩︎
-
«Transcopyright» ist gerade mal ein Beispiel aus Nelsons vielfältigen und phantasievollen Begriffsystemen und Markennamen, die er für Xanadu (das eigentlich korrekterweise auch als Xanadu® geschrieben werden müsste) erfunden hat. ↩︎
-
Die Zahlen tragen den Namen «Tumblers». ↩︎
-
Also einem rein zentralistischem System, wie es früher üblich war, wo ein grosser Mainframe sämtliche Berechnungen anstellt, und viele «dumme» Terminals angeschlossen sind. Das System wurde spätestens mit der Konstruktion des Internets aufgegeben, da es zu anfällig für Störungen war. ↩︎
-
Dies ist erst mit der neuen Version (HTTP 1.1) geschehen, und bildet die Basis für die meisten heutigen interaktiven Anwendungen. ↩︎
-
Berners-Lee, Tim / Hender, James / Lassila, Ora (2001): Mein Computer versteht mich. In: Spektrum der Wissenschaft 8/2001, S. 42–49 ↩︎ ↩︎
-
«404» ist der Fehlercode, den das Hypertext Transfer Protocol benutzt, wenn eine angeforderte Seite unter der angegebenen URL nicht existiert. ↩︎
-
«Graphical User Interface»: Die graphische Repräsentation von Daten und Prozessen eines PCs ↩︎
-
So benützen laut einer Studie noch immer über 10% der weltweiten Surfer InternetExplorer 5 – ein Browser, der schon fast über 5-Jährig ist und mit seiner fehlerhaften Unterstützung von Web-Standards Webdesigner regelmässig in Verzweiflung stürzt. Nichtsdestotrotz hat die kürzliche Veröffentlichung von Firefox, einem Spin-Off des Mozilla-Projektes, die Bastion zumindest zum Wanken gebracht. ↩︎
-
Diese waren vor dem Aufkommen von Programmen wie «Blogger» die einzigen, die das nötige technische Wissen dazu hatten. ↩︎
-
«Instant Messenger»: Programme, die anzeigen, ob mir bekannte Personen auch online sind, und die Möglichkeit bieten, über ein chat-ähnliches Interface mit ihnen zu kommunizieren. ↩︎
-
Viele neue Blogs, bzw. Blog-Systeme bieten Kommentierungsfunktionen an, mit denen man als Leser direkt auf einen Eintrag reagieren kann, ohne dazu einen eigenen Blog zu eröffnen. Diese Kommentare sind unter dem ursprünglichen Eintrag angeordnet und können von allen Lesern eingesehen werden. Zudem gibt es auch Technologien wie Talkback und Pingback, welche eine Möglichkeit bieten, von seinem eigenen Blog aus anderen Blogs zu benachrichtigen, über die man schreibt. ↩︎
-
Als eine Art assoziativer Hyperlink darf hier der Anime «Ghost in the Shell» stehen – eine futuristische Geschichte, die sich genau mit einem solchen «selbständigen Agenten» befasst, der durch die Netze wandert und mit dem angesammelten Wissen plötzlich eine Art «Selbst-Bewusstsein» entwickelt – und damit gleich auch noch einen Cyborg in eine Identitätskrise stürzt. Was von aussen ein simpler Action-Streifen zu sein scheint, enpuppt sich – gerade auch in Hinblick auf die Entwicklung des «Semantic Web» und dessen umherstreifenden Softwareagenten als interessantes Gedankenspiel. ↩︎
-
Fendt, Kurt (1993): Offene Texte und nicht-lineares Lesen: Hypertext und Textwissenschaft. Dissertation, Universität Bern. ↩︎