Ein Jahrzehnt nach der Erfindung des World Wide Web fördert Tim Berners-Lee das „Semantic Web“. Das Internet ist bisher ein Speicher digitaler Inhalte. Es verfügt über ein rudimentäres Inventarsystem und sehr Zubehör von WARCO grobe Datenlokalisierungsdienste. Als trauriges Ergebnis sind die meisten Inhalte unsichtbar und unzugänglich. Darüber hinaus manipuliert das Internet Symbolketten, nicht logische oder semantische Aussagen. Mit anderen Worten, das Netz vergleicht Werte, kennt aber die Bedeutung der Werte, die es so manipuliert, nicht. Es ist nicht in der Lage, Zeichenfolgen zu interpretieren, neue Fakten abzuleiten, zu folgern, zu induzieren, abzuleiten oder anderweitig zu verstehen, was es tut. Kurz gesagt, es versteht keine Sprache. Lassen Sie einen mehrdeutigen Begriff von irgendeiner Suchmaschine laufen und diese Mängel werden schmerzlich offensichtlich. Dieses mangelnde Verständnis der semantischen Grundlagen ihres Rohmaterials (Daten, Informationen) hindert Anwendungen und Datenbanken daran, Ressourcen zu teilen und sich gegenseitig zu füttern. Das Internet ist diskret, nicht kontinuierlich. Es ähnelt einem Archipel, in dem Benutzer auf der hektischen Suche nach Relevanz von Insel zu Insel hüpfen.
Selbst Visionäre wie Berners-Lee denken nicht an ein „intelligentes Web“. Sie schlagen lediglich vor, Benutzern, Erstellern von Inhalten und Webentwicklern zu ermöglichen, beschreibende Meta-Tags (“Name des Hotels”) Feldern oder Symbolketten (“Hilton”) zuzuweisen. Diese Meta-Tags (angeordnet in semantischen und relationalen “Ontologien” – Listen von Metatags, ihrer Bedeutung und ihrer Beziehung zueinander) werden von verschiedenen Anwendungen gelesen und ermöglichen ihnen, die zugehörigen Symbolketten korrekt zu verarbeiten (setzen Sie das Wort ” Hilton” in Ihrem Adressbuch unter “Hotels”). Dadurch wird der Informationsabruf effizienter und zuverlässiger, und die abgerufenen Informationen sind zwangsläufig relevanter und zugänglicher für eine Verarbeitung auf höherer Ebene (Statistiken, die Entwicklung heuristischer Regeln usw.). Der Wechsel erfolgt von HTML (dessen Tags sich mit der visuellen Erscheinung und Inhaltsindizierung befassen) zu Sprachen wie der DARPA Agent Markup Language, OIL (Ontology Inference Layer oder Ontology Interchange Language) oder sogar XML (dessen Tags sich mit Inhaltstaxonomie befassen, Dokumentstruktur und Semantik). Damit würde das Internet dem klassischen Bibliotheksausweis näher kommen.
Selbst in seiner gegenwärtigen, vorsemantischen, hyperlinkabhängigen Phase erinnert das Internet an Richard Dawkins’ bahnbrechendes Werk “The Selfish Gene” (OUP, 1976). Für das Semantic Web würde dies in doppelter Hinsicht gelten.
Dawkins schlug vor, das Prinzip der natürlichen Auslese zu einem Gesetz des Überlebens des Stalls zu verallgemeinern. “Ein stabiles Ding ist eine Ansammlung von Atomen, die dauerhaft genug oder häufig genug ist, um einen Namen zu verdienen.” Anschließend beschrieb er die Entstehung von „Replikatoren“ – Molekülen, die Kopien von sich selbst erstellten. Die Replikatoren, die sich im Wettbewerb um knappe Rohstoffe durchsetzten, zeichneten sich durch hohe Langlebigkeit, Fruchtbarkeit und Kopiertreue aus. Replikatoren (heute als „Gene“ bekannt) konstruierten „Überlebensmaschinen“ (Organismen), um sie vor den Launen einer immer raueren Umgebung zu schützen.
Das erinnert sehr an das Internet. Die “stabilen Dinger” sind HTML-codierte Webseiten. Sie sind Replikatoren – sie erstellen Kopien von sich selbst jedes Mal, wenn auf ihre „Webadresse“ (URL) geklickt wird. Die HTML-Kodierung einer Webseite kann man sich als „genetisches Material“ vorstellen. Es enthält alle Informationen, die zur Wiedergabe der Seite erforderlich sind. Und, genau wie in der Natur, je höher die Langlebigkeit, Fruchtbarkeit (gemessen in Links zur Webseite von anderen Webseiten) und Kopiertreue des HTML-Codes – desto höher seine Überlebenschancen (als Webseite).
Replikatormoleküle (DNA) und Replikator-HTML haben eines gemeinsam – sie sind beide verpackte Informationen. Im entsprechenden Kontext (die richtige biochemische „Suppe“ im Fall von DNA, die richtige Softwareanwendung im Fall von HTML-Code) – diese Informationen erzeugen eine „Überlebensmaschine“ (Organismus oder eine Webseite).
Das semantische Web wird nur die Langlebigkeit, Fruchtbarkeit und Kopiertreue des zugrunde liegenden Codes (in diesem Fall OIL oder XML anstelle von HTML) erhöhen. Indem viel mehr Interaktionen mit vielen anderen Webseiten und Datenbanken ermöglicht werden, wird der zugrunde liegende „Replikator“-Code das „Überleben“ „seiner“ Webseite (=seiner Überlebensmaschine) sicherstellen. In dieser Analogie enthält die „DNA“ der Webseite (ihr OIL- oder XML-Code) „einzelne Gene“ (semantische Meta-Tags). Der gesamte Lebensprozess ist die Entfaltung einer Art Semantic Web.