Dezentrale Soziale Netzwerke – Ein grober Überblick

Ich habe mir die Tage mal ein paar Varianten von dezentralen sozialen Netzwerken angeschaut, auf die ich hier kurz eingehen möchte. Habe mich mit keinem davon tiefergehend befasst und es folgt auch keine Evaluation oder sowas. Ist vielmehr ein grober Überblick für mich selbst und wen auch immer es noch interessiert, was es im weiten Web in diese Richtung schon gibt:

Noserub

Einer der ersten mir bekannten Ansätze für dezentrale soziale Netzwerke. Gabs vor Jahren mal einen Beitrag im Elektrischen Reporter zu. Scheint aber auch leider nicht mehr aktiv voran getrieben zu werden. Letzte sichtbare Aktivitäten sind aus 2009.

One Social Web

Die Entwicklung wurde wohl erstmal eingestellt, weil man sich auf die Spezifikation konzentrieren möchte. Diese ist immerhin Stand Juli 2011. Basiert technologisch auf XMPP, vCard und Activity Streams.

Buddycloud

Macht einen vielverprechenden Eindruck, auch wenn leider noch keine Demo online ist. Dafür scheint die Entwicklung gut voran zu gehen. Setzt technologisch ebenfalls auf XMPP, aber man antwortete mir erfreulich zügig via Twitter, dass man FOAF und andere Semantic Web Standards / Technologien zumindest im Hinterkopf hat und diese in späteren Versionen zu erwarten sind. Ich bin gespannt!

The v0.1 release won’t see any semantic web technology but expect FOAF and other features to be included starting with v0.2

Lorea

So ganz klar wurde mir das Konzept auf der grausigen Website leider nicht. Gibt zwar zahlreiche Server die scheinbar ein Login via OpenID und sogar WebID unterstützen, aber leider gelang mir bei keinem ein Login auf diese Weisen. Fehlermeldung bei WebID-Login:

Couldnt login with the certificate:No Client Certificate Supplied

Fehlermeldung bei OpenID:

OpenID authentication failed: is not a valid OpenID URL.)

Diaspora

Der Vollständigkeit halber erwähne ich noch Diaspora, vermutlich das bekannsteste dezentrale Netzwerk zurzeit. Das ist auch schon recht gut voran geschritten und prinzipiell praktisch nutzbar wenn auch noch im Alpha-Status. Leider entwickelt es sich für meinen Geschmack zu sehr in Richtung „dezentrales Facebook“. Ein verteiltes Datensilo quasi, statt ein großes zentrales. Ich habe den Entwicklern vorgeschlagen FOAF und WebID zu unterstützen, habe darauf aber leider noch keine Rückmeldung.

Wer weitere Ansätze für dezentrale soziale Netzwerke kennt, möge Sie in den Kommentaren posten! Wie man mit Hilfe von Linked Data das Web zum Social Network machen kann, werde ich demnächst erläutern.

RDF auf Groovy-Art

Wie bereits angekündigt arbeite ich derzeit an einer Domain-Specific-Language / Bibliothek um RDF mit Groovy zu erzeugen. Das erste Release ist nun verfügbar. Die Vorzüge erkennt man am besten an einem kleinen Code-Beispiel:

RdfData rdfData = rdfBuilder {
  "http://example.com/resource/alice" {
     a "http://example.com/vocab/Person"
    "http://example.com/vocab/name" "Alice"
  }
}

Dieser Ausdruck ist äquivalent zu folgenden RDF-Daten im TURTLE-Format:

<http://example.com/resource/alice>
  a <http://example.com/vocab/Person>;
  <http://example.com/vocab/name> "Alice".
Nett, oder? Interessant wird das ganze natürlich erst, mit ein wenig Dynamik:
def person = new Person (...)

RdfData rdfData = rdfBuilder {
  "http://example.com/resource/${person.nick}" {
     a "http://example.com/vocab/Person"
    "http://example.com/vocab/name" person.name
    "http://example.com/vocab/knows" {
      person.friends.each { friend ->
        "http://example.com/resource/${friend.nick}" {}
      }
    }
  }
}

Die ganze Sprachvielfalt von Groovy steht zur Verfügung. Die Daten lassen sich dann in beliebigen Repräsentation schreiben, z.B. RDF/XML oder TURTLE. Mehr Code-Beispiele und Erklärungen gibts im User Guide. Version 0.1 steht hier zum Download bereit und den Sourcecode gibt es bei GitHub.

Freue mich über Feedback und weitere Ideen. Wer zur weiteren Entwicklung beitragen möchte, forkt einfach das Projekt bei GitHub und sendet mir ein Pull-Request.

Aktuelle Projekte

Dieses Blog kam ja leider noch nicht so richtig in die Gänge, aber das soll sich nun ändern. Durch Landtagswahlkampf und Umzug hatte ich mich einige Monate auch fast nicht mit Linked Data und Co. befasst. Das hat sich in letzter Zeit wieder geändert und soll sich auch in diesem Blog wiederspiegeln.

Mein Hauptaugenmerk liegt derzeit auf dezentralen sozialen Netzwerken mit semantischen Technologien. Was es damit auf sich hat, werde ich demnächst mal näher erläutern. Wer es eilig hat liest sich diesen Artikel durch und googelt ein bisschen nach FOAF+SSL und WebID. Beim nächsten Braunschweiger Webmontag wird es bei Interesse auch eine kleine Präsentation dazu von mir geben.

Seit Tabulator nicht mehr in aktuellen Firefox-Versionen läuft, mangelt es mir an zufriedenstellenden RDF-Browsern, weshalb ich begonnen habe einen eigenen zu entwickeln. Falls jemand einen Tipp für einen guten Browser hat, würde ich mir die Arbeit aber gerne sparen.

Da ich mittlerweile die Sprache Groovy für mich entdeckt habe und diese die Entwicklung von Domain Specific Languages sehr einfach macht, entwickle ich derzeit eine solche DSL für die Generierung von RDF-Daten. Das ist schon ziemlich weit fortgeschritten und wird demnächst von mir veröffentlicht.

Soweit erstmal zum Stand der Dinge.

Linked Data Thesaurus

Linked Data Thesaurus ist ein kleines Projekt von mir, das die Daten von openthesaurus.de als Linked Data verfügbar macht. OpenThesaurus ist ein freies deutsches Synonymwörterbuch, welches seine Daten auch über eine offene API zur Verfügung stellt. Allerdings liefert diese API lediglich unverlinkte XML-Dokumente aus. Der Linked Data Thesaurus ergänzt den Dienst, indem die Daten zusätzlich in Form von RDF bereitgestellt werden. Ein Begriff bekommt beim Linked Data Thesaurus eine URI der folgenden Form:

http://thesaurus.datenwissen.de/Begriff#term

Synonyme zum Begriff „Daten“ sind somit unter folgender URI abrufbar:

http://thesaurus.datenwissen.de/Daten#term

Es handelt sich dabei um eine Nicht-Informationsressource. Der Fragmentbezeichner #term wird wie üblich beim Abruf per Browser abgetrennt und die Informationsressource http://thesaurus.datenwissen.de/Daten wird vom Server zurückgeliefert. Abhängig vom HTTP-Accept-Header liefert Linked Data Thesaurus entweder ein RDF/XML- (application/rdf+xml) oder Turtle-Dokument (text/turtle) aus. Im Firefox kann der Accept Header mit dem Plugin Modify Headers geändert werden. Andernfalls werden die originalen XML-Daten der OpenThesaurus-API zurückgeliefert! Im Folgenden erkläre ich den Aufbau der Daten anhand des Turtle-Formats und dem Begriff „Daten“. Der Begriff selbst ist vom Typ Label aus der SKOS-XL Ontologie. Das eigentliche Textliteral wird inklusive Sprachangabe über das Attribut skosxl:literalForm angefügt:

<Daten#term>
  a <http://www.w3.org/2008/05/skos-xl#Label>;
  <http://www.w3.org/2008/05/skos-xl#literalForm> "Daten"@de.

OpenThesaurus gruppiert Synonyme in sogenannten SynSets. Dabei handelt es sich um Gruppen von Begriffen mit der gleichen Bedeutung. Ein Begriff mit mehreren Bedeutungen kommt somit in unterschiedlichen SynSets vor, mit jeweils unterschiedlichen Synonymen die den jeweiligen Bedeutungen entsprechen. Zum Beispiel ist das Wort Schild zum einen in einem SynSet mit „Schutzwaffe“ und in einem anderen mit „Zeichen“.

Ein SynSet wird durch den Linked Data Thesaurus als skos:Concept abgebildet. Der abgefragte Begriff wird über das Attribut skosxl:prefLabel angefügt und alle Synonyme über skosxl:altLabel. Hier eines der SynSets in denen der Begriff „Daten“ vorkommt:

<#synset1>
  a <http://www.w3.org/2004/02/skos/core#Concept>;
  <http://www.w3.org/2008/05/skos-xl#altLabel>
    <Informationen#term>,
    <Angaben#term>,
    <Aussagen#term>,
    <Datensammlung#term>,
    <Unterlagen#term>;
  <http://www.w3.org/2008/05/skos-xl#prefLabel>
    <Daten#term>.

Ich freue mich über Feedback zum Linked Data Thesaurus und über die Art und Weise wie die Daten strukturiert sind. Es ist sicherlich noch nicht der Weisheit letzter Schluss, aber ein Anfang. Der OpenThesaurus stellt noch ein paar mehr Daten bereit, die ich gerne noch einbinden möchte und auch eine Verlinkung mit Lexvo.org habe ich bereits im Hinterkopf.

Wer mitarbeiten möchte kann sich gerne an mich wenden, oder einfach den Quellcode von GitHub beziehen und loslegen.

Neues Blog über Linked Data und verwandte Themen

Ab sofort blogge ich unter datenwissen.de über Linked Data und verwandte Themen. Ich habe mich dazu entschlossen, diesen Themenkomplex aus meinem ersten Blog auszugliedern, da ich mich dort hauptsächlich mit politischen Themen befasse. Eher technisch angehauchte Artikel gehen dort leicht unter und wurden zum Teil als störend empfunden.

Die Grenze lässt sich allerdings nicht so leicht ziehen, wie dies auf den ersten Blick scheint. Linked Data, das Semantische Web und natürlich das Thema Open Data haben eine beachtenswerte politische Dimension. Deshalb wird es sicher auch zu Überschneidungen und einigen Referenzen zwischen den Blogs kommen.

Mit dem Blog verfolge ich das Ziel, das Thema Linked Data in der deutschen Blogosphäre bekannter zu machen. Es gibt leider noch sehr wenige deutsche Infos zu dem Thema. Neben eher theoretischen Artikeln werde ich hier auch Projekte beschreiben, an denen ich arbeite.

Ich bin gespannt wie sich dieses Blog entwickelt und freue mich über Rückmeldungen. Alle alten Artikel zum Thema Linked Data habe ich bereits von kontroversen.de hierher kopiert. Als Einstieg in die sehr interessante Thematik empfehle ich neben diesen vor allem meinen Beitrag „Warum wir Daten verlinken müssen“.

Du bist nicht deine Website

Auf die Grundprinzipien von Linked Data bin ich bereits eingegangen. Auch einen kurzen Ausflug ins „Web of Data“ haben wir schon gewagt. Nun möchte ich die unterschiedlichen Arten von Ressourcen näher vorstellen. Das Datenweb ist mehr als ein Web aus Dokumenten. Wir können alle möglichen Dinge über URIs identifizieren und Daten über sie abrufbar machen.

Die W3C Technical Architecture Group unterscheidet zwischen Informations- und Nicht-Informationsressourcen. Im WWW ist diese Unterscheidung von untergeordneter Bedeutung, da es quasi nur Informationsressourcen gibt. Darunter fallen nämlich alle Arten von Dokumenten und das WWW ist nunmal ein Web aus Dokumenten. Im Datenweb kommen abstrakte und konkrete „Dinge“ hinzu, die ebenfalls über eine URI identifiziert werden wollen. Dabei handelt es sich dann um Nicht-Informationsressourcen. Denn die Ressourcen sind in diesem Fall keine Informationen, sondern z.B. Personen, Orte, Bücher, Produkte etc.

Die Unterscheidung zwischen Informations und Nicht-Informationsressourcen ist dabei weniger trivial, als auf den ersten Blick scheint. Ein oft gemachter Fehler ist es, die Beschreibung einer Ressource mit der Ressource selbst gleich zu setzen.

Wir wissen dass gemäß der Linked Data Grundprinzipien beim Abruf der ein Ding identizifierenden URI „nützliche Informationen“ bereitgestellt werden müssen. Dazu liefert z.B. ein Webserver ein RDF-Dokument aus. Ich möchte das kurz am Beispiel meiner eigenen FOAF-Datei demonstrieren. Ich (ja tatsächlich ich, nicht die Datei!) werde durch folgende URI im Datenweb identifiziert:

http://data.kontroversen.de/foaf.rdf#me

Beim Abruf mit einem Browser (Egal ob Web- oder Datenbrowser) wird folgende Datei ausgeliefert:

http://data.kontroversen.de/foaf.rdf

Diese Datei ist ein RDF-Dokument, welches Informationen über mich (d.h. die Ressource http://data.kontroversen.de/foaf.rdf#me) enthält. Die Datei und ich sind jedoch zwei völlig unterschiedliche Dinge (Weshalb ich im übrigen auch eine andere URI als die Datei habe). Die Datei ist eine Informationressource identifiziert durch die URI http://data.kontroversen.de/foaf.rdf. Ich bin eine Nicht-Informationsressource identifziert durch http://data.kontroversen.de/foaf.rdf#me.

Einmal verstanden erscheint dies selbstverständlich, führt jedoch anfangs oft zu Verwirrungen und paradoxen RDF-Dokumenten. So hat zum Beispiel die New York Times (erfreulicherweise!) beachtliche Datenbestände als Linked Data verfügbar gemacht. Anfangs wurden dabei jedoch typische Fehler gemacht, die aus der Verwechslung von Informations- und Nicht-Informationsressourcen herrühren.

Die URI http://data.nytimes.com/N31738445835662083893 identifiziert den Schauspieler Paul Newman. Über diese Person finden sich in dem Datensatz leider kaum Informationen, nützlich ist hauptsächlich der Verweis auf die DBpedia. Das ist jedoch nicht wirklich schlimm. Problematisch war eine Zeit lang (mittlerweile wurde es zum Glück korrigiert) die Vermischung von Daten und Metadaten: Was zum Beispiel sagt das Prädikat „dc:creator“ in Bezug auf eine Person aus? Heitere Zeigenossen möchten dort vielleicht die Eltern der Person eintragen, oder Gott, wenn sie gläubig sind. Ganz sicher ist jedoch nicht „The New York Times Company“ der „Ersteller“ von Paul Newman.

Die New York Times hatte die Nicht-Informationsressource „Paul Newman“ mit der Informationsressource verwechselt die ihn beschreibt. Was sie eigentlich ausdrücken wollten ist, dass „The New York Times Company“ der Ersteller des RDF-Dokumentes ist. Das RDF-Dokument ist jedoch eine eigene Ressource und bekommt eine eigene URI.

Die New York Times wurde zwischenzeitlich auf den Fehler hingewiesen und hat ihn korrigiert. Die Informationsressource wird nun über http://data.nytimes.com/N31738445835662083893.rdf identifiziert und „dc:creator“ bezieht sich auf diese Ressource und nicht mehr auf Paul Newman selbst.

Ich hoffe ich konnte die Unterscheidung zwischen Informations- und Nicht-Informationsressource einigermaßen verständlich darlegen. Mir hat dabei der Merkspruch „You are not your Website“ sehr geholfen. Denn im „Web of Data“ gibt es nicht nur deine Website, sondern auch dich selbst. Und das sind natürlich zwei völlig unterschiedliche Dinge.

Chancen und Techniken von Linked Data

Instance linkages within the Linking Open Data...
Image via Wikipedia

Meine Studienarbeit zum Thema „Chancen und Techniken von Linked Data“ ist mittlerweile fertig und steht unter CC-Lizenz zum Download (PDF) bereit.

In der Studienarbeit wird das Konzept „Linked Data“ beschrieben. Dabei handelt es sich um ein Thema im Umfeld des semantischen Webs, einer erweiterten Form des World Wide Web, mit der Informationen und deren Bedeutung für Maschinen verwertbar gemacht werden sollen. Kernidee von „Linked Data“ ist es, strukturierte Daten über URIs zugänglich zu machen und untereinander zu verlinken, um so ein „Web aus Daten“ aufzubauen und verwandte Informationen auffindbar zu machen. Die Studienarbeit ordnet „Linked Data“ in das thematische Umfeld des semantischen Webs ein und erörtert den Stand der Technik. Anwendungsgebiete und Chancen werden aufgezeigt. Die Studienarbeit legt darüber hinaus praktische Anwendungsmöglichkeiten für „Linked Data“ dar und bewertet die Zukunftsaussichten.

Eigentlich wollte ich parallel zur Studienarbeit über dieses Thema regelmäßig bloggen. Leider hat mir dazu die Zeit nicht in dem Maße gereicht, wie ich mir das vorgestellt hatte. Wer möchte kann sich natürlich jetzt die komplette Studienarbeit zu Gemüte ziehen, ich werde aber nach und nach wie versprochen noch den ein oder anderen Artikel zum Thema bloggen.

Freue mich trotzdem, wenn jemand auch die Studienarbeit selbst liest und mir dazu Feedback gibt. Hätte mich gerne noch viel intensiver mit dem Thema befasst, aber drei Monate Bearbeitungszeit sind nicht viel. Unabhängig von der Studienarbeit werde ich das Thema aber weiter verfolgen, weil es mich sehr interessiert und ich viel Potential in Linked Data sehe.

Reblog this post [with Zemanta]

RDF – Die Sprache des Web of Data

Nach unserem kurzen Ausflug ins Web of Data, wollen wir nun die Sprache näher betrachten, die diese Daten beschreibt. Was HTML im „normalen“ Web ist, ist hier RDF. RDF beschreibt Ressourcen und steht deshalb – oh Wunder – für Resource Description Framework.

Wir erinnern uns: Im Datenweb gibt es nicht nur Dokumente, sondern alle möglichen Dinge über die wir Daten hinterlegen können, z.B. Städte, Personen, Medikamente, Bücher, Ereignisse, … Diese Dinge nennt man im Datenweb Ressourcen. Die Grammatik von RDF ist einfach: Eine Ressource beschreibt man in der Form Subjekt – Prädikat – Objekt. Dieses Dreigespann heißt RDF-Tripel. Subjekt ist die Ressource, die beschrieben wird, Prädikat ist die Aussage die wir über diese Ressource treffen und Objekt ist der Wert oder Gegenstand dieser Aussage.

Wir können zum Beispiel sagen „Angelo Veltens interessiert sich für Linked Data“ Ich bin in diesem Fall das Subjekt, also die Ressource die wir beschreiben, „interessiert sich“ ist Prädikat und „Linked Data“ das Objekt. Soweit ist es erstmal ein gewöhnlicher deutscher Satz. In RDF-XML sieht der gleiche Sachverhalt folgendermaßen aus:

<rdf:RDF
  xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
  xmlns:foaf="http://xmlns.com/foaf/0.1/">

  <foaf:Person rdf:about="http://data.kontroversen.de/foaf.rdf#me">
    <foaf:interest rdf:resource="http://dbpedia.org/resource/Linked_Data"/>
  </foaf:Person>
</rdf:RDF>

http://data.kontroversen.de/foaf.rdf#me ist die URI die mich identifiziert und das Subjekt dieser Aussage. Durch die Verwendung des Tags <foaf:Person> wird zusätzlich noch ausgedrückt, dass die beschriebene Ressource vom Typ foaf:Person ist. Das Tag <foaf:interest> ist ein Prädikat, welches Interesse an einem Themengebiet formal beschreibt. Das Attribut rdf:resource verweist auf das Objekt dieser Aussage. Ich habe hier einen Link in die Dbpedia genutzt um das Themengebiet Linked Data zu identifizieren.

Achtung: RDF ist nicht das selbe wie RDF-XML! XML ist lediglich eine Darstellungsform von RDF. Andere Darstellungsformen sind Notation 3 (N3) oder ein RDF-Graph. In Notation 3 sieht unser Beispiel folgendermaßen aus:

@prefix foaf: <http://xmlns.com/foaf/0.1/>
<http://data.kontroversen.de/foaf.rdf#me>
  foaf:interest
    <http://dbpedia.org/resource/Linked_Data>.

Und hier als RDF-Graph:

simple_rdf_graph

Die eigentliche Herausforderung beim Beschreiben von Ressourcen mittels RDF liegt nicht in der Grammatik, die wie ihr seht wirklich mehr als einfach ist, sondern bei der Wahl und ggf. Neudefinition von Vokabularen, auch Ontologien genannt. Auf einige dieser Ontologien, z.B. das in diesem Beispiel verwendeten FOAF, werde ich in kommenden Artikeln näher eingehen. Zur Definition von Ontologien haben sich zwei Sprachen etabliert: Die Web Ontology Language (kurz OWL) und RDF-Schema. Auch der Eigendefinition von Vokabularen werde ich noch einen Beitrag widmen. Allerdings sollte man damit sehr sparsam umgehen und nach Möglichkeit eine bestehende Ontologie wiederverwerten oder bei Bedarf ergänzen, damit wir ihm Datenweb nicht enden wie beim Turmbau zu Babel und niemand mehr den anderen versteht.

Weiterführende Links:

Data-Browsing – Ein kurzer Ausflug ins Web of Data

Wie versprochen, werden wir das Thema Linked Data nun etwas praktischer angehen. Wenn man mal selbst durch das Datenweb gesurft ist, versteht man viel eher worum es eigentlich geht. Wir brauchen:

  1. Einen Datenbrowser
  2. Einen Einstiegspunkt
  3. Neugier

Es gibt gibt schon einige Datenbrowser, allerdings scheinen die mehr Proof-of-Concept zu sein, als nutzbare Tools. Ich persönlich komme aktuell immer noch am besten mit Tabulator zurecht, obwohl der nicht sonderlich intuitiv zu bedienen ist. Das schöne an Tabulator ist aber, dass es dafür ein Firefox-Addon gibt, das schnell installiert ist. Außerdem lädt Tabulator automatisch „sameAs-Links“ nach, d.h. Daten die unter einer anderen URI verfügbar sind, aber das gleiche Objekt beschreiben werden gleich mitgeladen. Ich werde unsere kleine Erkundungstour durch das Datenweb anhand von Tabulator beschreiben. Wer erstmal nichts installieren mag, kann aber auch einen der Online-Browser verwenden, z.B. den OpenLink Data Explorer, Disco oder Marbles.

Teilweise geht es sogar ganz ohne Datenbrowser, nämlich dann wenn die Datenquellen ihre Daten auch gleich in einer HTML-Variante bereitstellen. Das ist zum Beispiel bei dbpedia.org der Fall. DBpedia ist das Abbild der Wikipedia im Web of Data. Das Projekt liest systematisch Daten aus der Wikipedia aus und veröffentlicht sie als RDF. Unter der URI http://dbpedia.org/resource/Karlsruhe finden sich zum Beispiel Daten zur Stadt Karlsruhe. Ruft man diese URI mit einem normalen Web-Browser ab, werden die Daten als HTML-Dokument angezeigt. Das passiert sogar, wenn man die Tabulator-Erweiterung installiert hat, weil Firefox immer noch primär ein HTML-Browser ist. Wie man das ändern kann erkläre ich in einem späteren Artikel (Tipp für Neugierige: Spielt mal mit Modify Headers am Accept-Header herum). Für den Moment reicht es, explizit die URI http://dbpedia.org/data/Karlsruhe abzurufen, um an die Rohdaten zu kommen [1]. Wir erfahren so tolle Sachen wie die Einwohnerzahl, die Telefonvorwahl und das Bundesland.

Mit Linked Data hat das alles aber noch recht wenig zu tun. Aufgrund der Informationsfülle wird zwar sehr gerne in die DBpedia hinein verlinkt, aber nur sehr wenige Links führen wieder hinaus. Wir suchen uns deshalb einen anderen Startpunkt, am besten von jemandem der sich auskennt: Tim Berners-Lee. Ja, klickt ruhig auf den Link, er führt direkt zu Daten über die Person Tim Berners-Lee, mitsamt einer ganzen Menge Links zu weiterführenden Daten, irgendwo in den Weiten des Webs. Wir erfahren zum Beispiel, dass er der Organisation „World Wide Web Consortium“ angehört und wenn ihr auf den kleinen grauen Pfeil daneben klickt, klappen zusätzliche Infos zu dieser Organisation aus. Wir erfahren auch, dass Berners-Lee der Autor von „Weaving the Web“ ist. Wenn man Shift gedrückt hält, wenn man auf den Pfeil klickt, werden die Daten zu diesem Buch im kompletten Browser-Tab geladen, statt nur ausgeklappt.

Leider stoßen wir dann schon recht schnell an die Grenzen des Datenwebs. Zum Beispiel wird der Verlag des Buches (Harper Paperbacks) zwar genannt, aber nicht verlinkt. Wir können also keine weiteren Daten zum Verlag abrufen. Es liegt an uns allen, diese Grenzen zu sprengen, so wie wir schon das WWW groß gemacht haben und täglich vergrößern. Aber schaut euch einfach mal ein bisschen um, es gibt schon einiges zu entdecken. Unter http://data.kontroversen.de/foaf.rdf#me habe ich auch ein paar Daten über mich online gestellt und mit meinem Identi.ca- sowie Twitter-Account verknüpft. (Ja, dem Thema Datenschutz und informationelle Selbstbestimmung in Bezug zu Linked Data werde ich auch noch einen Beitrag widmen)

So, ich denke das genügt erstmal als kleines, anschauliches Praxisbeispiel bzw. als Startpunkt für eigene Experimente. Bei Fragen und Problemen meldet euch einfach in den Kommentaren.

[1] Genau genommen ist das nicht ganz richtig, denn http://dbpedia.org/data/Karlsruhe verweist auf ein RDF-Dokument mit Daten über die Stadt Karlsruhe, während http://dbpedia.org/resource/Karlsruhe die Stadt selbst identifiziert. Dieser kleine aber feine Unterschied äußert sich auch in der Art wie Tabulator die Daten darstellt.

Alles bekommt eine URI

Im vorherigen Beitrag habe ich einen kurzen Vorgeschmack auf das Thema Linked Data gegeben. Doch was genau hat es damit auf sich? Wie sieht ein „Web of Data“ aus? Lässt es sich mit den heutigen Techniken überhaupt realisieren, oder müssen wir das Internet neu erfinden? Die gute Nachricht lautet: Nein müssen wir nicht. Linked Data beruht im wesentlichen auf 4 einfachen Grundprinzipien, die Tim Berners-Lee 2006 in „Linked Data: Design Issues“ beschrieben hat:

  1. Use URIs as names for things
  2. Use HTTP URIs so that people can look up those names.
  3. When someone looks up a URI, provide useful information, using the standards (RDF, SPARQL)
  4. Include links to other URIs. so that they can discover more things.

Die erste Regel fordert, dass wir alles mögliche über URIs identifizieren können. Es geht nicht mehr nur um Dokumente, wie im WWW. Wir wollen Daten bereitstellen, über Personen, Orte, Gegenstände, Organisationen, Pflanzen, Tiere, Gebäude… Daten über alles Mögliche. All diese Dinge bekommen eine URI.

Weiterhin fordert Regel 2, dass als Protokoll HTTP genutzt wird. Das stellt sicher, dass die URI über das Domain Name System auflösbar ist. Das ist keinesfalls selbstverständlich, es gibt nämlich zahlreiche weitere Typen von URIs, zum Beispiel sind auch tel:+1-816-555-1212 und mailto:John.Doe@example.com gültige URIs. Es gibt sogar URIs für ISBN. Jetzt könnte man auf die Idee kommen, dass doch letztere eine wunderbare Möglichkeit wären um Bücher im „Web of Data“ eindeutig zu identifizieren. Nur dummerweise haben solche URIs die Eigenschaft, dass sie eben nicht auflösbar sind, das heißt ich kann damit nichts im Web abrufen.

Genau das erfordert aber die dritte Regel. Hinter unserer URI müssen sich nützliche, standardisierte Informationen verbergen. Zum Beispiel könnte ein Webserver unter dieser URI ein XML-Dokument ausliefern, welches RDF-Daten enthält. RDF ist ein Standard zur Beschreibung von Informationen, sodass diese leicht automatisiert verarbeitet und ausgewertet werden können. Ich werde auf RDF noch genauer in einem späteren Artikel eingehen.

Die vierte und letzte Regel verknüpft unsere Daten miteinander: Die Informationen die wir ausliefern stehen nicht für sich alleine, sondern enthalten selbst wieder URIs und verweisen so auf weiterführende Informationen. Man stelle sich zum Beispiel vor, dass unter einer URI Daten über ein Buch abrufbar sind. Wir erhalten dann zum Beispiel die Information, wieviele Seiten das Buch hat und wann es erschienen ist. Aber anstatt nur den Namen des Autors, enthalten die Daten eine URI, die den Autor selbst identifiziert! Wenn wir diesem Link dann folgen, erhalten wir Informationen über den Autor, zum Beispiel sein Geburtsjahr und Links zu weiteren Büchern die er veröffentlicht hat. Diesen Links können wir wiederum folgen und so das „Web of Data“ erkunden.

Das wars! Vier einfache Grundprinzipien, so einfach wie genial! Praktische Beispiele und nähere Details wie man selbst Linked Data im Web veröffentlichen kann folgen demnächst.