Mikrofortschritte

Kampf gegen W3C–Windmühlen

In den letzten Wochen gab es ein großes Thema in der internationalen Webdesigner-Community: Björn Höhrmann schreibt auf einer W3C-Mailingliste einen Abschiedsbrief, mit dem er sich aus W3C-Arbeitsgruppe für Qualitätssicherung zurückzieht. Ein Schwerpunkt dieser Arbeitsgruppe liegt auf der Entwicklung des bekannten Markup Validators.

Björn Höhrmann äußert eine vernichtende Kritik an den W3C-internen Abläufen, er sieht sich ausgebremst durch die mangelnde Zusammenarbeit. Insbesondere gehe die HTML-Arbeitsgruppe nicht auf Bitten, Ratschläge und Kritik anderer W3C-Mitarbeiter ein. Diese Situation ist nicht neu: Björn Höhrmann bringt sich schon seit Jahren mit bewundernswerter Hartnäckigkeit und pragmatischem Sachverstand in die W3C-Mailing-Listen ein. Er biss dabei immer wieder auf Granit, wurde ignoriert oder mit unzureichenden Antworten auf seine durchdachten Einreichungen abspeist. Ähnlich geht es anderen, die sich konstruktiv an der Arbeit des W3Cs beteiligen wollen.

Bruch zwischen dem W3C und der Community

Als Herausgeber der Kern-Webtechniken ist das W3C für Webentwickler die erste Referenzadresse – umgekehrt sind die Webentwickler die primäre Zielgruppe des W3Cs. Dem Webentwickler als Nutzer der Webtechniken kommt die Rolle zu, die Einhaltung der Spezifikationen zu fordern, um deren Möglichkeiten ausreizen zu können. Geschichtlich hat diese Aufgabe das Web Standards Project (WaSP) eingenommen, das als Lobby-Organisation der Webworker den Browserherstellern auf die Füße tritt. So gesehen wurde das WaSP zum praktische Arm des W3C, oder in gewisser Weise auch deren ausgelagerte Öffentlichkeitsabteilung – das W3C gibt die Standards heraus, das WaSP bewirbt und verkauft sie. Erst durch diese Fürsprecher konnten das W3C und deren Techniken in der Gemeinde der Webworker Fuß fassen.

Traditionell ist ein Webstandards-Verfechter auch ein überzeugter W3C-Anhänger – zumindest grundsätzlich. In der letzten Zeit erleidet diese Eintracht und Symbiose Rückschläge. Björn Höhrmanns W3C-Kritik aus den eigenen Reihen bekam eine neue Qualität, als sich einer der bekanntesten Protagonisten der Webstandards-Bewegung mit ihm solidarisierte und seine Kritik mit Schärfe weiterführte: Jeffrey Zeldman konstatiert in seinem Blog-Beitrag An angry Fix eine tatsächliche Trennung zwischen dem W3C und der Webentwickler-Community: we and our practical concerns never drove the organization.

Das W3C sei demnach eine geschlossene Organisation, die sich nicht an den praktischen Bedürfnissen und Erfahrungen ihrer Klientel orientiert. Das Konsortium gehe grundlegend falsch vor: Es gehe nicht von den Wünschen der Webautoren aus, sondern setze ihnen fast fertige Techniken vor, die sie dann kommentieren dürfen. Die Zusammenarbeit zwischen den Entwicklern und den engagierten Nutzern der Spezifikationen verlaufe tatsächlich nur einseitig, die Kommunikation laufe nur in eine Richtung:

But after ordinary designers and developers spent nearly a decade selling web standards to browser makers and developing best practices around accessibility and semantics, one hoped the W3C might realize that there was value in occasionally consulting its user base.

Stagnation beim W3C?

In der Kritik steht vor allem, dass in den Bereichen HTML und CSS wenig passiert oder die Entwicklung in eine falsche Richtung verläuft.

Im Bereich (X)HTML arbeiten wir mit den Elementen und Attributen der HTML-4-Spezifikation aus dem Jahr 1999. Diese Spezifikation wird nicht weiterentwickelt und XHTML 1.x stülpt der alten Technik nur eine XML-Syntax auf. Seit vielen Jahren läuft bereits die Arbeit an XHTML 2, einer XML-Sprache, die im Gegensatz zu XHTML 1 nicht mit heutigen HTML-Browsern kompatibel ist. XHTML 2 sei eine praxisferne Ausgeburt des »Wolkenkuckuckskonsortiums«, so die Kritiker. Während der Elementumfang selbst eine Reduzierung auf das Wesentliche ist, wurden die spannenden Funktionen in andere XML-Sprachen ausgelagert, insbesondere XForms, welches für jegliche Web-Formulare zuständig sein wird. XForms ist dafür ebenso fähig und umfangreich wie kompliziert und unverständlich.

Im Bereich CSS sitzen wir zwar auch auf einer Spezifikation aus dem Jahr 1998, aber seit langem wird an einer fehlerbereinigten Version gearbeitet, die den CSS-2-Standard an die Realität anpasst. Die Browserentwickler orientieren sich bereits an CSS 2.1 – und auch Webentwickler sollten CSS 2.1 verwenden. Leider befindet sich diese Spezifikation seit langem in der Entwurfsphase – wann sie endlich eine stabile (Candidate) Recommendation wird, ist realistisch betrachtet unklar.

CSS 2.1 verbannt zunächst alle Teiltechniken, die die gegenwärtigen Browser sowieso nicht oder grob fehlerhaft umsetzen. CSS 2.1 soll also nicht innovativ sein – die Weiterentwicklung findet bei CSS Level 3 statt. CSS 3 ist ein Mammutprojekt von über 30 zusammenhängenden Einzelspezifikationen, sogenannten Modulen. Diese reifen nur sehr langsam heran und befinden sich größtenteils in der Entwurfsphase. Die Browserhersteller picken sich momentan lediglich einige Rosinen heraus und setzen kleine Teile der Entwürfe um.

Es gibt noch weitere Bereiche, in denen Unzufriedenheit mit der Arbeit des W3Cs herrscht. Eine unendliche Geschichte ist die Debatte um die zweite Version der Zugänglichkeitsrichtlinien für Web-Inhalte. Aber auch im Bereich dynamische Webanwendungen hinkt das W3C hinterher, anstatt neue Maßstäbe zu setzen.

»Standards« jenseits des W3C

Momentan scheint das W3C mit jedem Tag ein weiteres Stück seiner Autorität zu verlieren. Faktisch wird das Web maßgeblich ohne das Konsortium weiterentwickelt. Jenseits der bürokratischen Mühlen funktioniert die Erarbeitung von Spezifikationen offenbar ebenso gut oder sogar besser. Der Siegeszug von XMLHttpRequest und die Irrelevanz der gänzlich unbekannten W3C-Spezifikation DOM 3 Load & Save hat gezeigt, dass erfolgreiche Quasi-Standards die klassische Sicht auf »Webstandards« in Frage stellen.

Insbesondere zwei Projekte werden als Konkurrenten zum W3C-Entwicklungsmodell gesehen.

Mit der Web Hypertext Application Technology Working Group (WHATWG) bildete sich im Juni 2004 ein kleines, alternatives Gremium. Die WHATWG hat den Anspruch, von den Bedürfnisse der Webentwickler auszugehen. Inhaltlich knüpft sie an den AJAX– und Web-2.0-Trend an (»the Web as a platform«), indem sie ihren Arbeitsschwerpunkt auf hochdynamische Webanwendungen legt. Tim Tepaße stellt die WHATWG vor und führt in ihre Spezifikation Web Applications 1.0 (»HTML 5«) ein.

Einen gänzlich anderen Ansatz verfolgt das Microformats-Projekt. Über die Weiterentwicklung von HTML im Großen macht man sich dort keine Gedanken. Stattdessen erfindet man im Kleinen neue Formate zur Textauszeichnung, die in normale HTML-Dokumente eingebettet werden. Diese Formate nutzen einfache HTML-Listen sowie div- und span–Gebilde zusammen mit bedeutungsvollen Klassennamen (»we do it with class«). Auf diese Weise werden Visitenkarten, Termine, Lebensläufe, soziale Beziehungen, Urheberrechtsangaben, Weblog-Beiträge und andere häufige Datenstrukturen menschen– und maschinenlesbar ausgezeichnet. Das Ziel ist ein »Semantisches Web«, jedoch mit einer pragmatischeren Herangehensweise als die abstrakten und universellen Konzepte des W3Cs. Microformats-Anhänger nennen diesen Denkansatz im Englischen kleingeschriebenes »semantic web« im Gegensatz zu dem »Semantic Web« des W3Cs (bestehend aus RDF und OWL), das wie ein fester Begriff großgeschrieben wird.

Vergleich der Ansätze zur Web-Erneuerung

Folgende Tabelle soll die drei Ansätze pointiert gegenüberstellen:

Die Zukunft von HTML: Die Konzepte des W3C, der WHATWG und des Microformats-Projektes
Gremium/Projekte W3C WHATWG Microformats
Unterstützung unterstützt von zahlreichen Firmen und Organisationen unterstützt von Apple, Mozilla, Opera, Google unterstützt von Technorati
Techniken XHTML 2, XML Events, XForms, XFrames, ferner RDF und DOM Web Applications 1.0 (»(X)HTML 5«), darunter Canvas, Web Forms 2.0 hCard, hCalendar, hReview, hAtom, hResume, XFN, rel-license, rel-tag, VoteLinks usw.
Arbeitsfelder Web-Auszeichnungssprachen, Scriptlogik, Web-Formulare, parallele Präsentation mehrerer Dokumente, Metadaten, Semantisches Web Web-Auszeichnungssprachen, clientseitige Dynamik in Webanwendungen, JavaScript/DOM, Web-Formulare Definition neuer Formate mittels (X)HTML zur semantischen Auszeichnung von Datenstrukturen, Semantisches Web
Umgang mit bestehenden Techniken Reform der bestehenden Techniken, sodass die jetzigen Spezifikationen obsolet werden. Bruch mit der (X)HTML-Tradition, allerdings werden die meisten Features unter neuen Vorzeichen übernommen Bestehende Techniken werden in eine neue Spezifikation übernommen, verbessert und ergänzt (»incremental improvement«). Die tatsächlichen Implementationen und proprietären Techniken werden spezifiziert. Die bestehenden Spezifikationen bleiben unangetastet Die bestehenden Techniken werden als erprobte Standards akzeptiert und nicht angetastet. Sie werden im Rahmen ihrer eigenen Möglichkeiten erweitert (»evolutionary«)
Abwärtskompatibilität bewusst nicht abwärtskompatibel teilweise abwärtskompatibel komplett abwärtskompatibel
Ziel, Orientierung und Blickwinkel Grundsteine für ein zukünftiges Web legen, eher orientiert an dem Wünschenswerten (»create a future web«), eine breite Basis an Möglichkeiten schaffen Orientierung an konkreten und zum Teil speziellen Erfordernissen der Praxis, das Web als Plattform für Anwendungen Praxisorientiert und sehr speziell: Strukturierung von speziellen Daten, die in Webdokumenten häufig vorkommen
Aufbau und Zusammenarbeit mit anderen Techniken Einbettung in ein großes Framework von W3C-Techniken. Modularisierung und Erweiterbarkeit in diesem Rahmen Lose zusammenhängende Sammlung von Erweiterungen mit einigen autonomen Teilen kleine, beschränkte, autonome (X)HTML-Unterformate
Definition neuer Dokumenttypen und Validität Schaffung komplett neuer Dokumenttypen und Definition dieser mit formalen Grammatiken. Dokumente können valide sein Nicht W3C-valide Dokumente. Neue Pseudo-Sprache »(X)HTML 5«, aber bisher keine Definition eigener formalen Grammatiken W3C-valide Dokumente. Keine neuen Dokumenttypen oder (X)HTML-»Versionen«

Ausblick – Standardisierung im »Web 2.0«

Die drei Gruppen scheinen an verschiedenen Baustellen zu arbeiten – sie unterscheiden sich zum Teil grundlegend in ihren Sichtweisen und Methoden. Weder die WHATWG noch die Mikroformate wollen dem W3C den Rang ablaufen oder arbeiten an einem Ersatz für die bisherigen W3C-Techniken. Trotzdem können sie wegen ihrer Arbeitsmethoden als Konkurrenten gesehen werden: Sie stehen für ein offenes Entwicklungsmodell, das auf freie, spontane und zweckmäßige Zusammenschlüsse zwischen Experten und Firmen setzt und damit rechnet, dass sich praxisnahe Techniken ohne Formalitäten als Quasi-Standards durchsetzen.

Die bisherigen Initiativen sorgen für Spannung und der Kampf um und für »Webstandards« hat durch sie eine neue Qualität bekommen. Wenn sie sich als erfolgreich erweisen, ist zu vermuten, dass dezentrale, Community-basierte Entwicklungsmodelle in Zukunft stärker die Webtechniken beeinflussen werden. Dies bedeutet nicht notwendigerweise einen Rückfall in die dunkle Ära der Browserkriege, in der jeder Browser eine andere Technik für denselben Zweck implementierte. Die neuen, ad hoc entstehenden Standards sind keine klassischen proprietären Entwicklungen.

Ist das Konzept des W3Cs gar überholt? Was Jeffrey Zeldman am momentanen Selbstverständnis des W3Cs kritisiert, hört sich wie eine Forderung nach einer »Architektur der Partizipation« an, die Tim O’Reilly einst für »Web 2.0« erklärt hat. Die Wut der Webnutzer entlädt sich, sie lehnen sich gegen die abgeschottete Führung auf und fordern zurecht eine Repräsentation ein. Früher oder später ist das W3C gezwungen, seine verkrusteten Strukturen zu ändern, ansonsten nehmen seine »Kunden« das Web selbst in die Hand. Die jüngsten Formen der Selbstorganisation demonstrieren dies.

Verweise

7 Kommentare » Schreibe einen Kommentar

  1. Einen sehr informativen Weblog-Eintrag, in welchem er sich zunächst auf die Unzulänglichkeiten der urplötzlichen Einstufung als »Candidate Recommendation« von SVG Tiny 1.2 bezieht, um anschließend die Rolle des W3C, die Qualität der Spezifikationen und die Wünsche der Browserhersteller zu beleuchten, schrieb David Baron: »More W3C Controversy«.

  2. Ich habe (als Akademiker ;-) ) eher weniger Berührungsängste mit dem W3C und ihren Spezifikationen: Natürlich ist der ganze „Laden“ sehr akademisch ausgerichtet (man muss sich dabei überlegen, wo Tim Berners-Lee herstammt) und SELFHTML zeigt, dass man selbst notwendige Formalismen allgemein verständlich beschreiben kann, aber das W3C „arbeitet“ nicht nur für Menschen, sondern auch „für Maschinen“. Dieser riesige Apparat, der auf XML aufbaut (XHTML, SVG, RDF, XSD, …) bedeutet eine anfangs steilere Lernkurve, aber dafür lassen sich später viele Dinge sehr einfach handhaben.

    Ich verstehe beispielsweise die geäußerte Kritik an XForms nicht vollständig. Natürlich ist es im Vergleich zu Formularen in HTML ein „Overkill“, aber dafür im Sinne des MVC–Prinzips nur logisch und inhaltlich sinnvoll. Und ich denke, dass vom Umfang und den Möglichkeiten her XForms viel besser für „Web Applications“ geeignet ist, als HTML (Version 5) aufzubohren.

    An dieser Stelle sei die Frage erlaubt, wem im Zeitalter von SVG und SMIL mit einem ominösen <canvas>–Element gedient ist, welches man darüber hinaus mit JavaScript programmiert?

    Entgegen der angeklungenen Kritik an XHTML 2 halte ich das, was man beim W3C bislang als Entwurf begutachten kann, als den großen Wurf für (X)HTML: Einerseits geht man von den Elementen (und den Aufgaben von HTML) her „back to the roots“, andererseits gibt es neue Elemente, die das Schreiben semantischen und logischen Codes konsequent unterstützen (beispielsweise <nl> und die Schachtelung der Überschriften). Man hat sich anscheinend (glücklicherweise) bei DocBook XML bedient. Allerdings muss man dem W3C insofern Inkonsequenz vorwerfen, als dass man auf XLink in XHTML 2 zu Gunsten von href und src verzichten wird.

    Abschließend schließe ich mich der Forderung nach offeneren, demokratischeren Strukturen beim W3C an. Es ist natürlich praktisch, sinnvoll und notwendig, dass dieses Konsortium aus den „betroffenen“ Software-Unternehmen besteht, allerdings werden die Standards auch für uns Normalbürger entworfen, insofern wäre eine Bürgerbeteiligung (die HTML– und HTTP-Ursprünge sind recht demokratisch) mehr als sinnvoll.

  3. Hallo Mathias,

    mir war schon klar das Du die Seite gelesen hast ;-) , nur finde ich diese ganze Spalterei nicht so schön. wie Du selbst schreibst:
    „Die Annahme der Spec war ein Schachzug von Außenstehenden, um die gespaltenen Lager wieder zusammenzubringen„
    was ist daran denn schlecht ?
    natürlich gibt es innerhalb des W3C kontroverse Meinungen und entsprechende Diskusionen, so ist das nun mal wenn sich unterschiedliche Interressngruppen an eine Tisch setzen, das ist mir aber lieber, als wenn es unterschiedliche
    Konsortien gibt die sich dann womöglich wiedersprechen.
    Ich beziehe mich haupsächlich auf die CDF WG ( http://www.w3.org/2004/CDF/ ) , in der einige Mitglieder der WHATWG sitzen , hier findet eine wirkliche Zusammenarbeit statt… hoffe ich zumindest :-)
    ich muss zugeben das ich mich bisher nicht mit WebForms 2.0 beschäftigt habe, da ich XForms eigentlich sehr gut finde. sollte auch hier eine engere Zusammenarbeit der beiden Gruppen stattfinden, würde ich das dennoch sehr begrüssen.

    Gruss
    Holger

  4. Holger,

    ich habe die Seite gelesen, darauf kannst du dich verlassen.

    Ja, die WHATWG hat z.B. Web Forms bereits dem W3C übermittelt und das W3C hat die Spezifikation auch als Member Submission wiederveröffentlicht. Aber was hat das W3C geantwortet? Ungefähr: Das ist alles schön und gut, aber wir haben schon vor Jahren ein solches Konzept verworfen. Wir verfolgen weiter unser Konzept mit XForms. Wenn ihr uns zuarbeiten wollt, dann beteiligt euch doch bitte an XForms.

    Klar, beide Parteien reden vom Streben nach engerer Zusammenarbeit. Meiner Meinung nach ist das eher eine Formsache. Tatsächlich zeigt die ziemlich kalte Zurückweisung von Web Forms, dass das W3C sein eigenes Ding durchziehen will und Web Forms tatsächlich als Konkurrenten ansieht.

    Im Übrigen waren es gar nicht die für XForms zuständigen Leute beim W3C, die die Spezifikation als Member Submission angenommen haben. Deshalb blieb selbst im Kommentar der Appell an beide Seiten: The W3C Team strongly recommend that future work in this area should be in collaboration with the HTML and XForms Working Groups. Die Annahme der Spec war ein Schachzug von Außenstehenden, um die gespaltenen Lager wieder zusammenzubringen: [W]e felt it was best to acknowledge the Submission in order to promote the development of a single community for improving forms on the Web. WHATWG und diese Arbeitsgruppen sind aber meinem Eindruck nach weiterhin zerstritten.

    Im Übrigen habe ich nicht bloß behauptet, dass die WHATWG als Konkurrent zum W3C zu verstehen sei. Ich habe kontrovers diskutiert, inwiefern das zutreffen mag und inwiefern nicht.

    Nachtrag: Web Forms 2.0 wurde als W3C-Arbeitsentwurf veröffentlicht

  5. hallo

    wirklich interresant, aber vielleicht sollte man die Seiten die man verlinkt auch lesen,
    Zitat aus dem Artikel:

    Insbesondere zwei Projekte werden als Konkurrenten zum W3C-Entwicklungsmodell gesehen.“

    und dazu der letzte Absatz auf der Startseite der WHATWG:

    Many of the members of this working group are active supporters and members of the W3C and other standardization bodies. Parts of the work have already been submitted to the W3C, and we intend to work more closely with the W3C in future. The technical work is currently focused on developing the specifications to levels appropriate for the W3C Last Call stage…“

    also für mich höhrt es sich so an als sei die WHATWG gar kein Konkurrent des W3C.

  6. Erst mal Danke für diesen hervorragenden Eintrag in unserem Weblog!

    Das Thema ist allerdings nicht so neu, wie es scheint. Seit das W3C „spezifiziert“, gab und gibt es Stimmen, die vor zu viel Overhead und Verkomplizierung warnen. Ich selber habe ja auch schon immer gern in diese Kerbe gehauen (z.B. in Inflation und Orientierung), weil ich der Ansicht bin, dass Webworker praxisnahe, klare und verständliche Richtlinien benötigen. Akademische Universalkonzepte für Datenverarbeitung sind dagegen zwar ein interessantes Feld für Informatiker, doch sollten solche Konzepte und ihr Entstehungsprozess von dem für die Praxis maßgeblichen Regelkanon abgelöst werden.

    Die kritischen und warnenden Stimmen waren in den letzten Jahren allerdings etwas verstummt, weil ein allgemeines „Hurra, der Browserkrieg ist vorbei — jetzt halten wir uns endlich alle an die W3C-Standards“ durch die Szene schwabbte, und weil man sofort niedergemacht wurde, wenn man auch nur den Anflug einer Kritik an den heiligen TRs übte.

    Ob „Alternativanbieter“ wie WHATWG oder Microformats tatsächlich zu einer Lösung beitragen können, darüber bin ich mir unschlüssig. Je ernster sie genommen werden, desto weiter verkomplizieren sie die Angelegenheit vielleicht nur.

    Es war doch so: am Anfang entwickelte Berners-Lee sein Web, das vom gedanklichen Ansatz her übrigens am ehesten dem entsprach, was heute von einer speziellen Form von Web-Anwendungen geleistet wird: nämlich von den Wikis. Dann kam Netscape und bügelte die Ideen von Berners-Lee bis auf ein paar HTML-Tags, das URI-Schema und ein paar HTTP-Basics nieder. Netscape erfand nicht nur munter HTML-Tags, sondern sorgte auch dafür, dass das Web eine Ansammlung von egozentrischen, unverlinkten Homepages und „Auftritten“ wurde, die den Web-Benutzer zum Konsumenten degradierten. Das merkte sogar Microsoft und bügelte wiederum Netscape nieder. Als dann der Browserkrieg und die Dotcom-Welle verebbt waren, machte sich bei einem Teil der Webgemeinde Katerstimmung breit, während aber gleichzeitig schon jene neue Ideen entstanden, die heute gerne als „Web 2.0″ bezeichnet werden. Letzteres versteht sich auch gerne als das „basisdemokratische Web“. Klar, dass damit einhergehend auch Kritik an einer weitgehend abgeschotteten, unzugänglichen Machtorganisation wie dem W3C laut wird, obwohl die meisten Web-2.0-Anhänger gleichzeitig auch vehemente Verfechter von Standards sind.

    Wenn die Web-2.0-Anhänger jedoch heute mehr Demokratie auch bei Standardisierungsfragen innerhalb des Web fordern, so sollten sie nicht vergessen, dass das Web immer noch ein Teil des Internets ist, und dass es im Internet seit jeher vergleichsweise basisdemokratisch zugeht. Vielleicht ist einfach eine Rückbesinnung auf diejenigen Instrumente erforderlich, die das Internet seit jeher benutzt, um sich technisch zu definieren und weiterzuentwickeln: das Instrument der RFCs. Wie wäre es, wenn man die wirklich praxisrelevanten Sprachen wie HTML, CSS und DOMScript künftig einfach so weiterentwickelt wie das HTTP-Protokoll — nämlich in Form von RFCs? Ich könnte mir vorstellen, dass dies zumindest der Praxisnähe gut täte. Ich denke, das allgemeine Bewusstsein dafür, dass Standards erforderlich sind, ist mittlerweile so weit gereift, dass die „Verbindlichkeitsgewalt“ einer RFC ausreichen würde, um prorpietäres Chaos zu verhindern.

  7. Wer evtl. noch mehr Informationen zu Microformats auf deutsch sucht, wird auf meinem Blog fündig, auf dem ich regelmäßig über Entwicklungen im Bereich Microformats Berichte.

    Einen guten Einstieg bekommt man sicherlich über diese Einleitung:
    http://pixelsebi.com/2006–04-17/microformats-episode-1-eine-einleitung/

    Anbei sei noch zum Artikel gesagt, dass eigentlich bei einigen Leuten in der Microformats Community die Meinung vorherrscht, dass Microformats natürlich nicht alle Aufgaben des semantic Web lösen können und es letzten Endes ein Zusammenspiel mit RDF Ansätzen geben wird.

    Was momentan unter RDFa oder embeddedRDF gehandelt wird, geht ja vom Ansatz her auch sehr stark in die gleiche Richtung wie Microformats.