ds präsentiert: Das große ÖWA Validator-Rating
1. Die ÖWA (österreichische Web-Analyse) und ihre avanciertere Variante, die ÖWA plus, sind in der Alpenrepublik quasi die harte Werbewährung der großen Fische im Web-Teich: zur Teilnahme wird ein Zählpixel in die betreffende Homepage eingebaut, die Teilnahme ist kostenpflichtig. 2. Mir ist in letzter Zeit verstärkt aufgefallen, dass vorwiegend große und „professionelle“ Homepages sich unglaublich viele Schnitzer bei der Programmierung leisten: entweder haben die jeweiligen Agenturen noch nie von xml-Validierung gehört, oder sie halten die Doctype-Deklaration für einen eigentlich unnötigen Nerd-Kommentar. Der Rekord lag bei über 300 Validierungsfehlern: damit verschenkt man natürlich ganz gewaltiges SERP-Potential. Synthese: was haben diese beiden Sachverhalte miteinander zu tun? Ganz einfach: ich werde ab sofort einmal monatlich ein alternatives Rating präsentieren: und zwar die Top-10 ÖWA-Sites, gereiht nach der Anzahl der Validierungsfehler. Und dabei gibt’s auch was zu gewinnen, und zwar den begehrten Strunz [Trappatoni: Was machen Strunz?] in Gold-, Silber- und Bronze-Imitat.
Zur Methodik der Analyse
Als Analysetool kommt der Validator des W3 Konsortiums zum Einsatz. Die Top-10 österreichischen Webseites ermittle ich anhand der Unique-Clients: dieser Wert ist meiner Meinung nach wesentlich aussagekräftiger als die Pageviews, die sehr stark von der Art des Angebots und der Seitenprogrammierung abhängen. (Obwohl Ajax & Co. bei Profi-Angeboten bislang eine Nischenrolle spielen.) Ich ziehe jeweils das aktuellste verfügbare Monatsranking heran – die ÖWA stellt die betreffenden Daten auf ihrer Homepage zur Verfügung, die Top Ten Sites werden anschließend durch den Validator gejagt. Die ÖWA trennt ihre Liste nach Einzel- und Dachangeboten: diese Unterscheidung interessiert mich für den vorliegenden Test nicht, ich verwende das gesamte CSV-Sheet, das die ÖWA auf ihrer Seite zum Download bereit stellt. Die meisten der gelisteten Seiten betreiben also mehrere Domains/Startseiten, für die Validierung wurde jeweils die Hauptadresse verwendet. Außerdem sind manche Angebote aufgesplittet vertreten: der ORF etwa ist auf Platz eins und zwei vertreten, und zwar jeweils mit dem Gesamtangebot und dem redaktionellen Angebot: in solchen Fällen ziehe ich immer das Gesamtangebot heran. Den ÖWA-Teilnehmern steht es übrigens frei, die jeweiligen Monatsdaten zu melden oder nicht – Seiten, die keine Unique Clients angeben, tauchen hier logischerweise auch nicht auf.
Die Reihung erfolgt absteigend nach der Zahl der Fehlermeldungen. Sollten eine oder mehrere Seiten nicht validierbar sein (Sonderzeichen, falsche Doctype-Deklaration etc.), so werden die vom Validator dafür angegebenen Gründe aufgeführt und die betreffende Seite gewinnt die Goldmedaille: bei mehreren Kandidaten gibt’s ex-aequo auch mehrere erste Plätze. Et voilá, here we go:
Top Ten ÖWA-Sites: die xml-Fehlerhitparade
(basierend auf den ÖWA-Daten von Juni 2008)
Die erste Ausgabe der datenschmutz Programmierfehler-Charts hat einen überlegenen Sieger: der echt-kupfer-vergoldete Strunz mit neonrotem Band geht an die nicht validierbare Krone.at. Nach einem knappen Rennen teilen sich Tripple.net und Tiscover mit je 331 Fehlern den echt-aluminium-versilberten Strunz, über den echt-plastik-bronzierten Strunz darf sich Austria.at mit 296 Fehlern freuen. Spannend wird’s dann wiederum auf den hinteren Plätzen: als einziger mit langweilig-fehlerfreiem 0-Fehler Code landet derstandard.at auf gerade noch auf Platz zehn, während sich ORF.at mit sporadischen 5 Fehlern gerade noch so auf Platz 9 retten kann.
PS: im Übrigen freu ich mich natürlich wie ein Frosch im Sommerregen über die erstaunlich Tatsache, dass datenschmutz mittlerweile mehr Unique Clients hat als etwas gmx.at „Entertainment“ und in etwa gleich viele wie Vienna Online „Community“. Schade übrigens, dass Vienna.at nicht unter den Top-10 Seiten liegt: mit 316 Fehlern wäre immerhin Potential für einen guten dritten Platz vorhanden. Aber nun ohne weitere Umschweife zur Premierenwertung:
- Krone.at – http://www.krone.at: Failed validation*
- Tripple ad-locator.net – http://www.tripple.net/ad-locator/: 331 Fehler
- Tiscover – http://www.tiscover.at: 331 Fehler
- Austria.com – http://www.austria.com: 296 Fehler
- Geizhals-Netzwerk – http://www.geizhals.at: 293 Fehler
- oe24-Netzwerk – http://www.oe24.at: 206 Fehler
- GMX Österreich – http://www.gmx.at: 38 Fehler
- Herold.at – http://www.herold.at: 36 Fehler
- ORF.at Network – http://www.orf.at: 5 Fehler
- derStandard.at Network – http://derstandard.at: passed validation
*) Es wurde kein Character Encoding angegeben, mit Fallback auf utf-8 war keine Validierung möglich.
ich halt den w3c validator für nicht mehr fuer passend in zeiten von richclient webapps
checks auf xhtml sind sowieso schon nahezu egal da die meisten browser flexibler als der ie sind und der bei validem code nicht stets brav reagiert
es ist mehr oder weniger nur noch ein feinschliff imho
schlecht gemachte ajax webapplications brauchen bei „aelteren“ pcs bis zu 90% cpu. fuer sowas braucht man guidelines und best practices. hier muessten standards her imho
automatische validators sollten auftauchen die auf „schlechten“(=nicht performanten oder unsicheren) javascript code checken.
automatische validators die standards fuer responsezeiten von webservern festlegen
empfehlungen bei amok aktionen wie 10 getrennten css files per seite etc etc
common best practices in einem tool verarbeitet – kennt hier wer was?
In die Richtung kenn ich leider nix… und grundsätzlich hast du natürlich recht, aber: die hier analysierten Seiten sind meilenweit von Ajax und „rich anything“ entfernt :mrgreen:
blog.datenschmutz.net: 3 errors. http://www.helge.at: 53 errors.. :shock:
Ups… danke für den Hinweis! Das war der nicht enkodierte Ampersand im WKO-eCommerce Code, den ich heute eingebaut hab. (Dieser Code macht Blogs unverwundbar und gibt ihn +2 Special eCommerce Moves, siehe rechter Rand ganz unten)