SEO-Wissen: von richtigen Keyword-Dichten

SEO-Wissen: von richtigen Keyword-Dichten

Zuletzt aktualisiert am 24. Januar 2018 um 12:33

KeyworddichteDie sogenannten Keyworddichte spielt für die SERP (Search Engine Result Pages) Optimierung eine nicht unbeträchtliche Rolle. Ideal funktioniert ein Suchalgorithmus bekanntlich dann, wenn er Informationen respektive Texte möglichst ähnlich wie ein menschlicher Leser bewertet – aber von einer Annäherung der maximalen Keyworddichte an natürlichsprachliche Bedingungen kann noch lange keine Rede sein.

SEO Profis können übrigens getrost direkt bis zum letzten Teil dieses Postings springen – wer den Begriff Keyworddichte schon mal gehört hat, aber nix damit anfangen kann, findet im ersten Teil eine Erklärung dieses wichtigen Webseiten-Parameters.

Zum besseren Verständnis ist ein Blick in die frühe Webgeschichte hilfreich: als die Suchmaschinen-Algorithmen noch jung und dumm waren und Larry Page das nach ihm benannte Ranking-System noch nicht erfunden hatte, gingen Suchmaschinenbetreiber davon aus, dass eine Seite umso relevanter sein müsste, je häufiger das gesuchte Keyword respektive die betreffende Keywordkombination im jeweiligen Text vorkommt. Dieser allzu simple quantitative Ansatz evozierte in weiterer Folge das sogenannten „Keywordstuffing“: eine Seite, auf der einfach nur 10.000 Mal das Wort „Keyworddichte“ stand, hätte viel besser gerankt als beispielsweise ein Text, der erklärt, was Keyworddichte ist. Googles Pagerank-Verfahren löste dieses Problem zumindest teilweise: den die Anzahl der Backlinks als Ranking-Kriterium lässt sich nicht durch simples Keywordstuffing überlisten. Aber erstens gab’s und gibt’s – man glaubt es kaum – neben Big G noch andere Suchmaschinenbetreiber, und zweitens verlässt man sich ungern auf ein einzelnes Kriterium; denn der Pagerank lässt sich ja wiederum durch gekaufte Backlinks und/oder Linknetzwerke immer noch sehr gut „überlisten“. Also spielt die Keyworddichte auch weiterhin eine beträchtliche Rolle, wenn auch unter völlig verändern Vorzeichen.

Denn anstatt die bloße Quantität zu werten, gehen Algorithmen von statistischen natürlichen Keyworddichten aus – selbstverständlich werden dabei nur die Inhalte ohne HTML-Tags etc. gezählt. Die zugrunde liegenden Zahlen resultieren aus quantitativen Analysen riesiger Textmengen, die sich bekanntlich problemlos automatisiert durchführen lassen. Weiß man also beispielsweise, dass in statistisch durchschnittlichen Artikel über Winston Churchill dessen Name beispielsweise zweimal pro hundert Wörtern vorkommt, so bedeutet dies eine Keyworddichte von 2%. Natürlich lässt sich dieses Verfahren mittels zusätzlicher (semantischer) Kriterien verfeinern, aber grosso modo kann man durchaus sagen, dass die Keyworddichten-Analyse in erster Linie ein Mittel gegen Keywordstuffing darstellt. Wie stark die einzelnen Suchmaschinen diesen Faktor in ihrer Gesamtbewertung nun tatsächlich gewichten, ist im Detail nicht bekannt – dass er eine Rolle spielt, allerdings schon.

Die tatsächliche optimale Dichte…

…liegt immer noch, und das ist das Problem, weit über der „natursprachlichen“ oder semantischen Dichte. Jedem Journalismus-Studenten wird beigebracht, Wortwiederholungen zu vermeiden, skurrilerweise allerdings sehen SM-Scripts immer noch liebend gerne eine Keyworddichte von drei bis zu fünfzehn (!) Prozent. Das muss man sich mal auf der Stil-Zunge zergehen lassen: in einem mittel-langen Posting von 300 Worten über das Thema Keyworddichte müsste besagter Begriff bei einer Keyworddichte von 10 Prozent nicht weniger als 30 Mal vorkommen! Für SEOs bedeutet das natürlich, bei der Optimierung der Webseiten-Texte auf ausreichende Keyworddichte zu achten – was in der Regel der flockigen Lesbarkeit von Texten nicht gerade zuträglich ist. Ein paar kleinere Experimente meinerseits haben allerdings zweifelsfrei ergeben, dass man sozusagen die Wahl hat zwischen Fokus aus lesefreundlichem Stil oder eben auf optimale Keyworddichte – irgendwie hab ich ganz und gar nicht das Gefühl, dass die vorgegebenen optimalen Keyworddichten auch nur annähernd auf elaborierten semantischen Kriterien beruhen. Zum Glück ist die Keyworddichte allerdings nur ein Faktor unter vielen – also besser nicht übertreiben, aber auch nicht unterhalb der Wahrnehmungsgrenze dahinsurfen: die Minimalhürde von 2% sollte jeder auf Besucher bedachte Web-Publisher sehr wohl überspringen. Weitere Meinungen dazu interessieren mich natürlich brennend.

Die Keyworddichte analysieren

Online findet man zahlreiche Keyword-Analyse-Tools. Die meisten davon liefern unsinnige und fehlerhafte Ergebnisse oder funktionieren erst gar nicht – uneingeschränkt empfehlen kann ich allerdings das Keyword-Density Tool von Sistrix – es liefert valide Ergebnisse, auf die sich der besorgte Webmaster durchwegs verlassen kann. Wer mehr Parameter checken möchte, muss auf die kostenpflichtigen SEOmozSEO-Wissen: von richtigen Keyword-Dichten Profi-Tools zurückgreifen: mit dem Term Target Tool und dem Keyword Difficulty Checker gelingt so manches Kunststück.

PS: Selbstverständlich ist auch dieser Artikel über Keyworddichte nicht bloß ein Posting, sondern ein teilnehmendes Experiment. Aufmerksamen LeserInnen dürfte durchwegs nicht entgangen sein, dass dieser Beitrag den Begriff Keyworddichte wesentlich öfter enthält als üblich :mrgreen:


Fotocredits: Schlüssel von Name Gabi Schoenemann / Pixelio
23 Antworten
  1. Walter says:

    Ich optimiere Texte lieber für Menschen. Aber ein gewisser Kompromiss wird wohl (derzeit noch) unumgänglich sein.
    Mein Beitrag: Keyworddichte ;-)

    Antworten
  2. mark says:

    Wow – trotz der vielen Wiederholungen und Eintrag im Metatag bzw. Metadescription nur eine Keyworddichte von fast 2%.
    Echt schwierig einen hohen Wert zu schaffen, ohne die Leser zu verärgern. Ich verwende übrigens SEOQuake, da gibts auch einen brauchbaren DensityChecker im Paket.

    Antworten
    • ritchie
      ritchie says:

      SEOQuake ist sehr praktisch, das installier ich auch gleich immer als erstes… und ja: 2 Prozent… heavy, oder? Mit fünf wird das ziemlich unerträglich für den Lesefluss.

      Antworten
    • ritchie
      ritchie says:

      Naja, seh ich überhaupt nicht so. Der SEOMoz-Beitrag sagt da das genaue Gegenteil: die Haupt-Faktoren laut Liste sind ja Keyword Usages in den richtigen Tags. Nachdem man die h’s aber wohl kaum invisible setzen wird, und die KW’s in bold auch super-important sind, beinflusst das natürlich die Overall-Dichte; die zählen Google und Co. ja nicht nur zwischen p’s.

      Antworten
  3. Webdesignblogger says:

    Hey,

    also ich denke schon dass die Keyworddichte sehr wichtig ist, denn umso höher setzt Google die Prioriät des Keywords. Natürlich sollte man aufpassen den Text trotzdem lesenwert zu lassen. Sonst ist der Traffic schnell wieder weg.

    mfg

    Sebastian

    Antworten
  4. yaph says:

    Interessant, dass die Keyworddichte also solche bei den Search Ranking Factors auf SEOmoz keine Berücksichtigung findet. Am ehesten noch unter dem Punkt Topic Analysis.
    Die Verwendung wichtiger Keywords im Titel und in Überschriften spielt sicher eine viel größere Rolle. Ob die Dichte bei 1%, 2% oder 5% liegt, macht kaum den entscheidenden Unterschied aus.
    Die Keyworddichte und andere interessante Informationen können Firefox-Benutzer auch mit der Extension Search Status anzeigen.

    Antworten
  5. Andreas Bergmann says:

    Ich kann mir ehrlich gesagt schwer vorstellen dass Google immer noch Keyword-Dichten über 2% bevorzugt. Das ist dann offensichtlich kein lesbarer Text mehr und für Google ist es leicht im Algorithmus diese Grenze runterzusetzen.
    Die haben soviele Faktoren, warum sollten sie einen offensichtlich falschen Faktor beibehalten, der noch dazu so leicht zu beheben ist?
    Andere Suchmaschinen spielen sowieso kaum eine Rolle, aber für die gilt prinzipiell dasselbe.

    Antworten
  6. Olafkolbrueck says:

    Okay, das erklärt mir wie es der Welt gelingt bei Google abzusahnen. Allerdings finde ich nicht zwingend, das wortwiederholungen der lesebarkeit schaden, für manch einen leser eher im gegenteil. macht den text vielleicht nur ein wenig langweiliger.

    Antworten
  7. Korbi says:

    Der Witz an der Keywortdichte ist doch, dass ein guter Artikel nur eine sehr niedrige Dichte hat. Jeder Fachartikel wird auf Teufel komm raus versuchen das Thema des Artikels so weit wie möglich mit verschiedenen Worten zu vermeiden. Ergo wird Google sicher viel Wert auf die Keywortdichte legen, allerdings auf einen Wert deutlich unter 2%.

    Nicht vergessen sollte man beim Keywordstuffing allerdings auch falsche Schreibweisen zu berücksichtigen, was ich netterweise gleich mal für Dich gemacht habe :-)

    Antworten
  8. adgo says:

    Bin auch der Meinung, dass die Keyworddichte kein sonderlich wichtiges Kriterium mehr ist. Klar, das Keyword sollte paar mal auf der Zielseite auftauchen, aber ein zusätzlicher Link dürfte größeren Einfluss auf das Ranking haben als eine 1% höhere Keyworddichte.

    Antworten
  9. Rudi says:

    Das ich mich bei der Diskussion noch beteilige hat den Grund, der indirekt mit der Keyworddichte zu tun hat. Das ich ein SEO Spezialist bin, mag ich zu bezweifeln mit meinen erst 2 Jahren Erfahrung.

    Ich denke mal, das man auch 15 Prozent an Keyworddichte schaffen kann und der natürlich gewachsene Text trotzdem noch einigermaßen gut lesbar bleibt. Ich jedenfalls habe meine eigene Prozentzahl für mich festgelegt. Ich denke mal dabei nicht ganz falsch zu liegen, da meine Seite oft von einem Robot besucht wird, der meine Keywords ausspäht. Das macht dieser Robot nicht von alleine, es ist ein Tool, das andere Webmaster für sich nutzen, um die Konkurenz auszuspähen. Dafür bezahlen die auch noch Geld.

    Natürlich lässt mich das nicht kalt und bin stinksauer darüber, zumal manche meinen, man könnte doch gleich noch am besten alle guten Texte samt Keywords kopieren, um sie auf seine eigene Webseite zu machen.

    Meist bekomme ich ja schnell heraus wer meine Texte und Keywords auf seine Seite einfügt, doch bis dahin haben die meine Webseite bei, wie Ihr sagt, Big G geschädigt. Ich bin schon am vermuten, das diese kleineren Seiten die meine Keywords und Texte klauen, in irgendeiner Weise mit den Seiten in Verbindung stehen könnten, die in den Serps mit meinen wichtigsten Keywords ganz oben stehen.

    Normalerweise prüft ein Webseitenbetreiber zuerst mal einen gesetzten Link einer anderen Seite, bevor er diesen freigibt.

    Letzendlich bin ich auch davon überzeugt, das die Keyworddichte für die Suchergebnisse von großer Bedeutung sind. Ich werde weiterhin meine Erfahrungen machen auch in Bezug auf Keyword in der URL und der Keyworddichte in der Beschreibung sowie dem Titel der Seite.

    Ich hatte Eueren Blog überhaupt erst bei der Suche nach dem Begriff, SEO-Wissen gefunden.

    Ich bleibe Euch mal eine Weile treu, lasse mir auch die neuen Post´s, auf meine Mail schicken und mache noch ein Lesezeichen. Gruß aus der Pfalz, Rudi

    Antworten
    • ritchie
      ritchie says:

      Danke für den ausführlichen Beitrag – du hast recht, ich war erstaunt, wieviele SEO Tools es gibt, die in erster Linie Inhalte und Keywords von konkurrierenden Seiten ziehen. Ich bezweifle ja sehr, dass man damit wirklich erfolgreich sein kann – der derzeit einzig effektive Weg gegen „duplicate content“ ist, keinen zu produzieren und selbst zu schreiben :mrgreen:

      Ansonsten gilt bei Big G ja weniger die Regel des stärkeren, sondern wen der Robot zuerst sieht, der ist eben der „Originator“.

      Antworten
      • Rudi says:

        Da muß ich Dir recht geben ritchie, deshalb warte ich jetzt lieber erst mal ein wenig bis die Seite im Cache ist, bevor ich den restlichen Text drauf packe.

        Antworten
  10. Robert says:

    Ich hänge mich mal weit aus dem Fenster und behaupte, daß Google eines Tages auch schlauer wird und extreme Keyword-Dichte eher unangenehm bewertet, so wie der menschliche User eben auch. Um also langfristig im Suma-Markt gut platziert zu sein, sollte man am besten für den User optimieren, denn der steht ja auch für die Sumas im Mittelpunkt und an diesen sollten ja auch die Bewertungskriterien ausgerichtet werden. Wann dieses allerdings annähernd perfekt erreicht ist, bleibt dahingestellt.

    Antworten
  11. Rudi says:

    Hallo Robert,

    da muss ich jetzt etwas schmunzeln. Ich bin jetzt auch dazu übergegangen meine Seiten so zu machen, wie ich das will und für richtig halte. Einfach einen natürlichen Text und meine Geschichte so gut wie möglich rüber bringen.

    Und mit den Suma-Ergebnissen, man ist halt einfach abhängig davon. Aber wenn ich dann sehe, dass manche Seiten oben sind, die fast gar nicht das besagte Key im Text haben, geschweige denn fast keinen Text, dann bin ich überzeugt, dass das letztendlich etwas anderes ist, dass man gut platziert wird.

    Was ist falsch und was ist richtig? Das ist eben die Kunst, das herauszufinden. Ich denke, das solche Neulinge wie ich, nach ein paar Jahren darüber noch mehr schmunzeln, über was man sich heute Gedanken macht.

    Wir werden sehen was in ein paar Jahren ist. Es bleibt zu hoffen. Aber wenn ein Key eben hart umkämpft ist, dann kann die richtige Keyword-Dichte vielleicht das Tüpfelchen auf dem i sein.

    Antworten

Hinterlassen Sie einen Kommentar

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Die DSGVO Checkbox ist ein Pflichtfeld.

*

Zustimmung zur Datenspeicherung lt. DSGVO

Möchten Sie neue Kommentare abonnieren?
Wann möchten Sie Ihre Benachrichtungen erhalten?