SEO-Guide für Kleinunternehmen: Das Glossar - Teil 1
Sie besitzen eine kleine Firma und haben Schwierigkeiten mit der Suchmaschinenoptimierung (SEO)? Hier finden Sie eine Übersicht von allen wichtigen...
Geschrieben von: Veronic - 07.August 2013
Panda und Pinguin – Googles „Wachhunde“
Etwa 500-600 Mal verändert Google jährlich seine Algorithmen. Meist sind es nur kleine Anpassungen der Suchmaschine, die kaum spürbare Auswirkungen auf die organischen Suchergebenisse haben. Alle paar Monate hingegen kommt es zu einem „Major Update“, das die Suchergebnisse drastisch verändert.
Am 22. Mai 2013 sorgte ein solches „Major Update“ in Form „Penguin 2.0“ für große Unruhen in der SEO-Branche. Wir haben deshalb die wichtigsten Fakten zu den beiden „prominentesten Google Tieren“ zusammengefasst.
Mit Hilfe des „Penguin-Algorithmus“ sollen überoptimierte Webseiten abgestraft werden. Hierbei stehen die Links im Mittelpunkt. Genauer gesagt geht darum, die „guten“ und „schlechten“ Links einer Webseite zu unterscheiden. Hierzu betrachten Pinguin insbesondere die Link-Texte und bewertet, ob diese aus „Money-Words“ bestehen oder organischen Ursprungs sind. Um Unnatürliche Links handelt es sich, wenn Worte im oberen Drittel der häufigen Link-Texte auftauchen, für die man sonst bei AdWords teuer bezahlen muss. Bezeichnungen wie „Markenware günstig“ setzt niemand ohne Bezahlung.
Normal wäre, dass die häufigsten Linktexte den Seitennamen in verschiedenen Versionen enthalten. Einmal mit „www“, einmal mit einem „/“ am Ende. Ebenso werden Wörter wie „hier“ oder „mehr“ gerne genutzt um auf die Zielwebseite zu verweisen. Pinguin erkennt, dass es sich hierbei um Links handelt, die durch normales menschliches Verhalten erzeugt wurden.
Benannt nach seinem Entwickler Nabil Panda, ist das Panda Update eine der wichtigsten Filtertechnologien der Google-Suchmaschine.
Im ersten Schritt der Entwicklung dieser Filtertechnologie wurden unzählige Webseiten von Menschen nach unterschiedlichen Kriterien bewertet. Ausschlaggebend waren Ladezeit, Benutzerfreundlichkeit, Design, Inhalt, Werbeflächen, Glaubwürdigkeit u.v.m. Die sich daraus ergebenden messbaren Merkmale für „gute“ und „schlechte“ Webseiten wurden in den Panda-Algorithmus übernommen.
Im zweiten Schritt wurde das Besucherverhalten auf diesen Webseiten gemessen, um diese Ergebnisse ebenfalls mit dem Panda-Algorithmus zu verknüpfen. Seit 2011 ist der Panda schon auf der Jagd nach Webseiten mit qualitativ schlechtem, bzw. qualitativ hochwertigem Inhalt. Zielsetzung von Panda ist es, Webseiten mit schlechtem Content herabzustufen und gleichermaßen Webseiten mit gutem Content in die Ranking-Liste nach oben zu setzen.
Bei der Optimierung der Webseite zahlt es sich durchaus aus, diese FÜR den User zu konzipieren. Der User sollte vor allem nützliche Informationen vorfinden und diese leicht verwerten können. Webseiten-Betreiber sollten sich als Experten für ihr Unternehmen ausweisen und daher interessanten Content anbieten.
Vor allem ist es hilfreich Webmaster Tools zu nutzen, mit denen man den Pagerank, Backlinks, Keyworddichte u.v.m. messen und analysieren kann. Hierfür eignen sich zum Beispiel: Google Webmaster Tool, Sistrix, Ranking Check, X4d, SEOheap oder Seitenreport.
Sie besitzen eine kleine Firma und haben Schwierigkeiten mit der Suchmaschinenoptimierung (SEO)? Hier finden Sie eine Übersicht von allen wichtigen...
Auch dieses Jahr besuchte ich gemeinsam mit meinen Kollegen die SEO CAMPIXX 2018 in Berlin! Es waren viele Vorträge angesetzt mit vielen spannenden...
Ihre Website rankt in den Suchmaschinen nicht so gut, wie Sie es sich wünschen? Dann wird es Zeit für eine gründliche SEO-Analyse. Schließlich wissen...