Schlechtes Ranking trotz SEO… was nun?
Normalerweise verbessert sich das Webseiten-Ranking durch die Anwendung von Suchmaschinenoptimierung. Gerade für Startup-Unternehmen ist das sehr wichtig, damit sie an Reichweite und Kunden gewinnen. Doch leider fruchtet SEO nicht in allen Fällen und hat keine Auswirkung aufs Ranking. Was kann das für Gründe haben?
Ist Ihre Seite indexiert?
Das ist der erste Schritt, der überprüft werden muss. Ohne eine Indexierung kann die Seite nicht von Google gefunden werden, das heißt SEO-Maßnahmen sind umsonst. Die Google Indexierung besteht aus Finden, Analysieren und auffindbar Machen der Webseite. Sie muss mit begleitenden Maßnahmen zusammenspielen. Anders kann kein positives Ranking erfolgen.
Auch das hilft nicht und Ihre Webseite taucht trotz Indexierung nicht in der Suche auf?
404 – diese Seite wurde nicht gefunden!
Wenn eine Seite nicht gefunden wird, nennt sich das 404-Fehler. Dieser kann durch folgende Auslöser entstehen:
- Durch einen Webseitenumzug sind interne Links nicht angepasst worden
- Auch externe Links können davon betroffen sein
- Links können in der Adresszeile verändert werden und somit auf nicht existierende Seiten verweisen
Google rankt Seiten mit vielen dieser Fehler schlechter. Daher sollten Sie Ihre 404-Fehler stets überprüfen und Verlinkungen aktuell halten. Über die Google Search Console werden Ihnen alle fehlerhaften Links ausgegeben.
Blockierung über die .htaccess-Datei
Durch die .htaccess-Datei lassen sich Seiten blockieren und URLS umschreiben und umleiten. Achten Sie hier darauf, dass die Datei fehlerfrei ist und nach offiziellen Regeln gearbeitet wurde. Es dürfen keine relevanten Seiten blockiert werden.
Server-Probleme
Ein guter Server muss schnell und leistungsfähig sein. Andererseits sinkt die Verweildauer und die Absprungrate steigt. Beides sind negative Faktoren für die User Experience und natürlich auch für SEO und das Ranking. Ein Server-Ausfall sollte also auch überhaupt nicht vorkommen, denn in diesem Zeitraum ist die Webseite gar nicht aufrufbar.
Keine internen Links
Interne Links auf Webseiten sind ein sehr großer Faktor in der Suchmaschinenoptimierung. Wenn hier keine Links vorhanden sind, kann der Googlebot die Seite eher weniger listen.
Mehr über Verlinkungen und ihre Wichtigkeit finden Sie hier.
Ladezeit zu hoch
Webseiten, die lange Ladezeiten aufweisen, werden schlechter gerankt. Google stellt die User Experience nicht mehr in den Vordergrund und straft die Seite durch eine niedrige Google-Position ab.
Daher ist es wichtig, die Ladezeit der Seite stets im Blick zu halten und sie so kurz wie möglich zu halten.
Häufig entsteht so etwas durch einen nicht optimalen Server. Es kann aber auch an großen Dateien (z.B. Bilder), langen Skripten und einem großen Quellcode liegen. Google Page Speed Insights zeigt Ihnen, welche Anpassungen zur Komprimierung Sie vornehmen können.
Duplicate Content vermeiden!
Ein weiterer Grund für ein schlechtes Ranking ist, dass Ihre Webseite Duplicate Content aufweist. Was das ist, wie es entsteht und wie man es vermeiden kann, erfahren Sie in diesem Blogbeitrag.
Hier lautet die oberste Regel: Setzen Sie auf Content-Einzigartigkeit! Es gibt aber auch Fälle, in denen Duplicate Content unvermeidbar oder sogar sinnvoll ist. Hier kann ein Canonical Tag oder eine 301-Weiterleitung auf die Hauptdomain gesetzt werden. So schadet es Ihrem Ranking nicht.
XML-Sitemap nicht verknüpft
XML-Sitemaps sind für SEO tatsächlich sehr wichtig. Sie unterstützen den Googlebot und bieten ein schnelleres Crawling. So sind auch alle Seiten, die Ihre Webseite hat, auf einen Blick sichtbar. Verknüpfen Sie Ihre Sitemap auch gerne mit der Google Search Console.
Webseite wird von Google ausgeschlossen
Überprüfen Sie Ihre robots.txt Datei. Hier können einzelne Daten, Verzeichnisse oder die komplette Domain ausgeschlossen werden. Auch das verhindert das Crawling und es findet keine Listung in den Suchergebnissen statt.