Was ist das Erste, was Ihnen in den Sinn kommt, wenn Sie daran denken, eine Website zu ranken?
Inhalte? Oder vielleicht Backlinks?
Beide Faktoren sind entscheidend für die Positionierung einer Website in den Suchergebnissen. Aber diese sind nicht die einzigen.
Tatsächlich spielen zwei weitere Faktoren eine wichtige Rolle in der Suchmaschinenoptimierung – Crawlbarkeit und Indexierbarkeit. Dennoch haben die meisten Website-Besitzenden noch nie von ihnen gehört.
Gleichzeitig könnten selbst kleine Probleme mit der Indexierbarkeit oder Crawlbarkeit dazu führen, dass Ihre Webseite ihre Rankings verliert. Und das unabhängig davon, wie grossartige Inhalte oder wie viele Backlinks Sie haben.
Indexierbarkeit bezieht sich auf die Fähigkeit einer Webseite, von Suchmaschinen indexiert zu werden. Nur indexierbare Seiten können in den Suchergebnissen angezeigt werden.
Um eine Webseite zu indexieren, müssen Suchmaschinen wie Google:
Nur dann kann die Seite in den Suchergebnissen erscheinen.
Wenn Webcrawler ihre Arbeit nicht tun können und eine Seite auf Ihrer Website nicht crawlen können, kann diese Seite nicht angemessen indexiert werden. Ohne Indexierung kann die Seite Ihrer Website keinen Suchverkehr anziehen, da sie für Suchmaschinen unsichtbar bleibt.
Indexierbarkeit ermöglicht es Suchmaschinen, die Seiten Ihrer Website in den SERPs anzuzeigen. Ohne Indexierung kann kein organischer Suchverkehr auf Ihre Seite geleitet werden.
Es ist jedoch erwähnenswert, dass es manchmal sinnvoller ist, bestimmte Seiten nicht indexierbar zu machen. Zum Beispiel sind nicht indexierbare Seiten bei Landing-Pages, Seiten von geringer Qualität oder «Danke für Ihre Anmeldung»-Seiten bevorzugt. Schliesslich möchten Sie nicht, dass diese Seiten in den Suchergebnissen auftauchen.
Wenn Sie jedoch möchten, dass die URLs gerankt werden, sollten Sie sicherstellen, dass diese Seiten sowohl crawlbar als auch indexierbar sind.
Um als «indizierbar» zu gelten, muss die Seite die folgenden Kriterien erfüllen:
Damit eine Webseite indiziert werden kann, müssen die Crawler der Suchmaschine zuerst auf den Inhalt zugreifen und ihn crawlen können. Ein Element, das sich direkt auf die «Crawlability» einer Webseite auswirkt, ist die robots.txt-Datei.
Für diejenigen, die mit der eher «technischen» Seite von SEO nicht vertraut sind, ist eine robots.txt-Datei eine kleine Datei, die sich im Stammverzeichnis Ihrer Website befindet.
Ihre Aufgabe ist es, den Web-Crawlern Anweisungen zu geben und ihnen mitzuteilen, welche Seiten Ihrer Website nicht gecrawlt werden dürfen. Andernfalls werden die Bots jede Seite crawlen, die sie auf der Website finden können.
Es gibt Fälle, in denen solche «Einschränkungen» sinnvoll sind. Dennoch sollten Sie unbedingt sicherstellen, dass Sie nicht unwissentlich die Seiten blockieren, die Sie indiziert haben möchten.
Ein «noindex»-Tag ist eine On-Page-Direktive, mit der die Suchmaschine angewiesen wird, eine bestimmte Seite nicht zu indizieren. Im Grunde verhindert er, dass eine Seite in den SERPs erscheint.
Manchmal ist es ratsam, bestimmte Seiten – wie Landing-Pages, Anmeldeseiten, minderwertige Seiten oder «Danke»-Seiten – nicht zu indizieren und sie «privat» zu halten.
Wenn Sie diese Anweisung jedoch missbrauchen oder z. B. vergessen, sie von der Seite zu entfernen, die indiziert werden soll, werden Sie organischen Suchverkehr verlieren.
Sie können Ihre Website mit Ahrefs Webmaster Tools crawlen, um sicherzustellen, dass keine der Seiten, die indiziert werden sollen, ein «noindex»-Tag haben.
Ein kanonischer Tag (rel=»canonical») in einem Seitencode definiert die Hauptversion für doppelte, fast doppelte und ähnliche Seiten. Dies bedeutet, dass nur kanonische Seiten indiziert werden können, während ihre nicht-kanonischen Versionen ausgeschlossen werden.
Wenn Sie das kanonische Tag nicht zu einer Seite hinzufügen, verlässt sich Google auf Signale wie interne und externe Backlinks, die XML-Sitemap und Weiterleitungen, um zu entscheiden, welche URL diesen Cluster in seinem Index «repräsentiert».
Das heisst, wenn Sie möchten, dass Ihre Seite in den Suchergebnissen erscheint, darf sie keine andere Seite als ihre kanonische Version deklarieren. Eine gute SEO-Praxis ist es, selbst referenzierende kanonische Tags für indexierbare Seiten zu haben.
Hier ist, was Sie tun können, damit Google die Seiten Ihrer Website indizieren kann:
Eine Sitemap ist im Wesentlichen eine Liste (normalerweise im XML-Format), die alle Seiten Ihrer Website enthält. Die Sitemap dient dazu, Google die Seiten mitzuteilen, die auf Ihrer Website indexiert werden sollen.
Bevor Sie eine Sitemap einreichen, sollten Sie überprüfen, ob sie den aktuellen Zustand Ihrer Webseite widerspiegelt, und etwaige Fehler beheben, z. B. fehlerhafte Links, verwaiste Seiten usw. Sie können Ihre Sitemaps über das Tool Google Search Console an Google übermitteln.
Wenn Sie die Indizierung oder Neuindizierung nur einiger einzelner URLs beantragen möchten, können Sie das Tool zur URL-Überprüfung in der Google Search Console verwenden.
Das URL-Prüfungstool ist ein Diagnosetool in der Google Search Console, das Ihnen einen Einblick in die von Google indizierte Version Ihrer Webseite bietet und Ihnen u. a. ermöglicht, die URLs live zu testen und die gerenderte Version der Seite anzuzeigen. Ausserdem können Sie einzelne Seiten an Google übermitteln.
Wenn Sie die Indizierung einer neuen URL – oder das erneute Crawling und die erneute Indizierung aktualisierter URLs – beantragen möchten, können Sie Google über die Schaltfläche «Indizierung beantragen» dazu auffordern. Wenn Ihre Live-URL keine Fehler enthält, wird Google Ihre Seite in die Crawl-Warteschlange aufnehmen.
Beachten Sie jedoch, dass die Anzahl der URLs, deren Indizierung Sie pro Tag anfordern können, begrenzt ist.
Eine weitere Möglichkeit, das Crawling zu fördern und damit die Indexierung der Webseite zu beschleunigen, ist die interne Verlinkung.
Beim Durchsuchen des Internets folgen die Crawler von Google einem durch Links gebildeten Pfad. Wenn also eine Seite Ihrer Website auf eine andere verlinkt, folgen die Crawler dem bestehenden Pfad – und entdecken neue Inhalte.
Seiten ohne interne Links werden als «verwaiste Seiten» bezeichnet.
Aus diesem Grund ist es wichtig, dass Sie interne Links zu und von Ihren wichtigsten Seiten einrichten. Zugegeben, das geschieht in der Regel von selbst, wenn Sie eine gut organisierte Website erstellen.
Es kann jedoch nicht schaden, zu überprüfen, ob es auf Ihrer Website verwaiste Seiten gibt – d. h. Seiten, auf die keine internen Links verweisen -. Dies können Sie mit dem Tool Site Audit tun.
In diesem Zusammenhang sollten Sie sicherstellen, dass diese internen Links, die auf indexierbare Seiten verweisen, nicht mit einem «nofollow»-Tag versehen sind, da Google nofollow-Links nicht crawlen wird.
Das ist ganz einfach. Gehen Sie zu Google oder einer anderen Suchmaschine und geben Sie
site: …und dann die Adresse Ihrer Website ein. Sie sollten die Ergebnisse sehen, wie viele Seiten Ihrer Website indiziert wurden.
Die meisten Webmaster wissen, dass sie für die Platzierung einer Webseite zumindest starke und relevante Inhalte und Backlinks benötigen, die die Autorität ihrer Website erhöhen. Was sie nicht wissen, ist, dass ihre Bemühungen umsonst sind, wenn die Crawler der Suchmaschinen ihre Websites nicht crawlen und indexieren können. Hierbei spielt der html Code eine wichtige Rolle.
Deshalb sollten Sie sich nicht nur auf das Hinzufügen und Optimieren von Seiten für relevante Schlüsselwörter und den Aufbau von Links konzentrieren, sondern auch ständig überwachen, ob Web-Crawler auf Ihre Website zugreifen können und der Suchmaschine melden, was sie finden. Wenn die Web-Crawler die Inhalte nicht crawlen können, werden sie auch nicht in den Suchindex aufgenommen. Es ist daher wichtig, den HTML-Code Ihrer Website so zu gestalten, dass er von den Suchmaschinen optimal verarbeitet werden kann.
Abonnieren Sie noch heute, damit Sie keine der neuesten Beiträge verpassen!
© 2012-2024, MIK Group GmbH | AGB | Impressum | Datenschutzerklärung