Wie man Probleme mit der Indexabdeckung findet und behebt

Wie man Probleme mit der Indexabdeckung findet und behebt

Hannah Dango

Haben Sie Probleme mit der Indizierung von Google? Diese Probleme können dazu führen, dass der Traffic und die Konversionsraten sinken.

Es ist notwendig, die indizierten und nicht indizierten Seiten Ihrer Website zu überprüfen, um jedes Problem schnell zu lösen. Hier erklären wir Ihnen Schritt für Schritt, wie Sie dies mit der Google-Suchkonsole - Bericht über die Indexabdeckung - durchführen können.

Mit der folgenden Methode ist es uns gelungen, Probleme mit der Indexabdeckung auf Hunderten von Websites mit Millionen oder Milliarden von ausgeschlossenen Seiten zu beheben. Nutzen Sie sie, damit keine Ihrer relevanten Seiten in den Suchergebnissen an Sichtbarkeit verliert und steigern Sie Ihren SEO-Traffic!

Schritt 1: Überprüfen Sie den Indexabdeckungsbericht

Der Bericht zur Abdeckung der Suchkonsole gibt Auskunft darüber, welche Seiten von Google gecrawlt und indiziert wurden und warum sich die URLs in diesem bestimmten Zustand befinden. Sie können ihn verwenden, um alle während des Kriech- und Indizierungsprozesses gefundenen Fehler zu erkennen.

Bericht über die Berichterstattung

Um den Bericht zur Indexabdeckung zu überprüfen, gehen Sie zur Google-Suchkonsole und klicken Sie auf Abdeckung (direkt unter Index). Sobald Sie ihn öffnen, sehen Sie eine Zusammenfassung mit vier verschiedenen Statuskategorien, in denen Ihre URLs kategorisiert sind:

  • Fehler: Diese Seiten können nicht indiziert werden und erscheinen aufgrund einiger Fehler nicht in den Suchergebnissen.
  • Gültig mit Warnungen: Diese Seiten können in den Google-Suchergebnissen angezeigt werden oder auch nicht.
  • Gültig: Diese Seiten wurden indexiert und können in den Suchergebnissen angezeigt werden. Sie brauchen nichts zu tun.
  • Ausgeschlossen: Diese Seiten wurden nicht indexiert und werden nicht in den Suchergebnissen erscheinen. Google ist der Ansicht, dass Sie sie nicht indizieren möchten oder dass der Inhalt es nicht wert ist, indiziert zu werden.

Sie müssen alle Seiten überprüfen, die auf der Fehler Abschnitt und korrigieren Sie diese so schnell wie möglich, da Sie möglicherweise die Möglichkeit verlieren, Traffic auf Ihre Website zu lenken.

Wenn Sie Zeit haben, schauen Sie sich die Seiten an, die im Staat Gültig mit Warnung da es einige wichtige Seiten geben kann, die unter keinen Umständen in den Suchergebnissen fehlen dürfen.

Stellen Sie schließlich sicher, dass die ausgeschlossen Seiten sind diejenigen, die nicht indiziert werden sollen.

Schritt 2: Wie können die Probleme gelöst werden, die in jedem der Indexabdeckungsstatus gefunden wurden?

Sobald Sie den Indexabdeckungsbericht öffnen, wählen Sie den gewünschten Status (Fehler, gültig mit Warnungen oder ausgeschlossen) und sehen Sie sich die Details unten auf der Seite an. Sie finden eine Liste von Fehlerarten nach ihrer Schwere und die Anzahl der betroffenen Seiten, Wir empfehlen daher, mit der Untersuchung der Themen von der Spitze der Tabelle aus zu beginnen.

Sehen wir uns jeden der Fehler in verschiedenen Status an und wie Sie sie beheben können. 

Fehlerstatus

Fehlerseiten im GSC-Coverage-Bericht

 

Server-Fehler (5xx):

Dies sind URLs, die einen 5xx-Statuscode an Google zurückgeben.

Zu ergreifende Maßnahmen:

  • Prüfen Sie, welche Art von 500-Statuscode zurückgegeben wird . Hier haben Sie eine vollständige Liste mit der Definition für jeden Serverfehler-Statuscode.
  • Laden Sie die URL erneut, um zu sehen, ob der Fehler weiterhin besteht. 5xx-Fehler sind temporär und erfordern keine Maßnahmen.
  • Stellen Sie sicher, dass Ihr Server nicht überlastet oder falsch konfiguriert ist. Bitten Sie in diesem Fall Ihre Entwickler um Hilfe, oder wenden Sie sich an Ihren Hosting-Provider.
  • Führen Sie eine Protokolldateianalysedurch, um die Fehlerprotokolle für Ihren Server zu überprüfen. Diese Praxis liefert Ihnen zusätzliche Informationen über das Problem.
  • Überprüfen Sie die Änderungen, die Sie kürzlich an Ihrer Website vorgenommen haben, um festzustellen, ob eine davon die Ursache sein könnte. z.B. Plugins, neuer Backend-Code usw.

Fehler umleiten:

GoogleBot ist während des Umleitungsprozesses auf einen Fehler gestoßen, der es nicht erlaubt, die Seite zu crawlen. Dieses Problem wird häufig durch einen der folgenden Gründe verursacht.

  • Eine zu lange Umleitungskette
  • Eine Umleitungsschleife
  • Eine Umleitungs-URL, die die maximale URL-Länge überschritten hat
  • Es gab eine falsche oder leere URL in der Umleitungskette

Zu ergreifende Maßnahmen:

  • Beseitigen Sie die Umleitungsketten und -schleifen. Lassen Sie jede URL nur eine Umleitung durchführen. Mit anderen Worten, eine Umleitung von der ersten zur letzten URL.

Eingereichte URL, die von Robots.txt blockiert wird:

Hierbei handelt es sich um URLs, die Sie an Google übermittelt haben, indem Sie eine XML-Sitemap in die Google-Suchkonsole hochgeladen haben, die jedoch durch die Datei Robots.txt blockiert wurden.

Zu ergreifende Maßnahmen:

Prüfen Sie, ob Sie möchten, dass Suchmaschinen die betreffende Seite indizieren oder nicht.

  • Wenn Sie nicht möchten, dass sie indiziert wird, laden Sie eine XML-Sitemap hoch und entfernen Sie die URL.
  • Im Gegenteil, wenn Sie möchten, dass es indiziert wird, ändern Sie die Richtlinien in der Robots.txt. Hier ist ein Leitfaden zum Bearbeiten von robots.txt.

Eingereichte URL mit "noindex" gekennzeichnet:

Diese Seiten wurden über eine XML-Sitemap an Google übermittelt, aber sie haben eine "noindex"-Anweisung entweder im Meta-Robots-Tag oder in HTTP-Headern.

Zu ergreifende Maßnahmen:

  • Wenn Sie möchten, dass die URL indiziert wird, sollten Sie die noindex-Direktive
  • Wenn es URLs gibt, die Google nicht indizieren soll, entfernen Sie sie aus der XML-Sitemap.

Die eingereichte URL scheint eine Soft 404 zu sein:

Die URL, die Sie über eine XML-Sitemap zur Indexierung eingereicht haben, gibt eine weiche 404 zurück. Dieser Fehler tritt auf, wenn der Server einen 200-Statuscode zu einer Anfrage zurückgibt, Google jedoch der Ansicht ist, dass eine 404 angezeigt werden sollte. Mit anderen Worten, die Seite sieht für Google wie ein 404-Fehler aus. In einigen Fällen kann es daran liegen, dass die Seite keinen Inhalt hat, falsch erscheint oder für Google von geringer Qualität ist. 

Zu ergreifende Maßnahmen:

  • Untersuchen Sie, ob diese URLs einen (echten) 404-Statuscode zurückgeben sollten. Entfernen Sie sie in diesem Fall aus der XML-Sitemap.
  • Wenn Sie feststellen, dass sie keinen Fehler zurückgeben sollten, stellen Sie sicher, dass Sie auf diesen Seiten geeignete Inhalte bereitstellen. Vermeiden Sie dünnen oder doppelten Inhalt. Vergewissern Sie sich, dass die Weiterleitungen korrekt sind, falls es sie gibt.

Eingereichte URL gibt nicht autorisierte Anfrage zurück (401):

Die über eine XML-Sitemap an Google übermittelte URL gibt einen 401-Fehler zurück. Dieser Statuscode zeigt Ihnen an, dass Sie nicht berechtigt sind, auf die URL zuzugreifen. Möglicherweise benötigen Sie einen Nutzernamen und ein Passwort, oder es bestehen Zugriffsbeschränkungen aufgrund der IP-Adresse.

Zu ergreifende Maßnahmen:

  • Prüfen Sie, ob die URLs eine 401 zurückgeben sollen. Eliminieren Sie sie in diesem Fall aus der XML-Sitemap.
  • Wenn Sie nicht möchten, dass sie einen 401-Code anzeigen, entfernen Sie die HTTP-Authentifizierung, falls es eine gibt. 

Eingereichte URL nicht gefunden (404):

Sie haben die URL zu Indizierungszwecken an die Google-Suchkonsole übermittelt, aber Google kann sie aufgrund eines anderen als der oben genannten Problemenicht crawlen

Zu ergreifende Maßnahmen:

  • Prüfen Sie, ob die Seite indiziert werden soll oder nicht. Wenn die Antwort ja ist, korrigieren Sie sie, so dass sie einen Statuscode von 200 zurückgibt. Sie können der URL auch einen 301-Redirect zuweisen, so dass sie eine entsprechende Seite anzeigt. Denken Sie daran, dass Sie, wenn Sie sich für eine Umleitung entscheiden, die zugewiesene URL zur XML-Sitemap hinzufügen und diejenige, die eine 404 ergibt, entfernen müssen.   
  • Wenn Sie nicht möchten, dass die Seite indiziert wird, entfernen Sie sie aus der XML-Sitemap.

Die übermittelte URL hat ein Crawl-Problem: 

Sie haben die URL zu Indexierungszwecken an GSC übermittelt, aber sie kann aufgrund eines anderen Problems als der oben genannten nicht von Google gecrawlt werden. 

Zu ergreifende Maßnahmen:

  • Verwenden Sie das URL-Inspektions-Tool, um weitere Informationen über die Ursache des Problems zu erhalten.
  • Manchmal sind diese Fehler vorübergehend, so dass sie keine Maßnahmen erfordern.

Gültig mit Warnstatus

Gültig mit Warnungen

Diese Seiten werden indiziert, obwohl sie von robots.txt blockiert werden. Google versucht immer, die in der Datei robots.txt angegebenen Anweisungen zu befolgen. Manchmal verhält es sich jedoch anders. Dies kann zum Beispiel passieren, wenn jemand auf die angegebene URL verlinkt.

Sie finden die URLs in dieser Kategorie, weil Google bezweifelt, ob Sie diese Seiten in den Suchergebnissen blockieren möchten

Zu ergreifende Maßnahmen: 

  • Google empfiehlt nicht, die robots.txt-Datei zu verwenden, um die Seitenindizierung zu vermeiden. Wenn Sie stattdessen nicht möchten, dass diese Seiten indiziert werden, verwenden Sie stattdessen den noindex in den Meta-Robots oder einen HTTP-Antwort-Header.
  • Eine weitere gute Praxis, um Google am Zugriff auf die Seite zu hindern, ist die Implementierung einer HTTP-Authentifizierung.
  • Wenn Sie die Seite nicht blockieren möchten, nehmen Sie die erforderlichen Korrekturen in der Datei robots.txt vor.
  • Sie können erkennen, welche Regel eine Seite blockiert, indem Sie die robots.txt-Tester.

Natzir Turrado,
FandangoSEO-Berater
Technischer SEO Freiberufler @ Natzir Turrado

Bei einer großen Migration zu SalesForce baten wir die Entwickler, die Filter, die wir nicht indizieren wollten, unzugänglich (verschleiert) zu machen. Als die Salesforce-Website live geschaltet wurde, war alles ein Erfolg. Aber als Monate später eine neue Version veröffentlicht wurde, wurde die Verschleierung versehentlich unterbrochen. Dies löste alle Alarme aus, da es in nur sieben Tagen ~17,5 Millionen Googlebot-Mobile-Anfragen und ~12,5 Millionen Googlebot/2.1 sowie einen Cache mit einer Trefferquote von 2% gab. Unten können Sie in der Suchkonsole sehen, wie die von Robots indizierten, aber blockierten Seiten zunahmen.


Deshalb empfehle ich, die Protokolle kontinuierlich zu überwachen und den GSC Coverage Report zu überprüfen (obwohl Sie jedes Problem früher erkennen werden, wenn Sie die Protokolle überprüfen). Und denken Sie daran, dass die robots.txt die Indizierung von Seiten nicht verhindert. Wenn Sie möchten, dass Google eine URL nicht crawlt, ist es am besten, die URL unzugänglich zu machen!

Ausgeschlossener Status

Ausgeschlossene Seiten im GSC-Coverage-Bericht

Diese Seiten werden in den Suchergebnissen nicht indiziert, und Google ist der Ansicht, dass dies das Richtige ist. Dies könnte zum Beispiel daran liegen, dass es sich um doppelte Seiten von indizierten Seiten handelt oder dass Sie den Suchmaschinen Richtlinien für die Indizierung Ihrer Website geben.

Der Deckungsbericht zeigt Ihnen 15 Situationen, in denen Ihre Seite ausgeschlossen werden kann.

 

Ausgeschlossen durch 'noindex'-Tag: 

Sie weisen Suchmaschinen an, die Seite nicht zu indizieren, indem Sie eine "Noindex"-Richtlinie angeben. 

Zu ergreifende Maßnahmen: 

  • Überprüfen Sie, ob Sie die Seite tatsächlich nicht indizieren möchten. Wenn Sie möchten, dass die Seite indiziert wird, entfernen Sie den "noindex"-Tag. 
  • Sie können das Vorhandensein dieser Direktive bestätigen, indem Sie die Seite öffnen und nach "noindex" auf dem Antwortkörper und der Kopfzeile der Antwort suchen.

Durch Seitenentfernungstool blockiert: 

Yie haben einen Antrag auf URL-Entfernung für diese Seiten auf GSC gestellt.

Zu ergreifende Maßnahmen:

  • Google kümmert sich nur 90 Tage lang um diese Anfrage. Wenn Sie die Seite also nicht indizieren möchten, verwenden Sie "noindex"-Anweisungen, implementieren Sie eine HTTP-Authentifizierung oder entfernen Sie die Seite.

Blockiert durch robots.txt: 

Sie blockieren den Zugriff von Googlebot auf diese Seiten mit der Datei robots.txt. Sie könnte jedoch trotzdem indiziert werden, wenn Google Informationen über diese Seite finden könnte, ohne sie zu laden. Möglicherweise hat Google die Seite indiziert, bevor Sie die Sperrung in robots.txt hinzugefügt haben.

Zu ergreifende Maßnahmen: 

  • Wenn Sie nicht möchten, dass die Seite indiziert wird, verwenden Sie eine "noindex"-Direktive und entfernen Sie den robots.txt-Block.

Gesperrt wegen unerlaubter Anfrage (401): 

Sie blockieren den Zugriff auf Google über eine Request-Berechtigung (401 Antwort). 

Zu ergreifende Maßnahmen: 

  • Wenn Sie GoogleBot den Besuch der Seite erlauben möchten, entfernen Sie die Autorisierungsanforderungen. 

Kriech-Anomalie: 

Die Seite wurde aufgrund eines 4xx- oder 5xx-Fehlerantwort-Codes nicht indiziert.

Zu ergreifende Maßnahmen: 

  • Verwenden Sie das URL-Inspektions-Tool, um weitere Informationen über die Probleme zu erhalten.

Gekrabbelt - Derzeit nicht indexiert

Diese Seite wurde von GoogleBot gecrawlt, aber nicht indiziert. Sie kann in Zukunft indiziert werden oder auch nicht. Es ist nicht erforderlich, diese URL zum Crawling zu übermitteln..

Zu ergreifende Maßnahmen:

  • Wenn Sie möchten, dass die Seite in den Suchergebnissen indiziert wird, stellen Sie sicher, dass Sie wertvolle Informationen zur Verfügung stellen.  

Entdeckt - Derzeit nicht indexiert:

Google hat diese Seite gefunden, aber es ist ihm noch nicht gelungen, sie zu durchsuchen. Diese Situation tritt in der Regel deshalb auf, weil die Website überlastet war, als GoogleBot versuchte, die Seite zu crawlen. Das Crawling wurde für einen anderen Zeitpunkt geplant.

Es besteht kein Handlungsbedarf.

 

Alternative Seite mit dem richtigen kanonischen Tag:

Diese Seite verweist auf eine kanonische Seite, so dass Google versteht, dass Sie diese nicht indizieren möchten.

Zu ergreifende Maßnahmen:

  • Wenn Sie diese Seite indizieren möchten, müssen Sie die rel=kanonische Attribute um Google die gewünschten Richtlinien zu geben.

Duplizieren ohne vom Benutzer gewählte kanonische 

Die Seite hat Dubletten, aber keine von ihnen ist als kanonisch gekennzeichnet. Google ist der Ansicht, dass diese Seite nicht als kanonisch gekennzeichnet ist. 

Zu ergreifende Maßnahmen:

Duplikat, Google wählte andere kanonische als Benutzer: 

Sie haben diese Seite als kanonisch markiert, aber Google hat stattdessen eine andere Seite indiziert, die der Meinung ist, dass sie besser als kanonisch funktioniert. 

Zu ergreifende Maßnahmen:

  • Sie können der Wahl von Google folgen. Markieren Sie in diesem Fall die indizierte Seite als kanonisch und diese als Duplikat der kanonischen URL.
  • Falls nicht, finden Sie heraus, warum Google eine andere Seite der von Ihnen gewählten vorzieht, und nehmen Sie die erforderlichen Änderungen vor.. Verwenden Sie das URL-Inspektions-Tool, um die von Google ausgewählte "kanonische Seite" zu ermitteln.

Ferran Gavin,
SEO-Manager @ Softonic

Eine der merkwürdigsten "Fehlschläge", die wir mit dem Index Coverage Report erlebt haben, war die Feststellung, dass Google unsere Kanonicals nicht korrekt verarbeitet hat (und wir hatten es jahrelang falsch gemacht!). Google zeigte in der Suchkonsole an, dass die angegebene Kanonicale ungültig war, wenn die Seite perfekt formatiert war. Am Ende stellte sich heraus, dass es sich um einen Fehler von Google selbst handelte, der von Gary Ilyes bestätigt wurde.

 

Nicht gefunden (404): 

Die Seite gibt einen 404-Fehlerstatuscode zurück, wenn Google eine Anfrage stellt. GoogleBot hat die Seite nicht über eine Sitemap gefunden, sondern wahrscheinlich über eine andere Website, die auf die URL verweist. Es ist auch möglich, dass diese URL bereits in der Vergangenheit existierte und entfernt wurde. 

Zu ergreifende Maßnahmen:

  • Wenn die 404-Antwort beabsichtigt ist, können Sie sie so lassen, wie sie ist. Es wird Ihrer SEO-Leistung nicht schaden. Wenn die Seite jedoch verschoben wurde, implementieren Sie eine 301-Umleitung.

Seite wegen Rechtsbeschwerde entfernt: 

Diese Seite wurde aus dem Index gestrichen aufgrund einer Rechtsbeschwerde.

Zu ergreifende Maßnahmen: 

  • Untersuchen Sie, gegen welche gesetzlichen Bestimmungen Sie möglicherweise verstoßen haben, und ergreifen Sie die erforderlichen Maßnahmen, um dies zu korrigieren.

Seite mit der Umleitung: 

Diese URL ist ein Redirect und wurde daher nicht indiziert.

Zu ergreifende Maßnahmen:

  • Wenn die URL nicht umgeleitet werden sollte, entfernen Sie die Umleitungsimplementierung. 

Weiche 404: 

Die Seite gibt das zurück, was Google für eine weiche 404-Antwort hält. Die Seite wird nicht indiziert, da sie zwar einen 200-Statuscode angibt, nach Ansicht von Google jedoch eine 404 zurückgeben sollte

Zu ergreifende Maßnahmen:

  • Überprüfen Sie, ob Sie der Seite eine 404 zuweisen sollten, wie von Google vorgeschlagen.
  • Fügen Sie der Seite wertvollen Inhalt hinzu, um Google wissen zu lassen, dass es sich nicht um eine Soft 404 handelt.

Doppelte, eingereichte URL nicht als kanonisch ausgewählt: 

Sie haben die URL zur Indexierung an GSC übermittelt. Sie wurde jedoch nicht indiziert, da die Seite Duplikate ohne kanonische Tags aufweist und Google der Ansicht ist, dass es einen besseren Kandidaten für kanonische Tags gibt. 

Zu ergreifende Maßnahmen:

  • Entscheiden Sie, ob Sie Googles Wahl für die kanonische Seite folgen wollen. In diesem Fall weisen Sie die rel=kanonische Attribute um auf die von Google ausgewählte Seite zu verweisen.
  • Sie können das URL-Prüfwerkzeug verwenden, um zu sehen, welche Seite von Google als kanonische Seite ausgewählt wurde.
  • Wenn Sie diese URL als kanonische URL wünschen, analysieren Sie, warum Google die andere Seite bevorzugt. Bieten Sie mehr hochwertigen Inhalt auf der Seite Ihrer Wahl an.

Schritt 3. Index-Coverage-Bericht Häufigste Themen

Jetzt kennen Sie die verschiedenen Arten von Fehlern, die Sie im Indexabdeckungsbericht finden können, und wissen, welche Maßnahmen Sie ergreifen müssen, wenn Sie auf jeden dieser Fehler stoßen. Im Folgenden erhalten Sie einen kurzen Überblick über die am häufigsten auftretenden Probleme.

Mehr ausgeschlossene als gültige Seiten

Manchmal können Sie mehr ausgeschlossene als gültige Seiten haben. Dieser Umstand ist in der Regel bei großen Sites gegeben, die eine signifikante URL-Änderung erfahren haben. Es handelt sich wahrscheinlich um eine alte Site mit einer langen Geschichte, oder der Webcode wurde geändert.

Wenn Sie einen signifikanten Unterschied zwischen der Seitenzahl der beiden Status (Ausgeschlossen und Gültig) haben, haben Sie ein schwerwiegendes Problem. Beginnen Sie mit der Durchsicht der ausgeschlossenen Seiten, wie wir oben erklären. 

 

Esteve Castells

Esteve Castells,
Gruppen-SEO-Manager @ Adevinta

Das größte Problem, das ich je im Bericht über die Berichterstattung gesehen habe, ist eine der von mir verwalteten Websites, die am Ende 5 Milliarden ausgeschlossene Seiten hatte. Ja, Sie haben es richtig gelesen, 5 Milliarden Seiten. Die facettierte Navigation wurde völlig verrückt, und für jeden Seitenaufruf erstellten wir 20 neue URLs, die von Googlebot gecrawlt werden sollten.

Das endete als der teuerste Fehler in Sachen Kriechen, den es je gab. Wir mussten über die robots.txt die facettierten Navigations-URLs komplett sperren, da Googlebot unseren Server mit mehr als 25 Millionen Zugriffen pro Tag lahmlegte.

 

Fehlerspitzen

Wenn die Anzahl der Fehler exponentiell ansteigt, müssen Sie den Fehler überprüfen und so schnell wie möglich beheben. Google hat ein Problem entdeckt, das die Leistung Ihrer Website stark beeinträchtigt. Wenn Sie das Problem heute nicht beheben, werden Sie morgen erhebliche Probleme haben.

Server-Fehler

StellenSie sicher, dass diese Fehler nicht 503 (Service Unavailable) sind. Dieser Statuscode bedeutet, dass der Server die Anfrage aufgrund einer vorübergehenden Überlastung oder Wartung nicht bearbeiten kann. Zuerst sollte der Fehler von selbst verschwinden, aber wenn er weiterhin auftritt, müssen Sie sich das Problem ansehen und es lösen.

Wenn Sie andere Arten von 5xx-Fehlern haben, empfehlen wir Ihnen, in unserem Leitfaden nachzusehen, welche Maßnahmen Sie in jedem Fall ergreifen müssen.

404 Fehler

Es scheint, als hätte Google einen Bereich Ihrer Website entdeckt, der 404 - nicht gefundene Seiten - generiert. Wenn der Umfang erheblich zunimmt, lesen Sie unseren Leitfaden, um defekte Links zu finden und zu beheben.

Fehlende Seiten oder Sites

Wenn Sie eine Seite oder eine Website in dem Bericht nicht sehen können, kann dies mehrere Gründe haben.

  1. Google hat es noch nicht entdeckt. Wenn eine Seite oder Website neu ist, kann es einige Zeit dauern, bis Google sie findet. Reichen Sie eine Sitemap- oder Page-Crawl-Anfrage ein, um den Indizierungsprozess zu beschleunigen. Stellen Sie außerdem sicher, dass die Seite nicht verwaist und von der Website verlinkt ist.
  2. Google kann aufgrund einer Anmeldeanfrage nicht auf Ihre Seite zugreifen. Entfernen Sie die Autorisierungsanforderungen, damit GoogleBot die Seite crawlen kann.
  3. Die Seite hat ein noindex-Tag oder wurde aus irgendeinem Grund aus dem Index entfernt. Entfernen Sie den noindex-Tag und stellen Sie sicher, dass Sie wertvolle Inhalte auf der Seite bereitstellen.

"Eingereicht aber/ Eingereicht und" Fehler und Ausschlüsse

Dieses Problem tritt bei Inkongruenzen auf. Wenn Sie eine Seite über eine Sitemap senden, müssen Sie sicherstellen, dass sie für die Indexierung gültig ist und mit der Site verlinkt ist.

Ihre Website sollte vor allem aus wertvollen Seiten bestehen, die es wert sind, verlinkt zu werden. 

Zusammenfassung

Hier ist eine dreistufige Zusammenfassung des Artikels "Wie man Indexabdeckungsfehler findet und behebt".  

  • Daserste, was Sie bei der Verwendung des Indexabdeckungsberichts tun möchten, ist, die Seiten zu korrigieren, die im Fehlerstatus angezeigt werden. Dieser muss 0 sein, um Google-Strafen zu vermeiden.
  • Zweitens, überprüfen Sie die ausgeschlossenen Seiten und sehen Sie nach, ob es sich um Seiten handelt, die Sie nicht indizieren möchten. Wenn dies nicht der Fall ist, befolgen Sie unsere Richtlinien, um die Probleme zu lösen.
  • Wenn Sie Zeit haben, empfehlen wir Ihnen dringend, die gültigen Seiten mit einer Warnung zu überprüfen. Vergewissern Sie sich, dass die Richtlinien, die Sie in der robots.txt angeben, korrekt sind und dass es keine Inkonsistenzen gibt.

Wir hoffen, Sie finden es hilfreich! Lassen Sie uns wissen, wenn Sie Fragen zum Indexdeckungsbericht haben. Wir würden uns auch freuen, wenn Sie uns in den untenstehenden Kommentaren Tipps geben könnten.

Verbreite die Liebe

Weitere großartige Artikel

defekte Links

Der einfachste Weg, defekte Links zu finden. Beheben Sie es sofort mit FandangoSEO.

Links, auch Hyperlinks genannt, sind Website-Elemente, die in der Regel aus Text oder Bildern bestehen, die den Benutzer bei ihrer Auswahl zu...

Geschichte lesen
Magento Website SEO-Leitfaden

Magento SEO: Vollständiger Leitfaden mit 9 umsetzbaren Tipps

Magento gehört derzeit zu den von den Betreibern von Online-Shopping-Websites am häufigsten gewählten Plattformen. Es ist zweifellos ein leistungsfähiges E-Commerce-CMS...

Geschichte lesen
AMP-Aktualisierungen

AMP Letzte Updates

Mobile Navigation ist ein Trend. Nicht allzu viele Menschen sitzen vor einem Computer, um das Internet zu checken, aber...

Geschichte lesen
Pfeil nach oben