Die Statistiken rund um die eigene Webseite innerhalb der Google Webmaster Tools sind mal wieder um eine Information reicher geworden: Schon seit langer Zeit wird angezeigt, welche Webseiten für diese Domain irgendwo im Web verlinkt sind, aber nicht existieren. Bisher eine nette Information, aber nicht wirklich hilfreich. Seit gestern wird nun auch angezeigt von wo dieser Link gekommen ist.
In der Kategorie Diagnostics->Web Crawl->Not Found wird eine Liste aller URLs angezeigt die zwar verlinkt sind, aber nicht existieren. Zusätzlich dazu wird jetzt angezeigt von wievielen Webseiten auf diese Seite verlinkt worden ist und um welche es sich dabei handelt. Außerdem wird angezeigt, wann dieser Link das erste mal vom GoogleBot entdeckt worden ist.
Leider ist der GoogleBot ziemlich nachtragend und scheint niemals etwas zu vergessen. Wie oben zu z.B. zu sehen hat slug.ch im November 2007 auf eine nicht existierende googlewatchblog-Seite verlinkt. Dieser Link ist natürlich längst in den unendlichen Weiten von slug verschwunden und auf jeden Fall nicht mehr über diese URL aufrufbar – dennoch zeigen die Webmaster Tools das weiterhin an. Ich denke es wäre besser solche Fehler nach einiger Zeit automatisch zu löschen.
Außerdem wäre es vielleicht nicht schlecht wenn man diese Liste filtern könnte. Einmal nach internen und externen Links – denn nur gegen die internen kann man selbst etwas tun, alles andere liegt in der Hand anderer. Außerdem wäre eine Fehlererkennung wünschenswert. Oftmals kommt in URLs eine Reihe von HTML-Tags vor oder das „%20“ (Leerzeichen) – also reine Tippfehler beim verlinken. Diese sollte man ausfiltern können und nur die „echten“ Links anzeigen die nicht (mehr) existieren.