Die Google Webmaster Tools sind jetzt offiziell "Out of Beta" und damit endlich in einer reifen Version auf dem Suchmaschinen-Markt. Zu diesem Anlass blickt der dazugehörige deutsche Webmaster-Blog noch einmal stolz auf die Vergangenheit der Tools zurück. Außerdem erlaubt der Blog als einer der ersten Google-Blogs jetzt auch Kommentare. Anfangs als Google Sitemaps gestartet wurde das Angebot im August letzten Jahres in Google Webmaster Tools umbenannt. Den Grund dafür hat Google 3 Monate später geliefert, nämlich die Öffnung des Sitemap-Protokolls und die dazugehörige Partnerschaft mit Yahoo! und Microsoft. Außerdem sind die Webmaster Tools bei ihren letzten Updates immer mehr auch zu einem Auswertungsportal für Webmaster geworden und beschränken sich schon längst nicht mehr auf die reine Sitemap. Leider hat sich außer der Entfernung des Beta-Labels und der Öffnung der Kommentare nichts anderes getan. Im Blog-Artikel heißt es aber "und das ist erst der Anfang" - das lässt doch für baldige Update hoffen ;-) » Alle Sitemaps-Artikel » Alle Webmaster Tools-Artikel » Ankündigung im Webmaster Tools-Blog
Schlagwort: google-webmaster-tools
Die Google Webmaster Tools sind jetzt offiziell "Out of Beta" und damit endlich in einer reifen Version auf dem Suchmaschinen-Markt. Zu diesem Anlass blickt der dazugehörige deutsche Webmaster-Blog noch einmal stolz auf die Vergangenheit der Tools zurück. Außerdem erlaubt der Blog als einer der ersten Google-Blogs jetzt auch Kommentare. Anfangs als Google Sitemaps gestartet wurde das Angebot im August letzten Jahres in Google Webmaster Tools umbenannt. Den Grund dafür hat Google 3 Monate später geliefert, nämlich die Öffnung des Sitemap-Protokolls und die dazugehörige Partnerschaft mit Yahoo! und Microsoft. Außerdem sind die Webmaster Tools bei ihren letzten Updates immer mehr auch zu einem Auswertungsportal für Webmaster geworden und beschränken sich schon längst nicht mehr auf die reine Sitemap. Leider hat sich außer der Entfernung des Beta-Labels und der Öffnung der Kommentare nichts anderes getan. Im Blog-Artikel heißt es aber "und das ist erst der Anfang" - das lässt doch für baldige Update hoffen ;-) » Alle Sitemaps-Artikel » Alle Webmaster Tools-Artikel » Ankündigung im Webmaster Tools-Blog
Neben den reinen Besucherzahlen möchte ein Webmaster über seine eigene Website natürlich Informationen wie möglich haben. Googles Webmaster Tools können mit jeder Menge Informationen aufwarten, etwa bei welchen Suchanfragen die eigene Webseite ganz oben steht und wie oft dies schon zu einem Besuch geführt hat. Seit neuestem zeigen die Webmaster Tools eine noch bessere Verlinkungsstatistik der eigenen Website an. Eines der Hauptfaktoren für den PageRank ist der Verlinkungstext. Nicht nur die reine Verlinkung von vielen Seiten zählt, sondern auch mit welchen Worten die Website verlinkt worden ist. Würden jetzt z.B. alle Webmaster diesen Link BILD in ihre Website einbauen wäre Bildblog eines Tages ganz oben in dieser Suchanfrage. Klar, das dieser Verlinkungstext auch für den Webmaster interessant ist.
Unter Statistics -> Page Analysis zeigen die Webmaster Tools jetzt genau diesen Text, mit dem die eigene Webseite verlinkt ist, an. Daran kann man schon selbst sehr gut sehen warum man bei einigen Suchanfragen ganz weit oben und bei einigen vielleicht ganz weit unten steht. Außerdem kann man als Webmaster so sehr gut sehen wie die eigene Website im Web aufgenommen und angesehen wird. Leider zeigen die Tools noch nicht an wie oft die eigene Seite mit welchen Worten verlinkt worden ist. Bei mir steht "GoogleWatchBlog" als Verlinkungstext natürlich ganz oben - klar - aber wie oft der Blog mit diesem Wort verlinkt ist ist leider nicht herauszubekommen, aber ich denke das wird demnächst noch nachgerüstet. Auf jeden Fall mal wieder eine schöne Neuerung für die Webmaster Tools ;-) » Ankündigung im Webmaster Tools Blog
Durch eine Lücke im neuen Link-Tool der Webmaster Tools war es bis vor wenigen Stunden auch möglich die Statistiken von fremden Webseiten einzusehen. Zwar handelt es sich dabei nicht wirklich um eine Sicherheitslücke und stellt keine Gefahr da, aber trotzdem hat Google diese Lücke schnell geschlossen - schade eigentlich. Durch eine kleine Änderung in der URL konnte man die Daten von jeder beliebigen Seite ansehen:
https://www.google.com/webmasters/tools/ externallinks?siteUrl= http%3A%2F%2Fblog.outer-court.com%2F&hl=en& bplink=http%3A%2F%2Fblog.outer-court.comersetzen durch:
https://www.google.com/webmasters/tools/ externallinks?siteUrl= http%3A%2F%2Fblog.outer-court.com%2F&hl=en& bplink=http%3A%2F%2Fwww.google.comIch fände es sehr interessant wenn Google diese Daten weiterhin zugänglich machen würde - nur nicht an dieser Stelle. Es wäre doch eine nette Erweiterung für alle Webmaster, wenn man seine eigenen Daten mit denen der Konkurrenz vergleichen kann. Für alle interessierten hat Philipp Lenssen die Verlinkungsanzahl von einigen großen Webseiten in seinem Blog veröffentlicht. » Verlinkungszahlen bei Philipp Lenssen
Um herauszufinden wieviele Links auf die eigene Webseite verweisen reicht es aus eine einfache link:-Abfrage in der Google-Suche vorzunehmen. Leider sind diese Daten sehr lückenhaft und sagen nur sehr wenig aus. Eine sehr viel bessere Möglichkeit bieten jetzt die Google Webmaster Tools mit dem neuen LinkCheck-Tool.
Die Webmaster Tools unterscheiden anfangs, sehr wichtig, zwischen internen und externen Links zu den eigenen Webseiten. Wirklich aussagekräftig sind natürlich nur die externen Links, da man intern ja mit wenigen Handgriffen Millionen von Links erzeugen kann. In der Tabelle werden die verlinkten Webseiten mit der Anzahl der Links aufgelistet. Ein Klick auf die entsprechende Webseite zeigt, welche Seite hier her verlinkt. Außerdem werden auch interne Links angezeigt, die der Webmaster natürlich im Grunde selbst zu verantorten hat. Nützlich für die Auswertung sind diese Daten zwar nicht, aber man kann sehr schön sehen welche Webseite man wie oft im eigenen Netzwerk verlinkt hat und welche vielleicht noch den einen oder anderen Link vertragen könnte. Die Daten die die Webmaster Toosl für diese Auswertung verwenden unterscheiden sich bei mir völlig von denen der Websuche. Laut Websuche verweisen 474 Webseiten auf den GWB. Laut den Tools sind es aber ganze 195888 - wem darf ich nun glauben? Außerdem kommen die Tools anscheinend nicht mit der URL-Umschreibung klar, so wird zumindest bei mir immer der Direktlink zu einer Webseite angezeigt statt der schönen umgeschriebenen Version. Das Google so eine Funktion in die Webmaster Tools integriert war wirklich längst überfällig, und es ist gut dass sie jetzt endlich da ist. Das dafür ein neuer Bereich eingerichtet wurde lässt darauf hoffen dass die Auswertung in Zukunft noch verbessert werden soll. Diagramme wären nicht schlecht, vor allem wenn man sich oft gegenseitig verlinkt. » Google Webmaster Tools » Ankündigung im Webmaster-Blog » Ankündigung im Google-Blog Nachtrag: » Neues Link-Tool zeigte Daten von fremden Domains an
Googles Webmasterzentrale hat wieder einige interessante Updates spendiert bekommen: Dabei handelt es sich sowohl um erweiterte Auswertungen und Statistiken als auch einige Einstellungsmöglichkeiten für die eigene Domain. So kann jetzt z.B. eingestellt werden wie oft der GoogleBot auf der eigenen Webseite vorbeischauen soll - allerdings alles auf eigene Gefahr. GoogleBot-Aktivitäten In 3 Diagrammen kann der Webmaster jetzt sofort sehen wieviele Webseiten der Bot jeden Tag besucht, wieviele Datenmengen er dabei herunterlädt und wie lange er dafür ungefährt braucht. Wenn diese Werte fallend statt steigend sind sollte man sich Sorgen machen, zumindest als Content-Lieferer - denn dann sind irgendwelche Webseiten nicht mehr richtig verlinkt. Unglaubwürdige Werte Bei mir tauchen hier allerdings einige sehr merkwürdige Werte auf die ich nicht so ganz glauben kann. Laut Statistik crawlt Google jeden Tag 4241 Seiten in diesem Blog - okay, das ist soweit möglich - aber nicht jeden Tag. Und jetzt der schlimmste Wert: Google lädt jeden Tag 188,93 MB an Daten von diesem Blog herunter. Zur Spitzenzeit waren es sogar 414.727 MB. Soll ich das wirklich glauben? Das würde die Traffic-Grenzen des Servers nämlich brechen... Nur bei der Antwortzeit muss ich Google leider recht geben, knapp 1 Sekunde pro Seite - es steht wohl so langsam der Wechsel auf einen leistungsfähigeren Server an... Crawl-Geschwindigkeit einstellen Jeder Webmaster hat jetzt die Wahl zwischen schnellem, normalem und langsamen Crawling der eigenen Webseite. Wer einen starken Server besitzt sollte hier natürlich auf Faster stellen, denn so kann man schon innerhalb von 24 im Google-Index auftauchen, was bei aktuellen Themen sehr wichtig ist - langsamere Server oder Seiten die nur selten upgedatet werden können den Bot auch auf langsam einstellen. Alle anderen sollten bei normal bleiben. Standardmäßig stellt Google einen Wert ein der dem Server angemessen ist. Anhand der Antwortzeiten stellt der Bot fest ob der Server vom GoogleBot überlastet ist oder nicht und verändert die Geschwindigkeit von sich aus. Ich wusste garnicht dass der Bot so intelligent ist, aber es ist nett von Google dass sie nicht die gesamte Bandbreite eines Servers fressen wollen ;-) Erweiterte Bildersuche Mit einer kleinen CheckBox kann jeder Webmaster einwilligen seine Fotos durch Programme wie den Google Image Labeler weiter sortieren und auswerten zu lassen. Was passiert wenn die Box deaktiviert ist (was sie standardmäßig auch ist) weiß ich nicht, ich denke in der Bildersuche tauchen die Fotos trotzdem alle auf - ansonsten könnte diese demnächst sehr leer werden. Anzahl der Sitemap-URLs In der Sitemap-Übersicht wird nun auch angezeigt wieviele URLs sich in der eigenen Sitemap befinden. Leider kann keine Liste mit den eingetragenen URLs angesehen werden, denn das wäre noch sehr viel interessanter. Bei mir sind zur Zeit knapp 1800 URLs eingetragen, das deckt sich sehr grob mit der Anzahl der Artikel in diesem Blog. Die Anzahl der Artikel liegt derzeit bei knapp 2.000. Fazit Wieder einmal sehr interessante Neuerungen, vorallem die GoogleBot-Statistiken und die dazugehörige Geschwindigkeitseinstellung. Ganz unbewusst werden Webmaster so langsam gezwungen sich bei Sitemaps zu registrieren und eine eigene Sitemap anzulegen - denn ohne diese können die ganzen Einstellungen, die sicherlich irgendwann überlebenswichtig für eine Webseite sind, nicht vorgenommen werden. Außerdem wird der Trend, nur noch für Google zu optimieren, noch weiter ausgebaut - kluger Schachzug, aber schlecht für die Konkurrenz - die müssen nun erstmal nachziehen. » Ankündigung im Webmaster Tools Blog
Die Google Sitemaps wurden mal wieder einem kleinen Update unterzogen, welches aber keine wirklichen Neuerungen sondern nur Verbesserungen der vorhandenen Funktionen und eine neu eingeführte Feedback-Funktion gibt - Sozusagen also ein Update der zuletzt eingeführten Funktionen. Crawling-Fehler Bisher haben die Sitemaps nur 10 Crawling-Fehler und die dazu gehörende URL in einer Liste angezeigt, das ist bei großen Seiten (wie dem Blog hier z.B., mit über 2000 Seiten) nicht wirklich hilfreich. Daher werden ab sofort ALLE Fehler angezeigt die der GoogleBot entdeckt. Um dies zu bewerkstelligen muss vorher aus einer Liste die Art von Fehler ausgewählt werden, und erst dann werden die betreffenden Webseiten angezeigt. Praktischerweise kann diese Datei auch gleich als CVS-Datei heruntergeladen werden - dann kann sie bspw. in Google Spreadsheets importiert, geöffnet und genauer studiert werden. Wer sucht von wo aus wonach? Wohl inspiriert von Google Trends, können die Sitemaps nun nicht mehr nur anzeigen wonach gesucht wurde und wie oft die Webseite über das jeweilige Suchergebnis aufgerufen wurde, sondern es kann auch nach Herkunftsort und Suchtyp gestaffelt werden. Eine längst überfällige Erweiterung, darauf habe ich selbst schon gewartet. Weiteres - Außerdem wurde die Anzahl der Anzeige der am häufigsten auf der Website vorkommenden Wörter erhöht. Von 20 auf 75. In diesem Blog ist es übrigens das Wort "Google" :-D. Außerdem wurden die Worte "http" und "www" herausgefiltert - ebenfalls längst überfällig. - Ab sofort können pro Account bis zu 500 Sitemaps hochgeladen werden. Vorher lag das Limit bei 200 Seiten. - Der robots.txt-Test zeigt nun auch an, ob eventuell der Google-Ad-Bot ausgesperrt wird. In diesem Fall kann keine AdSense-Werbung auf dieser Webseite angezeigt werden. Feedback Außerdem prangen neben jeder einzelnen Funktion jetzt 3 Smileys, mit denen die Nützlichkeit dieser Funktion bewertet werden kann. Die Sitemaper sind sich wohl noch nicht so recht im klaren darüber was die Sitemaps nun eigentlich sind und was es bieten soll. Daher ist anzunehmen das unbeliebte Dinge bald herausfliegen oder grundlegend geändert werden. Siehe auch » Neue Statistiken für Google Sitemaps » Ankündigung im Sitemaps-Blog