Die Google Sitemaps wurden mal wieder einem kleinen Update unterzogen, welches aber keine wirklichen Neuerungen sondern nur Verbesserungen der vorhandenen Funktionen und eine neu eingeführte Feedback-Funktion gibt - Sozusagen also ein Update der zuletzt eingeführten Funktionen. Crawling-Fehler Bisher haben die Sitemaps nur 10 Crawling-Fehler und die dazu gehörende URL in einer Liste angezeigt, das ist bei großen Seiten (wie dem Blog hier z.B., mit über 2000 Seiten) nicht wirklich hilfreich. Daher werden ab sofort ALLE Fehler angezeigt die der GoogleBot entdeckt. Um dies zu bewerkstelligen muss vorher aus einer Liste die Art von Fehler ausgewählt werden, und erst dann werden die betreffenden Webseiten angezeigt. Praktischerweise kann diese Datei auch gleich als CVS-Datei heruntergeladen werden - dann kann sie bspw. in Google Spreadsheets importiert, geöffnet und genauer studiert werden. Wer sucht von wo aus wonach? Wohl inspiriert von Google Trends, können die Sitemaps nun nicht mehr nur anzeigen wonach gesucht wurde und wie oft die Webseite über das jeweilige Suchergebnis aufgerufen wurde, sondern es kann auch nach Herkunftsort und Suchtyp gestaffelt werden. Eine längst überfällige Erweiterung, darauf habe ich selbst schon gewartet. Weiteres - Außerdem wurde die Anzahl der Anzeige der am häufigsten auf der Website vorkommenden Wörter erhöht. Von 20 auf 75. In diesem Blog ist es übrigens das Wort "Google" :-D. Außerdem wurden die Worte "http" und "www" herausgefiltert - ebenfalls längst überfällig. - Ab sofort können pro Account bis zu 500 Sitemaps hochgeladen werden. Vorher lag das Limit bei 200 Seiten. - Der robots.txt-Test zeigt nun auch an, ob eventuell der Google-Ad-Bot ausgesperrt wird. In diesem Fall kann keine AdSense-Werbung auf dieser Webseite angezeigt werden. Feedback Außerdem prangen neben jeder einzelnen Funktion jetzt 3 Smileys, mit denen die Nützlichkeit dieser Funktion bewertet werden kann. Die Sitemaper sind sich wohl noch nicht so recht im klaren darüber was die Sitemaps nun eigentlich sind und was es bieten soll. Daher ist anzunehmen das unbeliebte Dinge bald herausfliegen oder grundlegend geändert werden. Siehe auch » Neue Statistiken für Google Sitemaps » Ankündigung im Sitemaps-Blog
Suchergebnisse für Sitemaps
Die Google Sitemaps wurden mal wieder einem kleinen Update unterzogen, welches aber keine wirklichen Neuerungen sondern nur Verbesserungen der vorhandenen Funktionen und eine neu eingeführte Feedback-Funktion gibt - Sozusagen also ein Update der zuletzt eingeführten Funktionen. Crawling-Fehler Bisher haben die Sitemaps nur 10 Crawling-Fehler und die dazu gehörende URL in einer Liste angezeigt, das ist bei großen Seiten (wie dem Blog hier z.B., mit über 2000 Seiten) nicht wirklich hilfreich. Daher werden ab sofort ALLE Fehler angezeigt die der GoogleBot entdeckt. Um dies zu bewerkstelligen muss vorher aus einer Liste die Art von Fehler ausgewählt werden, und erst dann werden die betreffenden Webseiten angezeigt. Praktischerweise kann diese Datei auch gleich als CVS-Datei heruntergeladen werden - dann kann sie bspw. in Google Spreadsheets importiert, geöffnet und genauer studiert werden. Wer sucht von wo aus wonach? Wohl inspiriert von Google Trends, können die Sitemaps nun nicht mehr nur anzeigen wonach gesucht wurde und wie oft die Webseite über das jeweilige Suchergebnis aufgerufen wurde, sondern es kann auch nach Herkunftsort und Suchtyp gestaffelt werden. Eine längst überfällige Erweiterung, darauf habe ich selbst schon gewartet. Weiteres - Außerdem wurde die Anzahl der Anzeige der am häufigsten auf der Website vorkommenden Wörter erhöht. Von 20 auf 75. In diesem Blog ist es übrigens das Wort "Google" :-D. Außerdem wurden die Worte "http" und "www" herausgefiltert - ebenfalls längst überfällig. - Ab sofort können pro Account bis zu 500 Sitemaps hochgeladen werden. Vorher lag das Limit bei 200 Seiten. - Der robots.txt-Test zeigt nun auch an, ob eventuell der Google-Ad-Bot ausgesperrt wird. In diesem Fall kann keine AdSense-Werbung auf dieser Webseite angezeigt werden. Feedback Außerdem prangen neben jeder einzelnen Funktion jetzt 3 Smileys, mit denen die Nützlichkeit dieser Funktion bewertet werden kann. Die Sitemaper sind sich wohl noch nicht so recht im klaren darüber was die Sitemaps nun eigentlich sind und was es bieten soll. Daher ist anzunehmen das unbeliebte Dinge bald herausfliegen oder grundlegend geändert werden. Siehe auch » Neue Statistiken für Google Sitemaps » Ankündigung im Sitemaps-Blog
Google erweitert seine Sitemaps mal wieder um 2 kleinere, aber nicht unwichtige, Statistik-Funktionen: Es zeigt nun die Seite mit dem höchsten Pagerank an und gibt eine nähere Erklärung der robots.txt aus. Pagerank Es wird jeweils die Seite mit dem höchsten Pagerank, die sich auf dem Server befindet, angezeigt. Das ganze wird jeweils für die letzten 3 Monate analysiert. Bei mir auf dem Server ist es natürlich in allen 3 Monaten dieser Blog hier, womit ich also leider nicht einschätzen kann ob diese Werte korrekt sind. robots.txt Auf dieser Seite wird der Inhalt der robots.txt angezeigt und etwas näher erklärt. Es wird genau dargestellt welche Seiten der Googlebot besuchen darf und welche nicht. Dabei wird interessanterweise auch der neue Googlebot-Mobile angezeigt. Siehe auch » Neue Statistiken für Google Sitemaps
Ab heute steht Google Scholar auch für den hohen Norden zur Verfügung, sprich: Dänemark, Finnland, Norwegen, Schweden. Außerdem steht der Google Sitemap-Support nun ebenfalls in diesen 4 Sprachen zur Verfügung. Fragt sich nur wann Scholar auch mal nach Deutschland kommt, aber es besteht ja Hoffnung das es nicht mehr lange dauern wird.
Vanessa Fox hat im Google Sitemaps-Blog eine neue Version der gleichnamigen Software angekündigt. Diese soll jedoch keine neuen Erweiterungen haben, es ist lediglich ein Bug in der GZip-Kompression behoben worden, welcher die Datei unnötig aufgebläht hat. Der Sitemaps-Dienst ist hier zu finden: » Sitemaps » Sitemaps-Blog » Sitemaps-Software » News zu Sitemaps
Google scheint so langsam unter die Statistiker und Analytiker zu gehen. Nachdem vor wenigen Tagen Google Analytics veröffentlicht wurde, hat nun auch Google Sitemaps ein großes Update erfahren, mit dem sich der interessierte Webmaster so einiges anzeigen lassen kann. Ganz neu ist die Statistik-Seite nicht, doch bisher gab es nicht mehr als nur ein Hinweis welche Dateien auf dem Server nicht verfügbar waren. Darauf beschränkte sich die Auskunft innerhalb der letzten Monate, ein Update war nur eine Frage der Zeit gewesen. Ich persönlich habe schon länger darauf gewartet - man kann ja schließlich nie genug Statistiken über die eigene Homepage haben. Was interessiert die Besucher? Am interesantesten dürfte die "Query"-Statistik sein, diese zeigt als erstes an bei welchen Suchvorgängen die eigene Website gelistet wird. Als zweite Information - und für Webmaster wohl wesentlich interessanter - wird auch angezeigt bei welcher Suchanfrage die User tatsächlich auf die eigene Seite gelangt sind. Dies bieten zwar viele Counter-Anbieter schon von Hause aus an, doch die Google-eigene Statistik dürfte wohl am zuverlässigsten sein. Erreichbarkeit des Servers Als zweites gibt es die "Crawl"-Statistiken. Diese zeigt an welche Rückmeldungen Google vom Webserver bekommen hat. Es ist unter anderem einsehbar wieviel Prozent der Seiten nicht erreichbar war, wieviele Seiten durch die robots.txt nicht durchsucht werden konnten, und welche Seiten einfach zu große Ladezeiten hatten. Neben dieser Statistik wird auch noch der Pagerank der einzelnen Seiten angezeigt, ebenfalls in Prozent. Dabei ordnet Google die Pageranks in "High", "Medium" und "Low" ein, oder in der Kategorie "Noch kein Pagerank ermittelt" Inhalts-Analyse Auf der 3. Seite "Page analysis" bekommt der Webmaster eine Statistik darüber in welchem Format seine Webseiten vorliegen. Dabei geht Google einmal auf den MIME-Typ ein, und als zweites mit welchem Zeichensatz die einzelnen Webseiten codiert worden sind. Was weiß Google Auf der letzten Seite kann sich der Webmaster anzeigen lassen welche Informationen Google gespeichert hat. Unter anderem welche Seiten auf die eigene verlinken, wie die Seite im Google-Cache aussieht, und welche Seiten Google als "ähnlich" zur eigenen einstuft. Dies sind zwar alles keine Informationen die ein Webmaster nicht auch ohne Google bekommen könnte, jedoch gehören sie für mich einfach dazu, und machen den Sitemap-Service sicherlich für viele um einiges interessanter. Vorallem für die Webmaster die sich noch in der "Anfänger-Phase" befinden und nicht wissen wo sie diese Informationen sonst herbekommen sollten. » Google Sitemaps
Die Woche 04 neigt sich dem Ende zu und ist mittlerweile beim Sonntag angekommen. Zeit also, auf die vergangenen sieben Tage zurückblicken und wieder unseren kleinen Wochenrückblick zu beginnen. Wie in jeder Woche Woche blicken wir sowohl auf die beliebtesten Artikel der Kalenderwoche 04 vom 23. Januar bis zum 29. Januar 2022 als auch auf die gleiche Woche vor fünf Jahren und vor zehn Jahren zurück.
Die Woche 34 neigt sich dem Ende zu und ist mittlerweile beim Sonntag angekommen. Zeit also, auf die vergangenen sieben Tage zurückblicken und wieder unseren kleinen Wochenrückblick zu beginnen. Wie in jeder Woche Woche blicken wir sowohl auf die beliebtesten Artikel der Kalenderwoche 34 vom 16. bis zum 22. August 2020 als auch auf die gleiche Woche vor fünf Jahren und vor zehn Jahren zurück.
Und auch die Woche 51 neigt sich wieder dem Ende zu und ist mittlerweile beim Sonntag angekommen. Zeit also, auf die vergangenen sieben Tage zurückblicken und wieder unseren kleinen Wochenrückblick zu beginnen. Wie in jeder Woche Woche blicken wir sowohl auf die beliebtesten Artikel der Kalenderwoche 51 vom 17. Dezember bis zum 23. Dezember dieses Jahres als auch auf die gleiche Woche vor fünf Jahren und vor zehn Jahren zurück.
Schon seit vielen Jahren setzt Google bei den eigenen Angeboten auf eine HTTPS-Verschlüsselung und hat nur noch sehr wenige eigene Seiten, die nicht verschlüsselt ausgeliefert werden. Nach und nach möchte man diese Sicherheit nun auch im gesamten Web etablieren und auch "normale" Webseiten zu einer Verschlüsselung zwingen. Nachdem man seit einiger Zeit verschlüsselte Webseiten mit einem besseren Ranking in den Suchergebnissen belohnt, werden diese nun auch vollautomatisch indexiert und über die unverschlüsselte Verbindung gestellt.