Schlagwort: google-sitemaps
Schon seit einiger Zeit zeigt Googles Videosuchmaschine Videos von großen Videohostern, aber auch von weiteren externen Seiten an. Es scheint Google aber schwer zu fallen Videos im Web aufzufinden, daher kann man seit einigen Tagen auch eine eigene Sitemap nur für Videos erstellen.
Um eine Video-Sitemap an Google zu übermitteln müsst ihr nur - genau wie bei den normalen Sitemaps - eine Sitemap mit diesen Spezifikationen erstellen und diese entweder in der robots.txt eintragen oder sie manuell an Google und die anderen Suchmaschinen übermitteln. Daraufhin sollten eure Videos innerhalb von kürzester Zeit auch bei Google Video zu finden sein.
Der Sitemap kann nicht nur die Video-URL, sondern auch der Name des Videos, eine Beschreibung und ein Thumbnail-Foto übermittelt werden. Es werden so gut wie alle gängigen Videoformate unterstützt: Von MPEG bis WMV über RM und natürlich die fast schon klassischen FLV-Flashvideos. Interessant wird sein wie Google die Videos abspielen wird, vorallem die bei denen bisher ein Browser-Plugin nötig war. Eventuell wird Google diese cachen und mit dem eigenen Player abspielen - wird den Player-Herstellern nicht gefallen, aber ist am wahrscheinlichsten.
» Video Sitemap Spezifikationen
» Ankündigung im Webmaster Central Blog
AUWEIA! Da hat Google aber einen richtigen Bock geschossen: wer bisher dachte dass Dateien und Webseiten die bei den Google Pages hochgeladen oder erstellt worden sind nicht von der ganzen Welt gesehen werden können irrt sich ganz gewaltig. Jede Webseite hat bei Google eine eigene Sitemap in der alle hochgeladenen Dateien aufgelistet und so für jedermann zugänglich sind. Um zu sehen welche Dateien auf einem Google Pages-Account liegen muss man einfach nur die URL
http://website.googlepages.com/sitemap.xmlaufrufen und schon bekommt man eine schöne Liste aller erstellten Webseiten und hochgeladenen Webseiten präsentiert - und das ohne irgendeine Prüfung der Zugangsberechtigung. Ich habe bei den Google Pages auch schon private Webseiten erstellt die nicht unbedingt die ganze Welt sehen sollte und musste dann vorhin mit erschrecken feststellen dass die garnicht so unsichtbar sind wie ich dachte - natürlich hatte ich Dokumentnamen vergeben auf die niemand kommt - aber wenn die Liste so öffentlich präsentiert wird ist das natürlich kein großes Hindernis mehr. Also habe ich die betreffenden Seiten gelöscht bzw. unpublished. Wer also private Dinge bei den Google Pages hostet sollte diese sofort löschen bzw. unpublishen. Durch den Eintrag in der Sitemap ist es nämlich auch nur eine Frage der Zeit bis die Dateien und Dokumente in den 4 großen Suchmaschinen die das Sitemap-Protokoll unterstützen auftauchen. P.S. Ein RSS-Feed aller Webseiten bieten die Pages übrigens auch an:
http://website.googlepages.com/rss.xmlAlso für mich hat sich das Thema Page Creator damit erledigt... zumindest zum hosten von Dateien. Es ist eine Frechheit dass Google so etwas nicht vorher ankündigt und die User davor warnt... [Google OS]
Die Sitemaps, die mittlerweile von immer mehr Suchmaschinen unterstützt werden, helfen nicht nur den Suchmaschinen das Internet besser zu verstehen sondern sind auch aus SEO-technischer Sicht sehr praktisch. Damit die Suchmaschinen diese auch finden kann die Sitemap-URL jetzt direkt via robots.txt übergeben werden. Außerdem ist jetzt auch ask.com mit im Boot. Bisher musste eine Sitemap auf Sitemaps.org oder über die jeweiligen Portale der Suchmaschinen eingestellt werden. Das ist natürlich nicht ganz so praktisch und musste dringend verbessert werden. Ab sofort muss die URL der Sitemap nur noch in die eigene robots.txt mit folgender Zeile eingetragen werden:
Sitemap: http://www.mysite.com/sitemap.xmlLaut dem Webmaster-Blog sollte man dennoch zusätzlich die Sitemap via den Portalen übermitteln, aber warum wird nicht genau angegeben. Unterstützt werden die Sitemaps derzeit von Google, Yahoo!, MSN und Ask und einigen weiteren kleinen Suchmaschinen die nicht näher genannt werden. Ich denke damit sind die Sitemaps jetzt endgültig ein unverzichtbares SEO-Tool und sollten von jedem Webmaster angelegt werden. » Ankündigung im Webmaster-Blog
+
Weil es in der letzten Zeit einige Klagen gegen die Google News gegeben hatte, mussten sich die Googler etwas einfallen lassen. Die Administratoren der News-Seiten hatten bisher nur die Kontrolle darüber, ob ihre Seiten in den News-Index wandern oder nicht. Seit heute haben amerikanische Newsquellen auch die Möglichkeit ihre News mit einer Sitemap auszustatten und so genau die Kontrolle darüber zu behalten welche Artikel erscheinen und welche nicht. Extra für News-Seiten hat Google eine neue Version des Sitemap-Protokolls erstellt, in dem erweiterte Informationen über den Artikel eingegeben werden können. So kann neben der eigentlich Artikel-URL auch eine Liste von Keywords zu jedem Artikel und ein Zeitstempel angegeben werden. Mit diesen Daten können die Google News den Artikel noch besser einordnen, anhand von Themen und Zeitlinien. Außerdem können Artikel oder ganze Resorts mit dieser Sitemap von den Google News ausgeschlossen werden, damit sich kein Webmaster mehr darüber ärgern oder gar Google verklagen kann, wenn ein Artikel fälschlicherweise hier erscheint. Der Link zur Integration dieser Sitemaps ist bisher allerdings nur für die Webmaster sichtbar, deren Seiten schon bei den News integriert sind. Ein kluger Schachzug, so hält man sich Klagen vom Leib, und lernt die Seiten der News-Provider gleich noch besser kennen. Außerdem könnte dies der Anfang eines neuen allumfassenden News-Dienstes werden. Später könnte das Angebot für alle Webmaster geöffnet werden, und so neben den eigentlichen News auch die Meinung der User im Web und ihren Blogs angezeigt werden. » Ankündigung im Webmaster Central Blog » Neue Sitemaps-Definition
Weil es in der letzten Zeit einige Klagen gegen die Google News gegeben hatte, mussten sich die Googler etwas einfallen lassen. Die Administratoren der News-Seiten hatten bisher nur die Kontrolle darüber, ob ihre Seiten in den News-Index wandern oder nicht. Seit heute haben amerikanische Newsquellen auch die Möglichkeit ihre News mit einer Sitemap auszustatten und so genau die Kontrolle darüber zu behalten welche Artikel erscheinen und welche nicht. Extra für News-Seiten hat Google eine neue Version des Sitemap-Protokolls erstellt, in dem erweiterte Informationen über den Artikel eingegeben werden können. So kann neben der eigentlich Artikel-URL auch eine Liste von Keywords zu jedem Artikel und ein Zeitstempel angegeben werden. Mit diesen Daten können die Google News den Artikel noch besser einordnen, anhand von Themen und Zeitlinien. Außerdem können Artikel oder ganze Resorts mit dieser Sitemap von den Google News ausgeschlossen werden, damit sich kein Webmaster mehr darüber ärgern oder gar Google verklagen kann, wenn ein Artikel fälschlicherweise hier erscheint. Der Link zur Integration dieser Sitemaps ist bisher allerdings nur für die Webmaster sichtbar, deren Seiten schon bei den News integriert sind. Ein kluger Schachzug, so hält man sich Klagen vom Leib, und lernt die Seiten der News-Provider gleich noch besser kennen. Außerdem könnte dies der Anfang eines neuen allumfassenden News-Dienstes werden. Später könnte das Angebot für alle Webmaster geöffnet werden, und so neben den eigentlichen News auch die Meinung der User im Web und ihren Blogs angezeigt werden. » Ankündigung im Webmaster Central Blog » Neue Sitemaps-Definition
Googles Konkurrenten Yahoo! und Microsoft haben den Vorteil der Sitemaps erkannt und nutzen diese Technik jetzt ebenfalls für ihre Suchmaschinen. Dazu haben die 3 Unternehmen die Website sitemaps.org ins Leben gerufen die alle allgemeinen Informationen über die Inhaltsdatei sammelt. Damit wird erstmals ein Google-Service zum Quasi-Webstandard. Die zu Google übermittelten Sitemaps werden auch weiterhin nur bei Google gelistet. Wer seine Inhaltsdatei auch bei Yahoo! und Microsoft sehen möchte, muss diese Extra zu ihnen übermitteln. Der Standard wird von den 3en allgemein gehalten, aber was jede Suchmaschine selbst daraus macht bleibt ihnen selbst überlassen. Damit dürfte der Kampf um die Sitemaps eröffnet sein. Da alle 3 großen in diesem Markt diesen Standard nun unterstützen werden sich sicherlich auch sehr schnell noch weitere Suchmaschinen anschließen und eine Sitemap demnächst zum unersetzlichen Bestandteil einer Homepage machen. Außerdem wird es dann wohl bald, analog zu den bei-allen-Suchmaschinen-eintragen-Diensten, Angebote geben die die eigene Sitemap an alle Suchmaschinen übermitteln. Warum Google das Protokoll jetzt geöffnet hat kann ich nicht nachvollziehen. Bisher war dies ein unschlagbarer Vorteil gegenüber den anderen Suchmaschinen, aber dieser ist ja nun nicht mehr vorhanden und die anderen bereichern sich an der von Google teuer entwickelten Technik... Hat Google wirklich so gute Absichten das Web zu ordnen, dass sie dabei sogar eigene Einbußen in Kauf nehmen? Kaum zu glauben... » Sitemaps.org » Ankündigung im Webmaster-Blog
Googles Webmasterzentrale hat wieder einige interessante Updates spendiert bekommen: Dabei handelt es sich sowohl um erweiterte Auswertungen und Statistiken als auch einige Einstellungsmöglichkeiten für die eigene Domain. So kann jetzt z.B. eingestellt werden wie oft der GoogleBot auf der eigenen Webseite vorbeischauen soll - allerdings alles auf eigene Gefahr. GoogleBot-Aktivitäten In 3 Diagrammen kann der Webmaster jetzt sofort sehen wieviele Webseiten der Bot jeden Tag besucht, wieviele Datenmengen er dabei herunterlädt und wie lange er dafür ungefährt braucht. Wenn diese Werte fallend statt steigend sind sollte man sich Sorgen machen, zumindest als Content-Lieferer - denn dann sind irgendwelche Webseiten nicht mehr richtig verlinkt. Unglaubwürdige Werte Bei mir tauchen hier allerdings einige sehr merkwürdige Werte auf die ich nicht so ganz glauben kann. Laut Statistik crawlt Google jeden Tag 4241 Seiten in diesem Blog - okay, das ist soweit möglich - aber nicht jeden Tag. Und jetzt der schlimmste Wert: Google lädt jeden Tag 188,93 MB an Daten von diesem Blog herunter. Zur Spitzenzeit waren es sogar 414.727 MB. Soll ich das wirklich glauben? Das würde die Traffic-Grenzen des Servers nämlich brechen... Nur bei der Antwortzeit muss ich Google leider recht geben, knapp 1 Sekunde pro Seite - es steht wohl so langsam der Wechsel auf einen leistungsfähigeren Server an... Crawl-Geschwindigkeit einstellen Jeder Webmaster hat jetzt die Wahl zwischen schnellem, normalem und langsamen Crawling der eigenen Webseite. Wer einen starken Server besitzt sollte hier natürlich auf Faster stellen, denn so kann man schon innerhalb von 24 im Google-Index auftauchen, was bei aktuellen Themen sehr wichtig ist - langsamere Server oder Seiten die nur selten upgedatet werden können den Bot auch auf langsam einstellen. Alle anderen sollten bei normal bleiben. Standardmäßig stellt Google einen Wert ein der dem Server angemessen ist. Anhand der Antwortzeiten stellt der Bot fest ob der Server vom GoogleBot überlastet ist oder nicht und verändert die Geschwindigkeit von sich aus. Ich wusste garnicht dass der Bot so intelligent ist, aber es ist nett von Google dass sie nicht die gesamte Bandbreite eines Servers fressen wollen ;-) Erweiterte Bildersuche Mit einer kleinen CheckBox kann jeder Webmaster einwilligen seine Fotos durch Programme wie den Google Image Labeler weiter sortieren und auswerten zu lassen. Was passiert wenn die Box deaktiviert ist (was sie standardmäßig auch ist) weiß ich nicht, ich denke in der Bildersuche tauchen die Fotos trotzdem alle auf - ansonsten könnte diese demnächst sehr leer werden. Anzahl der Sitemap-URLs In der Sitemap-Übersicht wird nun auch angezeigt wieviele URLs sich in der eigenen Sitemap befinden. Leider kann keine Liste mit den eingetragenen URLs angesehen werden, denn das wäre noch sehr viel interessanter. Bei mir sind zur Zeit knapp 1800 URLs eingetragen, das deckt sich sehr grob mit der Anzahl der Artikel in diesem Blog. Die Anzahl der Artikel liegt derzeit bei knapp 2.000. Fazit Wieder einmal sehr interessante Neuerungen, vorallem die GoogleBot-Statistiken und die dazugehörige Geschwindigkeitseinstellung. Ganz unbewusst werden Webmaster so langsam gezwungen sich bei Sitemaps zu registrieren und eine eigene Sitemap anzulegen - denn ohne diese können die ganzen Einstellungen, die sicherlich irgendwann überlebenswichtig für eine Webseite sind, nicht vorgenommen werden. Außerdem wird der Trend, nur noch für Google zu optimieren, noch weiter ausgebaut - kluger Schachzug, aber schlecht für die Konkurrenz - die müssen nun erstmal nachziehen. » Ankündigung im Webmaster Tools Blog
Die Google Sitemaps können dem Webmaster, der seine Website dort registriert hat, zeigen bei welchen Suchbegriffen seine Webseite auftaucht, wie oft sie angezeigt wurde, und wie oft sie bei welchem Keyword geklickt wurde. Ganz interessante Statistiken, vor allem für SEOler, aber bisher wurden die Daten nur selten erneuert. Ab sofort gibt es jeden Montag frische Statistiken. Vorher wurden die Daten alle 3 Wochen upgedatet und neu in die Sitemaps-Accounts der User hochgeladen, dies ist natürlich ein klein wenig zu langsam und die Daten nach 3 Wochen vielleicht nicht mehr ganz so aussagekräftig. Aus diesem Grund wird jetzt jeden Montag ein Update mit den neuesten Daten durchgeführt. Google rät, die Daten 1x pro Woche herunterzuladen um eine komplette Statistik führen zu können. Ich könnte zwar wetten dass Google diese Daten ebenfalls aufbewahrt und uns demnächst eine solche Statistik anbieten wird, aber noch muss der User dieses eben selbst erstellen. In dem Ankündigungs-Artikel wird auch noch einmal genauestens erklärt wie Google diese Daten berechnet und auf welcher Grundlage diese Zahlen liegen - recht interessant, lest es euch ruhig mal durch. P.S. Hat einer von euch gewusst das die Sitemaps-Daten nicht live sind? Ich dachte immer die sind top-aktuell... » Ankündigung im Webmaster Central Blog
Der beliebte Validator Validome.org parst nun auch einige weitere XML-Formate wie Atom und RSS. Außerdem ist jetzt auch das parsen und überprüfen einer Google Sitemap im Programm. So etwas war meiner Meinung nach auch dringend notwendig, schließlich ist das nicht gerade Googles Spezialgebiet. Google selbst zeigt seinem Nutzer nur an ob die Sitemap in Ordnung ist oder ein Fehler aufgetreten ist, aber an welcher Stelle und welcher Fehler blieb immer ein Geheimnis. Der Validator setzt jetzt an dieser Stelle an und hilft dabei schnell und problemlos eine Sitemap zu erstellen. Schön wäre es jetzt wenn es auch noch weitere Validatoren für die Google-Formate geben würde. Vor allem ein Validator für Google Co-op würde ich dringend gebrauchen, denn dieses Format bereitet mir heute noch Probleme, und ich komme nicht über einfache Listen hinaus... » Sitemaps Validator Siehe auch » Automatische Sitemaps: PHP Sitemap Generator [golem & Dwenge]
Mit dem PHP-Sitemaps-Generator gibt es jetzt erstmals ein Tool das eine Sitemap komplett ohne das zutun des Benutzers in wenigen Sekunden erstellt. Dabei sind keinerlei Angaben und nur 2 Klicks notwendig und schon kennt Google die komplette Struktur des eigenen Servers und kann ihn so noch besser crawlen. Das Archiv besteht aus nur wenigen Dateien und ein paar KB die man sich einfach auf den Server lädt und dann ausführt. Beim ersten Start bietet das Programm noch jede Menge Einstellungsmöglichkeiten die aber, wenn man keine Ahnung davon hat, bedenkenlos übernommen werden können. Beim nächsten Klick wird dann eine Struktur des gesamten Servers erstellt und auf einer Ergebnis-Webseite ausgegeben. Mit einem weiteren Klick auf "Create File" wird die Sitemap sowohl auf dem Server als TXT und XML erstellt und dann gleich noch automatisch an Google gesendet. Einfacher geht es nun wirklich nicht mehr. Das einzige Problem ist die Dauer der Erstellung der Sitemap-Datei. Bei mir hat sich der Browser 3x aufgehangen und erst beim 4. Versuch - und nur mit dem IE - hat es dann endlich funktioniert... -- Die Sitemaps wirken zwar sehr unscheinbar und der Vorteil scheint nicht auf den ersten Blick erkennbar - aber sie bringen wirklich etwas. Seit dem Start weg nutze ich die Sitemaps, und auch der GWB teilt Google jeden einzelnen neuen Artikel mit. Und das Ergebnis, die Artikel sind teilweise schon nach 24 Stunden im Google-Index zu finden, schneller gehts nun wirklich nicht ;-) » Google Sitemaps Generator [Joes Newz Blog]