To provide the best experiences, we and our partners use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us and our partners to process personal data such as browsing behavior or unique IDs on this site and show (non-) personalized ads. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Click below to consent to the above or make granular choices. Your choices will be applied to this site only. You can change your settings at any time, including withdrawing your consent, by using the toggles on the Cookie Policy, or by clicking on the manage consent button at the bottom of the screen.
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt.
Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Uh – jetzt mal Hand hoch: Wer hat von dem schon mal gehoert? Irgendwie sagt mir der Name nix und so richtig tiefschuerfend sind seine Antworten auch nicht.
Was die „persoenliche Suchmaschine“ angeht bin ich auch eher skeptisch. Wenn jeder einen eigenen Spider losschickt der eine eigene „Kopie“ des Internets einsammelt, dann erzeugt das eine immense Last auf allen Webservern, erfordert enorme Transfer- und Lagerkapazitaeten – wobei der wirklich allergroesste Teil dieser Daten niemals vom Nutzer verwendet wird. Das halte ich auf absehbare Zeit fuer nicht praktikabel, das Internet wird ja auch nicht kleiner.
Wenn hingegen der Spider nur ganz gezielt bestimmte Infos sammelt dann kann ich nicht auf einmal nach voellig anderen Sachen suchen – ich muesste erst Minuten/Stunden/Tage warten bis der Spider Infos zu diesem neuen Thema zusammen hat. Das waere eine interessante Idee um laufend neues zu vordefinierten Themen zu bekommen (aehnlich Google Alerts), ich sehe aber nicht wie das die heutigen Suchmaschinen ersetzen soll.
Ossi Urchs ist ein absoluter Guru, und sollte jedem der denkt er würde sich mit dem Internet auskennen ein begriff sein.
Er spricht hier von einem Spider, der seine indexierung nach deinem persönlichen Profil macht. Das heißt eben nicht, dass er eine änderung deiner Suchprofile nicht mitbekommen wird.
Deine aussage zu der serverlast ist – aus der sicht in 10 jahren – wahrscheinlich eher lächerlich.
Schoen das du so wundervoll unterlegen kannst woher man ihn kennen soll und weshalb er so wichtig ist. 🙂 Was hat er denn gemacht/entwickelt/erdacht? Einen wikipedia-Artikel gibts nicht zu ihm und eine Suche liefer primaer seine eigenen Seiten sowie rein deutsche Interviews (von Webseiten die ich nicht kenne) und aeltere Artikel zu regional deutschen Konferenzen. Mir fehlt da irgendwie der Bezug zu.
Bzgl Spider: Du meinst also das was ich im letzten Absatz geschrieben habe. Wie ich schon schrieb ist unklar wie dieser schnell genug reagieren soll um heutige Suchmaschinen zu ersetzen. Mein uebliches Suchprofil ist z.B. rund um Linux, Netzwerkprotokolle, Web-Zeugs, Systemadministration, Programmierung, etc. Also wuerde sich der Spider darauf einstellen, oder? Wenn nun aber meine Frau zu mir kommt und mich bittet mal nach Neuigkeiten zu „Greys Anatomy“ zu suchen – was passiert dann? Muss ich warten bis der Spider was zusammen hat oder gibts dann doch wieder eine zentrale Suchmaschine die „alles kennt“? Und was wenn ich meiner persoenlichen Suche eine Frage zu Linux stelle die sie nicht beantworten kann. Muss ich dann aufgeben?
Bzgl Serverlast: Ich ueberlasse es der Zukunft ob das laecherlich ist. 🙂 Man kann ja die letzten 10 Jahre entlang bekannter „Gesetze“ weiterrechnen. Wenn man dann noch eine steigende Zahl Internetnutzer, eine steigende Nutzung und sicherlich auch steigende Datenmenge beruecksichtigt ist es keine schwarze Magie abzuschaetzen das das in 10 Jahren sehr wahrscheinlich eher noch nix wird mit der privaten Kopie des Internets. In 50 oder 100 Jahren koennte das anders aussehen, kommt drauf an ob zuerst alle Menschen und alle Daten im Internet sind oder die IT-Entwicklung an absolute Grenzen stoesst. 🙂
die komplette ablösung einer normalen suchmaschine wird sicherlich nicht innerhalb von 10 Jahren passieren. Das sagt auch keiner. Ossi hat gesagt, dass er sich es vorstellen könnte. Jedoch geht das ZUkunftskonzept eindeutig in diese richtung.
Das heißt auch nicht, dass jeder einen eigenen Spider hat – es wird weiterhin Firmen geben die ihre spider losschicken, deren Index jedoch für die profilten Benutzer individualisiert. Vorstellbar wäre auch der themenbasierte Index – der bei fehlenden Suchergebnissen einspringt (bzw. die einspringen).
Bzgl. der Rechenleistung glaube ich nicht, dass wir weiter so rechnen können. Wir werden in einiger Zeit einen enormen Anstieg an Speicherkapazität etc. haben auf kurze Zeit – die bisherigen Regeln werden dann zumindest für diese Zyklen nicht gelten. (ich rechne fest damitbzw. hoffe darauf, dass in 10 Jahren die ersten volloptischen kristallspeicher verfügbar sind z.B.). Und selbstverständlich geht der Trend zum echten Breitband, auch bei Privathaushalten. Ich hoffe z.B., dass in 10 JAhren 85% der deutschen 100 mbit Bandbreite anliegen haben. Das führt dann logischer weise dazu, dass die Backbones in REchenzentren vergrößtert werden müssen.