Wie oft wird der Google-Suchindex aktualisiert?



  • Die Frage steht oben.



  • ständig



  • Auf deiner Website AFAIK in dem Rhytmus der im "revisit" Meta-Tag deiner index-Seite steht.



  • Cpp_Junky schrieb:

    Auf deiner Website AFAIK in dem Rhytmus der im "revisit" Meta-Tag deiner index-Seite steht.

    Nein. Das ist eine EMPFEHLUNG für die Spider der Suchmaschinen, aber natürlich keine Vorschrift. [Wäre ja lustig, dann würde jeder den kleinstmöglichen Wert wählen - einleuchtend, daß das nicht sein kann.]

    Google ignoriert diesen Wert völlig.

    Wenn man eine Google-Sitemap hat, kann man sich die Besuchsintervalle ansehen - auf c++.de kommt der Spider ungefähr alle 48 Stunden vorbei, auf meiner privaten Homepage etwa alle 10 Tage. c++.de hat nun einen Pagerank von 4, wenn sich daran nichts geändert hat, ist also noch sehr niedrig eingestuft. Offensichtlich schickt Google also die Spider bei Seiten mit hohem PR viel öfter vorbei.

    Man kann das ausprobieren: eine Suche bei Google nach "Donnerstag März 2007" liefert Artikel-Treffer (von gestern), jetzt im Moment liefert die Suche nach "Freitag März 2007" aber noch keine Artikel von heute.



  • Marc++us schrieb:

    c++.de hat nun einen Pagerank von 4, wenn sich daran nichts geändert hat, ist also noch sehr niedrig eingestuft.

    Woher weißt du den Pagerank?
    Was heißt der Wert 4 im Vergleich zu 1,2,3,10,...?



  • Google ordnet die Relevanz von seiten in einer Skala von 1 bis 5 ein, wobei 5 die höchste Priorität darstellt



  • Was das "neu einlesen" von Seiten angeht so stimmt AFAIK das was Marc++us schreibt. Was den "crawl" (Links weiterverfolgen) und das Ausrechnen der Page Ranks angeht -- das passiert soweit ich weiss wesentlich seltener, jedes Monat 1x oder so.



  • Marc++us schrieb:

    Offensichtlich schickt Google also die Spider bei Seiten mit hohem PR viel öfter vorbei.

    Anhand welcher Kriterien wird denn entschieden wie oft Google bei einen "vorbeischaut"?



  • hustbaer schrieb:

    Was das "neu einlesen" von Seiten angeht so stimmt AFAIK das was Marc++us schreibt. Was den "crawl" (Links weiterverfolgen) und das Ausrechnen der Page Ranks angeht -- das passiert soweit ich weiss wesentlich seltener, jedes Monat 1x oder so.

    Bei den Google Webmaster Tools kann man genau sehen, wann der Spider letztmalig vorbeikam. Und bei mir ist das jetzt der 28.02. gewesen. Da kann man täglich nachsehen, der kommt in kurzen Abständen vorbei. Dazu kommt noch, daß fast permanent ein Spider gerade Threads liest (sieht man an den Logs). Google zeichnet sich für fast 20% unseres Traffics verantwortlich.

    Also auf keinen Fall im Bereich von Monaten, noch dazu gibt's ja wesentlich populärere Seiten als c++.de (unfassbar, aber wahr).

    Wegen dem PageRank siehe http://www.google.com/technology/index.html - meines Wissens geht der PR von 0 bis 10.

    @Rhombo: die werden das einfach linear an den PR hängen... höherer PR heißt öfter. Das Geheimnis liegt wohl eher im PR, weniger darin, aus dem PR ein Interval zu berechnen.

    @gugel: kann man mit der Google Toolbar sehen.



  • Meiner Erfahrung nach merkt Google automatisch, wie oft eine Seite aktualisiert wird und schickt dementsprechend oft den Spider vorbei. Je häufiger der Content auch aktualisiert wird, so höher wird die Seite idr. in Google geranked.
    Alle Metatags oder Sitemapangaben sind nur Empfehlungen. Google weiß was Google am Besten will 🙂

    Der Googlebot ist übrigens an der Useragent Kennung "Mediapartners-Google/2.1" erkennbar.

    Der Pagerank geht in der Tat von 0-10 und ist einzig von der Anzahl der Backlinks abhängig. Also von der Anzahl der Links, die auf eine Seite zeigen. Der PR wird für jede Unterseite einzelnd berechnet, kann jedoch von Parentseiten an Unterpages vererbt werden. So hat www.c-plusplus.net einen PR von 5, www.c-plusplus.net/forum jedoch nur PR 4. Nachzuprüfen mit der Googletoolbar oder hier http://www.prchecker.info/check_page_rank.php .



  • Headhunter schrieb:

    Je häufiger der Content auch aktualisiert wird, so höher wird die Seite idr. in Google geranked.

    Das ist aber kein alleiniges Kriterium... denn dann könnte man ja nur durch häufigen Austausch der Inhalte ein hohes Ranking bekommen. Das würde Spammern Tür und Tor öffnen.

    Es gibt da eine Doktorarbeit im Internet dazu - leider habe ich den Link nicht hier verfügbar - wo diese Idee, das Ranking einer Seite von der Änderung von Inhalten abhängig zu machen - diskutiert wird. Aber es gibt eine Menge Gegenargumente zu dieser Vorgehensweise. Vor allem fallen dadurch "alte" Archivseiten im Ranking ab, was ja nicht unbedingt gewollt ist. Klassisches Beispiel: eine Seite, die den Volltext der Bibel anbietet. Ändert sich nie, sollte aber bei entsprechenden Suchbegriffen ja trotzdem ein sehr hohes Ranking haben.

    Der klassische Google-PR-Algorithmus, wie er von den beiden Gründern in ihrer Arbeit dokumentiert wurde, kennt sowas auf alle Fälle noch nicht.

    Mehr offizielle Dokumente zum Ranking gibt's aber nicht.



  • So wie ich das verstanden habe sagt der PR nur etwas darüber aus, wie oft die Seite von Google "eingescant" werden wird. Alte Seiten würden im PR abfallen, was ja logisch ist. Eine Seite, wie die Bible-Online, würde auch ein sehr niedrigen PR haben. Das ist ja auch logisch, da sich Bible-Online sehr wenig ändert.

    PR sagt doch nichts darüber aus, wie beliebt die Seite im Internet ist, nur wie oft die Seite sich ändert und wie oft sie von Google-Bots besuch bekommen muss, damit Google den aktuellen Inhalt hat.



  • DEvent schrieb:

    PR sagt doch nichts darüber aus, wie beliebt die Seite im Internet ist, nur wie oft die Seite sich ändert und wie oft sie von Google-Bots besuch bekommen muss, damit Google den aktuellen Inhalt hat.

    und wie weit oben sie in den ergebnissen steht...


Anmelden zum Antworten