Frage:
Wie kommt das zu stande oder was muss passieren (s.D) ?
?
2011-05-30 16:18:49 UTC
Wenn ich bei goole einen Antrag auf Entfernung einer eingetragenen Seite stelle, steht darunter ein Kästchen mit dem Hinweis

"Damit eine Seite dauerhaft entfernt wird, muss sie einen 404-/410-Fehler zurückgeben oder von robots.txt oder einem noindex-Meta-Tag blockiert werden. "

Wie kommt das denn dann zustande?
Wer schickt von wo und wohin so eine Fehlermeldung bzw was genau bedeutet dieser Fehler und wem wird er wo angezeigt?

Was genau ist/sind robots.txt und noindex-Meta-Tag?
Drei antworten:
2011-05-30 16:31:52 UTC
1.

Eine Seite wird in Google-Index entfernt, wenn sie nicht mehr existiert - das ist der 404-Fehler. Die Original-Webseite muss also zuerst gelöscht sein, darauf hat Google natürlich keinen Einfluss sondern der Administrator der betreffenden Website. An ihn musst du dich wegen der Löschung wenden, Google kann erst danach tätig werden und die Seite auch aus dem Google-Index löschen.



2.

Jede Webseite kann in den Kopfdaten Meta-Tags haben - wenn ein robots- und noindex-Tag dort auftaucht, überliest Google die Seite und nimmt sie nicht in den eigenen Index auf. Meta-Tags werden ebenfalls nur vom Betreiber einer Webseite gesetzt - du musst dich also zuerst an ihn wenden; nicht an Google.
?
2011-05-30 23:31:13 UTC
Du kannst nicht einfach irgendwelche Seiten entfernen lassen. Immerhin gibt es Leute, die wollen, dass ihre Seiten bei google auftauchen.



Demnach kannst du nur Seiten "melden".



Ein 404-Fehler kommt vom Server zurück, wenn es die Seite nicht oder nicht mehr gibt.

Beispiel: du rufst www.yahoo.de/schlagmichtot.htm

auf, dann kommt die Nachricht, dass diese Seite nicht existiert.

Im normalfall, weil entweder jemand einen Verlinkungsfehler gemacht hat, oder es die Seite zwar mal gab, inzischen aber entfernt oder anders benannt wurde.



Der Error 410 ist glaub ich nicht mehr gebräuchlich, er behandelte das "nicht mehr" des 404s.

Also ich hab schon ewig keinen 410 mehr gesehen. Kann aber durchaus sein, dass es ihn noch gibt. Aber die Meldungen überschneiden sich soweit ich weiss gerne mal.



Eine robots.txt ist eine Datei die man auf dem WEbserver hat, in der stehen verzeichnisse bzw. Seiten, die vielleicht nicht direkt verlinkt sind, aber auf jeden Fall von der Suchmaschine gelesen werden sollen, ODER auf KEINEN FALL gelesen werden sollen.



Sollte nun doch der unerwünschte Fall eintreten, so kann man das melden.
2011-05-31 00:00:00 UTC
hallo?

is gaggel watch ya?



villeicht ja,

villeicht nein.


Dieser Inhalt wurde ursprünglich auf Y! Answers veröffentlicht, einer Q&A-Website, die 2021 eingestellt wurde.
Loading...