Robots.txt

15.01.2011 19:56
#1
Va
User

Hallo Forumprofi-Team,

ich habe schon einen Thread eröffnet in dem es um die Veröffentlichung von zwei Threads in meinem Kennwortgeschützten Forum "cliquebeckum.forumprofi.de" geht.
Google kann die beiden veröffentlichen Treads so nicht entfernen, weil die beiden Threads erst durch Forumprofi, also den Webseiten-Betreiber blockiert sein muss.
Das kann durch eine Datei namens robots.txt geschehen.
Inhalt soll sein lt. Google:

Blockieren von User-Agents

In der Zeile "Disallow" werden die zu blockierenden Seiten aufgelistet. Sie können eine spezifische URL angeben oder ein Muster verwenden. Der Eintrag muss mit einem Schrägstrich (/) beginnen.

* Blockieren der gesamten Website: Tragen Sie nur einen Schrägstrich ein.

Disallow: /

Wie können wir hier weiterverfahren? Ich bitte Sie höflich um Unterstützung. Danke.

Klopapier beidseitig verwenden und der Erfolg liegt auf der Hand!


 Antworten

 Beitrag melden
18.01.2011 09:05
#2
Va
User

Hallo Forumprofi,

denken Sie über meine Anfrage nach und ich kann von Hilfe ausgehen? Oder kann ich den Sachverhalt anhaken?

Bitte ein kleines Zeichen für mich, dann kann ich weiter Geduld haben. Danke

Klopapier beidseitig verwenden und der Erfolg liegt auf der Hand!


 Antworten

 Beitrag melden
18.01.2011 13:31
#3
fo
User

Eine robots.txt wird es in absehbarer Zeit eher nicht geben.

Zu der angesprochenen Problematik ist am ehesten zu vermuten, dass die Beiträge zu irgend einer Zeit einmal öffentlich zugänglich waren.
Wenn genau da der GoogleBot da war wurde das gespeichert und bleibt erstmal bei Google erhalten.
Alles in allem haben auch Bots nur die gleichen Rechte wie jeder Besucher auch - von unserer Seite jedenfalls wurden da keine Hintertürchen für bessere Indexierungen eingerichtet.

KEIN SUPPORT PER PN!

Bei Fragen bitte immer den Forumprofi.de-Benutzernamen und die Adresse zum Forum angeben.


 Antworten

 Beitrag melden
18.01.2011 13:59
#4
Va
User

Danke Forumprofi!

Können Sie noch sagen, wie ich das bei Google entfernen lassen kann?

Klopapier beidseitig verwenden und der Erfolg liegt auf der Hand!


 Antworten

 Beitrag melden
18.01.2011 14:24
#5
fo
User

Leider nein, mit Google kenne ich mich nicht so aus.

KEIN SUPPORT PER PN!

Bei Fragen bitte immer den Forumprofi.de-Benutzernamen und die Adresse zum Forum angeben.


 Antworten

 Beitrag melden
18.01.2011 21:05
#6
avatar
Administrator

Da hilft leider nur Geduld, bis Google das aktualisiert.

Das geht aber automatisch, dazu ist auch keine robots.txt notwendig, immerhin sind die Inhalte ja nicht mehr öffentlich für Gäste abrufbar?

Schöne Grüße,
Forumprofi.de Support

Bitte keine Supportanfragen per PN.

 Antworten

 Beitrag melden
19.01.2011 09:22
#7
Va
User

OK!
Vielen Dank.

Ich habe nun alle Bots gelöscht. War das klug?
In einem Fall habe ich zwar den ges. Inhalt gelöscht und ich vermute, dass die bei Google angezeigte Seite "Im Cache" so angezeigt wird, wie der sog. Google-Bot sie bei seinem letzten Besuch vorgefunden hat. D.h. ich müßte ihm eigentlich die Gelegenheit geben, die Seite nochmals zu besuchen, wenn der von mir geänderte Zustand festgehalten werden soll.

Oder ist es gar so, dass wenn Google-Bot nichts findet, die bisherigen Fundsachen als nicht existent betrachtet und nach einer endlichen Zeit entfernt?

Ist fast philosophisch, aber wäre prima, wenn ich da von einem Profi Rückhalt bekäme. Danach gebe ich auch Ruhe.........

Klopapier beidseitig verwenden und der Erfolg liegt auf der Hand!


 Antworten

 Beitrag melden
Bereits Mitglied?
Jetzt anmelden!
Mitglied werden?
Jetzt registrieren!