Es gibt verschiedene Möglichkeiten, Seiten vor der Indexierung von Google zu “beschützen”: Mit der robots.txt, mit dem Linkattribut rel=”nofollow” und mit dem Meta Robots Tag.

Doch stellen sich einige Fragen:

  1. Bei welcher der 3 Methoden werden die vermeintlich ausgeschlossenen Seiten von Suchmaschinen gecrawlt?
  2. Bei welcher der 3 Möglichkeiten ist es möglich, dass die Seiten trotzdem im Index der Suchmaschinen auftauchen?
  3. Bei welcher Methode wird Pagerank auf die ausgeschlossenen Seiten vererbt, bei welcher nicht?
  4. Welche Risiken bieten die 3 Methoden jeweils?

Die folgende Tabelle, fast ein kleines Cheat Sheet, gibt die Antworten auf diese 4 wichtigen Fragen:

nofollow

Gefunden habe ich diese tolle Tabelle auf SEOBOOK.com, dem Blog von Aaron Wall. Er verfasste hier den Beitrag mit dem Titel “Robots.txt vs Rel=Nofollow vs Meta Robots Nofollow“.

Fazit: Lesen!