nofollow einfach erklärt

nofollow ist für Webmaster zu einem alltäglichen Begriff geworden. Was es mit dem nofollow-Attribut auf sich hat und wie Sie dieses sinnvoll einsetzen, erklären wir Ihnen in diesem Artikel!

Was bedeutet eigentlich nofollow?

nofollow heißt wörtlich übersetzt so viel wie „nicht folgen“. Bei nofollow handelt es sich um ein Linkattribut, das dem Google Crawler mitteilt, welche Links keinen redaktionellen Ursprung besitzen. Oder anders ausgedrückt: welche Links weniger vertrauenswürdig sind und denen dementsprechend „nicht gefolgt“ werden soll.

Das Linkattribut ist eigentlich eine Anweisung an den Google Crawler, welchen Links zu folgen ist (dofollow) und welchen Links nicht (nofollow).

Übrigens: Redaktionelle Links sind Links, die innerhalb eines informativen Beitrags auf weitere informative Beiträge verweisen. Hier handelt es sich um Links, die eine Art Empfehlung für weitere nützliche Inhalte darstellen. Das können Quellenverweise sowie detaillierte und weiterführende Informationen sein. Diese Links werden mit dem follow-Attribut bzw. dofollow-Attribut versehen. Ein dofollow-Link muss jedoch nicht extra gekennzeichnet werden, da der bewusste Verzicht auf das nofollow-Attribut bereits als follow gewertet wird.

Der Ursprung des nofollow-Attributs

Die Attribute nofollow und follow wurden im Jahr 2005 von Google eingeführt. Damals wollte Google verhindern, dass zahlreiche Links in Blogkommentaren oder Gästebüchern Einfluss auf das Ranking in Suchmaschinen nehmen können. Das liegt daran, dass es zu dieser Zeit noch möglich war, allein durch eine hohe Anzahl an Links mit hohem PageRank (=Linkkraft) Vorteile im Ranking zu erhalten.

Neben Content, Technik, Nutzerverhalten und Co. zählen Links in Form von Backlinks auch heute noch zu den wichtigen Rankingfaktoren. Die Verlinkungen helfen Google und anderen Suchmaschinen dabei, Zusammenhänge und Beziehungen zwischen Websites besser zu verstehen und zu bewerten. Um Links in Blogkommentaren oder Gästebüchern zu kontrollieren, wurde das nofollow-Attribut entwickelt, durch das Spamkommentare entwertet werden.

Google hat weitere Informationen und Richtlinien zur Verwendung des nofollow-Attributs definiert.

Wie funktioniert das nofollow-Attribut?

Durch das Linkattribut haben Webmaster die Möglichkeit Links mit rel=“nofollow“ und Dokumente mit content=“nofollow“ zu versehen und Google somit zu verdeutlichen, welche Links keinen redaktionellen Ursprung besitzen.

Im HTML-Code sieht das nofollow-Attribut für Links folgendermaßen aus:

<a href=”http://www.beispiel.de/” rel=”nofollow”>Weiterführende Informationen</a>

Neben einzelnen Links kann die Anweisung auch innerhalb des Headers erfolgen. Ziel ist es, alle Links übergreifend als nofollow zu kennzeichnen. Das bedeutet, dass allen Links auf einer bestimmten Seite nicht mehr gefolgt werden soll. Dies würde beispielsweise bei Blogkommentaren, in einem Forum oder Gästebuch erfolgen. Der Code hierzu sieht folgendermaßen aus:

<meta name=”robots” content=”nofollow” />

Das nofollow-Attribut wird überwiegend für externe Links verwendet, also Verlinkungen die auf externe Websites führen. Bei internen Links gibt es keine Gründe, wieso nofollow verwendet werden sollte.

Wann wird das nofollow-Attribut verwendet?

nofollow sollten Sie verwenden, um Links zu kennzeichnen, die keinen redaktionellen Ursprung besitzen. Das bedeutet, dass nofollow für alle Links genutzt wird, die nicht redaktionell sind. Davon betroffen sind:

  • Affiliate Links
  • Links zu nicht vertrauenswürdigen Inhalten
  • Links aus Pressemitteilungen
  • Links aus Gastbeiträgen
  • Bezahlte bzw. gekaufte Links (Paid Links)
  • Bezahlte bzw. gekaufte Werbung (Paid Advertising)

Fazit: Warum ist das nofollow-Attribut sinnvoll?

Suchmaschinen erhalten durch das nofollow-Attribut die Anweisung, bestimmten Links nicht zu folgen. Hierdurch können Suchmaschinen wie Google die Zusammenhänge im Internet besser verstehen und interpretieren. Zusammenfassend lässt sich sagen, dass mit dem nofollow-Attribut verschiedene Vorteile einhergehen:

  • Kommentar-Spam wird entgegengewirkt
  • Werbe-Links werden gekennzeichnet
  • Bezahlte Links werden gekennzeichnet
Die Suche nach AGI führt KI Forschung an ihre Grenzen, verbindet technische Ambitionen mit ethischen Risiken und stellt Gesellschaften vor die Frage, wie universelle Maschinenintelligenz kontrolliert, ausgerichtet und sinnvoll in soziale und wirtschaftliche Strukturen eingebettet werden kann.
Weiterlesen
Mit der Transformer Architektur beginnt eine neue Ära, in der KI nicht nur versteht, sondern schöpft und dank Attention Mechanismen Texte, Bilder und Ideen generiert und so den Weg für moderne LLMs und kreative Anwendungen bereitet.
Weiterlesen
Der Deep-Learning-Boom entsteht aus Datenflut, GPU-Power und neuen Netzarchitekturen und entfesselt eine KI-Revolution, die Forschung und Industrie grundlegend verändert und den Übergang von symbolischer Logik zu selbstlernenden Systemen beschleunigt.
Weiterlesen
Nach Jahren des Stillstands erlebten neuronale Netze in den 1980ern mit Backpropagation eine Wiedergeburt. Mehrschichtige Netze lernten komplexe Muster automatisch, übertrafen Expertensysteme und legten den Grundstein für das spätere Deep Learning.
Weiterlesen
In den 1980er Jahren feierten Expertensysteme die KI kurzzeitig als wirtschaftlichen Erfolg. Hohe Wartungskosten, begrenzte Domänen und teure Hardware führten jedoch zum Scheitern und lösten den Zweiten KI Winter aus.
Weiterlesen
Ab etwa 1974 erlebt die symbolische KI eine Phase tiefer Ernüchterung. Die kombinatorische Explosion und gescheiterte Generalisierung aus Spielzeugwelten führen zu massiven Kürzungen der Fördergelder, ersten Rückzügen der Forschung und zum Ersten KI Winter.
Weiterlesen
In den 1960er Jahren dominiert die symbolische KI das Feld und erhebt die regelbasierte Manipulation von Symbolen zum Kern der Intelligenz. Programme wie Logic Theorist und GPS befeuern den Glauben, menschliches Denken vollständig in formale Strukturen übersetzen zu können.
Weiterlesen
xDer Dartmouth Workshop von 1956 definiert erstmals ein eigenes Forschungsfeld und gibt der Disziplin ihren Namen. Die Vision einer programmierbaren Intelligenz vereint führende Köpfe und markiert den Beginn einer Ära, geprägt von Ehrgeiz, Optimismus und bahnbrechenden Ideen.
Weiterlesen
In den frühen Nachkriegsjahren verschmelzen biologische Modelle, kybernetische Ideen und elektronische Architektur zu einem neuen Verständnis von Intelligenz. McCulloch, Pitts, Wiener und von Neumann schaffen die Grundlagen, auf denen moderne KI Systeme technisch und theoretisch aufbauen.
Weiterlesen
Alan Turing definiert inmitten der logischen Krise erstmals, was ein Algorithmus ist, und erschafft mit der universellen Maschine das Fundament der Informatik. Sein Modell legt die theoretischen Grenzen des Berechenbaren offen und prägt jede spätere KI Entwicklung maßgeblich.
Weiterlesen
Am Vorabend der modernen Informatik spitzte sich die Frage zu, was Berechnung überhaupt ist. Die Krise der Mathematik machte sichtbar, dass eine abstrakte Definition des Algorithmus fehlte und damit der letzte theoretische Schlüssel zur späteren KI Entwicklung weltweit.
Weiterlesen
Im 19. Jahrhundert entsteht durch die Erforschung von Reflexbögen und Nervenzellen erstmals ein mechanistisches Verständnis des Gehirns. Diese biologische Perspektive liefert die Blaupause künstlicher Neuronen und prägt die Grundlagen späterer Modelle lernfähiger KI-Systeme.
Weiterlesen
Kontakt
Leichte Sprache
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram