. .

Duplicate Content verhindern

Doppelten Inhalt der Webseite unterbinden

Irrtümlich wurde in der Vergangenheit dieser so genannte Duplicate Content maßgeblich dafür verantwortlich gemacht, das Ranking einer Webseite negativ zu beeinflussen. Was selbstverständlich nur zum Teil richtig ist. Wenn beispielsweise mit der Absicht das Ranking bei Suchmaschinen zu beeinflussen oder mehr Zugriffe zu er-

zielen, bewusst identische Inhalte auf unterschiedlichen Domains platziert werden! Suchmaschinen wollen dem Nutzer möglichst viele unterschiedliche Inhalte zur Verfügung stellen und versuchen das Anzeigen von doppeltem Content in einer Reihe der Suchergebnisse entsprechend zu verhindern.

Duplicate Content führt nicht dazu, dass eure Site in die Supplemental Results rutscht. Allerdings kann dies indirekt ausgelöst werden, falls verschiedene Links auf die unterschiedlichen Versionen eurer Seite zeigen und so einen niedrigeren PageRank verursachen.


Quelle:Duplicate Content-Session auf der SMX AdvancedDuplicate Content-Session auf der SMX Advanced

Nur weil eine gesamte Webpräsenz den einen oder anderen Duplicate Content enthält, wird sie also nicht abgewertet. Ebenso wenig wird eine einzelne Webseite,

von der innerhalb einer Webpräsenz der ein oder andere Duplicate Content existiert, abgewertet. Fazit: Alle anderen Webseiten mit doppelten Inhalten hingegen schon.

Zu nicht böswillig dupliziertem Content gehören beispielsweise:
  • Diskussionsforen, die sowohl reguläre als auch gekürzte, auf mobile Endgeräte ausgerichtete Seiten erzeugen
  • Lagerartikel, die über mehrere eindeutige URLs angezeigt bzw. referenziert werden
  • Druckversionen von Webseiten
Quelle:Content duplizieren - Webmaster-Tools-HilfeContent duplizieren - Webmaster-Tools-Hilfe

Um Duplicate Content zu verhindern, ist die Verwendung des NoFollow-Attributs für interne Links nicht hilfreich. Denn die Suchmaschine wird das NoFollow-Attribut zwar vom Crawlen der duplizierter Seiten abhalten, nicht jedoch die Indexierung von fremden Webseiten verhindern, die gegebenenfalls zu diesen duplizierten Seiten linken.

Sollen die Inhalte einer Seite nie in einer Suchmaschine indexieren werden, obwohl von anderen Webseiten auf sie verwiesen wird, muss ein "noindex"-Meta-Tag verwendet werden. Beim Crawlen der Seite erkennt der Robot das "noindex"-Meta-Tag und schließt die URL aus dem Index aus.

Lösung: Platzieren Sie das folgende Meta-Tag in den Abschnitt <head></head> der Seite:

<meta name="robots" content="noindex">

Die am häufigsten verwendeten Suchrobots finden Sie in der Datenbank für SuchrobotsWeb Robots Database.


Duplicate Content mithilfe der “robots.txt”-Datei vermeiden

Blockieren mittels “robots.txt”-Datei

Webseiten mit Doppelten Inhalten, die von den Suchrobotern nicht gecrawlt werden sollen, lassen sich mit Hilfe der “robots.txt”-Datei blockieren.


Die einfachste “robots.txt”-Datei enthält nur zwei Regeln:

  • User-agent: Der Suchroboter, für den die folgende Regel gilt
  • Disallow: Die URL, die blockiert werden soll

Diese beiden Zeilen werden als einzelner Eintrag in der Datei betrachtet. Sie können beliebig viele Einträge aufnehmen. Ein Eintrag kann auch mehrere "Disallow"-Zeilen und mehrere User-Agents umfassen. Achtung! Bei diesen Anweisungen wird die Groß-/Kleinschreibung berücksichtigt.

User-agent: *

# Blockieren der gesamten Website:
# Geben Sie nur einen Schrägstrich ein.
Disallow: /

# Blockieren eines Verzeichnisses und seines Inhalts:
# Geben Sie den Verzeichnisnamen gefolgt von einem Schrägstrich an.

Disallow: /folder1/

# Blockieren einer einzelnen Seite:
# Geben Sie die Datei an.

Disallow: /datei.html

User-Agent: Googlebot
Disallow: /folder2/

In letzterem Beispiel wären nur URLs, die /folder2/ enthalten, für den Googlebot unzulässig. Was wiederum wenig Sinn macht um das verlinken duplizierter Seiten von fremden Webseiten zu verhindern. Die am häufigsten verwendeten Suchrobots finden Sie in der Datenbank für SuchrobotsWeb Robots Database.


Domain-Adresse mit oder ohne www Präfix

bevorzugter Domain Präfix

Der inkonsistenteInformationBedeutung: inkonsistentebezeichnet einen Zustand, in dem zwei Dinge, die beide als gültig angesehen werden sollen, nicht miteinander vereinbar sind Aufbau der Domain-Adresse kann dazu führen, dass eine Suchmaschine die Inhalte als doppelten Inhalt interpretiert, obwohl jede einzelne Webseite nur ein einziges Mal existiert.

Grundsätzlich ist eine Webseite sowohl mit als auch ohne www Präfix erreichbar, was für den Nutzer als positiv zu bewerten ist, ist unter dem Aspekt der Suchmaschinen- optimierung jedoch problematisch.

Durch die Definition einer einzigen URL kann ausgeschlossen werden, dass eine Webseite möglicherweise doppelt indiziert wird. Suchmaschinen wie Google nutzen zwar Methoden, dies zu erkennen und zu filtern, als Webdesigner sollte man die Suchmaschinen jedoch vorbeugend unterstützen.

Google bietet beispielsweise mit Hilfe des eigens angebotenen Webmaster-Tools Webmaster-Tools die Möglichkeit der Suchmaschine die bevorzugte Domain mitzuteilen. können Sie entweder "http://webdesign.tepelmann.com" oder "http://www.webdesign.tepelmann.com" angeben. Google beachtet dies bei allen nachfolgenden Crawls sowie bei allen Indexaktualisierungen der Webseite.

Sollte Google nun einen Link zur Website "http://www.webdesign.tepelmann.com" finden, so wird dieser in der Suche ausgegeben, als lautete die Angabe "http://webdesign.tepelmann.com".

Sie sollten bei der Erstellung Ihrer Webseiten selbstverständlich auf die KonsistenzInformationBedeutung: Konsistenzbedeutet, wenn alle Links einer Webseite auf einheitliche, korrekte und gültige Ziele verweisen achten und immer dieselben internen Links verwenden. Vermeiden Sie beispielsweise die gleichzeitige Verwendung der folgenden Links: http://example.com/seite/, http://example.com/seite und http://example.com/seite/index.htm.

Falls Sie dagegen keine bevorzugte Domain angeben, werden Versionen der Domain mit und ohne "www" möglicherweise als verschiedene Referenzen zu separaten Seiten behandelt. Umso Wichtiger wird dies, wenn unterschiedliche Domains auf ein und dieselbe Webseite verweisen wie beispielsweise "http:// webdesign.tepelmann.com" und "http://tepelmann.com".

Die Lösung:


Unterstützt der vorhandene Webserver mod_rewrite, kann man mit Hilfe eines 301 Moved Permanently-HTTP-Headers auf die andere URL umleiten. Um mod_rewrite zu aktivieren, muss eine .htaccess - Server-Konfiguration.htaccess-Datei im Root-Verzeichnis des Servers angelegt oder falls bereits vorhanden ergänzt werden.

Redirect mit www Präfix
RewriteEngine on
RewriteCond %{HTTP_HOST} ^www\.example\.org$ [NC]
RewriteRule ^(.*)$ http://www.example.org/$1 [L,R=301]
Redirect ohne www Präfix
RewriteEngine on
RewriteCond %{HTTP_HOST} ^www\.example\.org$ [NC]
RewriteRule ^(.*)$ http://example.org/$1 [L,R=301]


Ein weiterer Fall: Die Startseite, diese ist sowohl mit www.example.org/index.php also auch nur mit www.example.org/ erreichbar.

Redirect ohne index.php
RewriteCond %{THE_REQUEST} index\.php [NC] 
RewriteRule ^index\.php$ http://example.org/ [L,R=301]


Linkempfehlungen

Verweise & Links


» zum Seitenanfang

PageSpeed-Optimierung

mehr zum Thema: Browser-CachingLeverage browser caching

Für statische Ressourcen der Webseite, wie Grafiken, JavaScript- und CSS-Dateien das Browser-Caching aktivieren.

» mehr zum Thema: Browser-Cachingmehr lesen

mehr zum Thema: CSS-Dateien kombinierenCombine external CSS

Alle externen CSS-Dateien mittels PHP kombinieren und so die Anzahl der HTTP-Requests reduzieren.

» mehr zum Thema: CSS-Dateien kombinieren • Combine external CSSmehr lesen


mehr zum Thema: JavaScript-Dateien kombinierenCombine JavaScript

Alle externen JavaScript-Dateien mittels PHP kombinieren und so die Anzahl der HTTP-Requests reduzieren.

» mehr zum Thema: JavaScript-Dateien kombinieren • Combine external JavaScriptmehr lesen

mehr zum Thema: JavaScript-Dateien später ladenDefer loading of JavaScript

Externen JavaScript-Dateien später laden, sodass andere Ressourcen parallel heruntergeladen werden können und das Laden der Webseite beschleunigt wird.

» mehr zum Thema: JavaScript-Dateien später laden • Defer loading of JavaScriptmehr lesen

mehr zum Thema: JavaScript-Dateien später parsenDefer parsing of JavaScript

Alle externen JavaScript-Dateien später parsen um den Aufbau der Webseite für den Nutzer so schnell wie möglich zu realisieren.

» mehr zum Thema: JavaScript-Dateien später parsen • Defer parsing of JavaScriptmehr lesen



Webdesign Optimierung

mehr zum Thema: Quelltext-OptimierungQuelltext-Optimierung

Die Umsetzung von suchmaschinen- optimierenden Maßnahmen setzt auf eine strikte Trennung von strukturier- tem Inhalt und dem jeweiligen Layout.

» mehr zum Thema: Quelltext-Optimierungmehr lesen

mehr zum Thema: Struktur-OptimierungStruktur-Optimierung

Der wohl wichtigste Aspekt für ein erfolgreiches Webdesign. Die Struktur einer Website ist die grundlegende Voraussetzung.

» mehr zum Thema: Struktur-Optimierungmehr lesen

mehr zum Thema: Layout-OptimierungLayout-Optimierung

Das Optische Design ist, was dem Besucher als erstes ins Auge sticht und was auch die meisten unter dem Begriff Webdesign verstehen.

» mehr zum Thema: Layout-Optimierungmehr lesen

mehr zum Thema: Text-OptimierungText-Optimierung

Textaufbereitung? Die Texteinhalte der Webseiten werden meist weniger gelesen, als überflogen. Entsprech- end müssen Texte für das Web angepasst und aufbereitet werden.

» mehr zum Thema: Text-Optimierungmehr lesen

mehr zum Thema: Schnittstellen-OptimierungSchnittstellen-Optimierung

Sobald es um mehr als das Dar- stellen von Texten und Bildern geht, muss man sich mit der Benutzer- schnittstelle befassen.

» mehr zum Thema: Schnittstellen-Optimierungmehr lesen

mehr zum Thema: Duplicate Content verhindern Duplicate Content

Duplicate Content wurde maßgeblich dafür verantwortlich gemacht, das Ranking einer Webseite negativ zu beeinflussen.

» mehr zum Thema: Duplicate Content verhindernmehr lesen




Tastaturkürzel