Category Archive » SEO

HochgeschwindigkeitsSEO: Lasst mich mit eurem Scheiß in Ruhe!

Derzeit findet unter dem Keyword “HochgeschwindigkeitsSEO” mal wieder ein SEO-Wettbewerb statt. Neben Ruhm und Ehre gibt es wohl auch ein neues iPhone zu gewinnen. Obwohl ich gar nicht teilnehme, nervt mich dieser SEO-Wettbewerb nur noch.

Eins vorweg: Sorry für diesen Ausraster/Mini-Rant/was auch immer! Ich bin nur derzeit tierisch genervt und muss mir mit diesem Artikel mal etwas Luft machen. 😉

Worum geht’s beim “HochgeschwindigkeitsSEO”?

Nervt: HochgeschwindigkeitsSEO-Contest

Nervt: HochgeschwindigkeitsSEO-Contest

Derzeit gibt es wieder einen SEO-Wettbewerb (der übrigens heute endet). Ziel ist es, mit dem Keyword “HcohgeschwindigkeitsSEO” besonders gut zu ranken. Wem das am besten gelingt, der gewinnt neben reichlich Anerkennung auch das neue iPhone, das wohl auch heute vorgestellt werden wird.

An sich sind SEO-Wettbewerbe aller Art ja eine feine Sache: Ob Teilnehmer oder nur Zuschauer, man kann im besten Falle viel darüber lernen, wie der Google-Algorithmus funktioniert. Das lässt natürlich hilfreiche Rückschlüsse auch auf die eigene Arbeit zu und macht im besten Falle vieles einfacher. Auch deshalb habe ich ja schon selbst einmal aktiv an einem solchen Wettbewerb teilgenommen.

Was ist aus meiner Sicht doof?

So spannend solche Wettbewerbe auch sein können, so nervig war/ist dieser. Statt sich darauf zu besinnen onpage die eigenen Seiten so sehr zu optimieren, dass Google sie ziemlich gut listet, sind einige der Teilnehmer offenbar nach kurzer Zeit zu alt”bewährten” Mitteln zurückgekehrt und nerven vermutlich nicht nur mich damit.

Trackback-, Kommentar-, twitter-, Wikipedia-Spam

Diese altbewährten Mittel scheinen bei manchem noch immer Massenlinks minderer Qualität zu sein. Das stellt nicht nur Karl Kratz in seinen Auswertung fest. Das sehe ich auch tagtäglich bei mir in den verschiedenen Blogs, bei twitter und Facebook, selbst bei Wikipedia ist das Phänomen zu beobachten.

Einige Spam-Kommentare (à la “Wow, tolle Erkenntnis, war mir so noch nicht bewusst”) mit Keyword-Namen und Deeplinks durfte ich gleich zu Beginn des “HochgeschwindigkeitsSEO”-Contest löschen, in den letzten Tage musste ich das immer wieder tun.

Da folgen mir irgendwelche “HochgeschwindigkeitsSEOs” bei twitter gleich mehrfach am Tag, um ja noch einen Follower zurückzubekommen, den sie mit ihren schlechten Inhalten zu Tode nerven wollen.

Da gibt es aber auch diejenigen Wikipedia-“Autoren” die dieses vollkommen unbedeutende Thema irgendwie noch in die freie Enzyklopädie pressen wollen, um ja nur einen Link abzubekommen. Zum Thema Wikipedia und SEO hatte ich mich in anderem Zusammenhang ja schon ausgelassen.

Schade…

Hätte sich die Mehrzahl der Teilnehmer auf eine gute onpage-Optimierung verlassen hätte man vielleicht etwas über Google lernen können. Bei maßvollem Einsatz hätte man vielleicht auch sogar etwas über die Relevanz von Social Media erfahren oder die wahre (“neue”) Bedeutung von Links erkennen können. Nun versinken wohl die meisten Teilnehmer eher in einem Sumpf aus minderwertigen Links von Fake-Accounts, Spam-Kommentaren und irgendwelchen Linknetzwerken und Pyramiden. Über langfristigen Erfolg im Bereich SEO lernt man damit wohl eher nichts. Es hätte so schön sein können.

Die einzige Erkenntnis, die es jetzt vielleicht noch gibt, ist die, ob Google auch nach den Algorithmus-Änderungen immer noch auf diese Billiglinks anspringt.

P.S.: Wer die von mir genannten Techniken bei seiner Teilnahme nicht angewandt hat, der möge mir verzeihen und sich einfach nicht angesprochen fühlen. 😉

Wikipedia – Aus SEO-Sicht

Beim Webmasterfriday wird aktuell gefragt, was man persönlich von Wikipedia hält. Nun will ich keine langen Monologe halten: Natürlich ist Wikipedia toll, hat aber auch Macken (zum Teil verquere Autoren, die es Neulingen schwer machen, im wissenschaftlichen Kontext wird Wikipedia noch immer nicht als Quelle akzeptiert und und und).

Ich will eine persönliche Bewertung der Wikipedia anderen überlassen und an dieser Stelle versuchen, Wikipedia mal aus einer anderen Sicht zu beurteilen. Nämlich aus der der Suchmaschinenoptimierung.

Wikipedia aus SEO-Sicht

Wikipedia SEO

Wikipedia aus SEO-Sicht

Zur Bedeutung von SEO im Webmaster-Alltag will ich hier nicht lang ausschweifen. Martin Mißfeldt hat jetzt erst sehr schön dargelegt, dass SEO neben 4 anderen Faktoren eine gleichberechtigte Möglichkeit ist, Traffic zu generieren. Zur Bedeutung von SEO lest daher bitte seinen Artikel. Ich gehe aber eh davon aus, dass alle Besucher und Leser dieses Blogs eh schon mal davon gehört haben, welche Bedeutung SEO hat und wissen, wie es ungefähr geht. 😉

Es ist daher auch nichts Neues, dass zu einem SEO-Bundle auch (die richtigen) Links gehören. Links aus der Wikipedia gelten dabei seit eh und je als Ritterschlag: Wer es schafft in der Wikipedia einen Link unterzubringen, kann davon ausgehen, dass Google der Seite einen großen Schub an Relevanz für ein bestimmtes Thema zuweist. Auch mit den letzten Algorithmus-Änderungen (Panda, Penguin und Konsorten) hat sich damit meines Erachtens nicht viel dran geändert.

Aber genau da liegt die Krux an der Sache und ein Problem, mit dem Wikipedia massiv zu kämpfen hat.

Spammy Links aus der Wikipedia

Dadurch, dass Google Links aus der Wikipedia eine relativ hohe Relevanz zuteilt wird nämlich dann ein echtes Problem, wenn wirklich jedermann versucht, eigene Links in der Wikipedia unterzubringen. Doch Wikipedia ist eben keine reine Linksammlung sondern basiert auf dem Prinzip gemeinsamer Wissensteilung: Experten aus bestimmten Bereichen verfassen gemeinsam einen Artikel zu einem bestimmten Thema, überarbeiten diesen gemeinsam und verlinken – wie im wissenschaftlichen Kontext – glaubwürdige Quellen zur Untermauerung einer bestimmten These. Das funktioniert meistens gut, manchmal steht in der Wikipedia aber auch einfach nur Quatsch.

Wenn aber selbsternannte Experten zu einem Theme halbgare Wahrheiten schreiben und diese dann mit ihren halbgaren Thesen auf Landingpages etc. untermauern wollen, dann verliert Wikipedia an Qualität. Doch genau das zeichnet Wikipedia bislang ja aus: Wissen auf relativ hohem Niveau. Verliert aber Wikipedia an Qualität, sot täten es in Googles Augen auch langfristig die ausgehenden Links.

Zwar gibt es immer wieder echte Wikipedia-Nutzer, die mangelhafte Beiträge und Verweise ins Nirvana schicken. Aber nicht immer ist das der Fall. Manchmal schafft es dann doch ein selbsternannter Finanz-, Bodenbelag- oder Ernährungsexperte schlechte Links und Beiträge unterzubringen. Immer wieder fällt mir das auf. So aber hat die Wikipedia keine Zukunft.

Content ist immer noch King – Vielleicht mehr denn je!

Nun komme ich mit – dem zugegebenener Maßen etwas ausgelutschten Spruch – “Content is King” daher. Schon immer hatte dieser Spruch Relevanz und seit den letzten Änderungen am Google-Algorithmus wahrscheinlich noch ein bisschen mehr: Google will keinen Schrottcontent mehr, Wikipedia wollte es noch nie.

Diese zwei Faktoren sollten eigentlich zeigen, worauf der Fokus eines Webmasters/Bloggers/SEOs/etc liegen sollte: Auf gutem Content; Nicht aber auf dem zwanghaften Versuch Links aus Wikipedia abzugreifen.

Wer guten Content schafft und dem Nutzer damit einen Mehrwert liefert, der wird vermutlich irgendwann sogar ganz automatisch in der Wikipedia verlinkt. Gute Mehrwerte sind aber nicht endlose Bilderstrecken, tausende Infografiken und hingeklatschter Content. Nein, es sind die Besonderheiten, die Webseiten für Wikipedia-Autoren interessant machen. Das können Interviews mit (echten) Experten sein, das kann aber auch das Aufstellen einer ganz neuen These sein.

Wichtig ist: Einzigartigkeit, Verständlichkeit, Nutzen.

Übrigens: Wikipedia auch mal verlinken

Gerade in diesem Zusammenhang gilt: Guter Content ist nur dann wirklich gut, wenn er auf verwandte Quellen verweist; Ich habe das hier schon einmal ausgeführt. Und daher gilt: Auch Wikipedia zu zitieren und zu verlinken, kann aus SEO-Sicht nur richtig sein.

Fazit

Ich habe nichts gegen Links aus der Wikipedia. Im Gegenteil: Externe Links bei Wikipedia helfen, die Verlässlichkeit der Informationen zu überprüfen. Es gilt aber, dass Wikipedia in seiner Einzigartigkeit nicht zerstört werden sollte. Genau das passiert aber, wenn jeder Webseitenbetreiber eigenen, manchmal schlechten Content auf Wikipedia verlinkt wissen möchte.

Wir sollten uns nicht auf die Links fokussieren, sondern Nutzer und Inhalte wieder mehr in den Mittelpunkt stellen. Dann kommen die Links aus Wikipedia ganz automatisch und Google wird es uns danken.

Was denkt ihr?

Schluss mit dem Linkgeiz: Externe Links machen Sinn

Seit Jahren schon bestimmt ein Thema den Bereich SEO maßgeblich: Das Linkbuilding. Dieser Teil der Off-Page-Optimierung galt lange Zeit als höchste und wichtigste Disziplin im Strauß verschiedener SEO-Maßnahmen. Möglichst viele (wertvolle) Links auf das eigene Angebot bekommen und selbst so wenig wie möglich nach außen verlinken, war dabei das Credo vieler Webseitenbetreiber, das neben dem (häufig missverstandenen) Ausdruck “Content is King” zu den Allgemeinplätzen gehörte.

Spätestens seit den letzten Algorithmus-Änderungen bei Google wissen wir: Mit diesen zwei Formeln macht man sich die SEO-Welt ein bisschen zu einfach. Gerade das Linkbuilding beinhaltet mehr als das Sammeln von Links (mal abgesehen davon, ob sie nun themenrelevant sind oder nicht, ob sie wertvoll oder minderwertig sind und ob sie durch Kauf oder freiwilliges Verlinken entstanden sind) und das Vermeiden von externen Links.

Externe Links machen durchaus Sinn und können den Wert (auch für die Google-Suchergebnisse) einer Website steigern. Und ich will euch auch erklären, warum das so ist.

Google sucht die besten Seiten für die besten Ergebnisse

Glaubt man den Aussagen von Google, so will die Suchmaschine aus dem sonnenverwöhnten Kalifornien den suchenden Internetnutzern vor allem eines liefern: Die Ergebnisse, die am besten zu einer Suche (und das ist nicht immer die Suchanfrage selbst!) passenden Ergebnisse liefern. Deshalb verbessert Google Suchanfragen (falsche Schreibweisen), deshalb macht Google schon beim Eintippen der Suchanfrage Vorschläge zur Vervollständigung (“auto-suggest”), deshalb positioniert Google Seiten mit eigentlich gleichem Inhalt auf unterschiedlichen Positionen. Und manchmal gibt es die richtigen Ergebnisse schon direkt auf der Google-Seite (z.B. Wetter, Wechselkurse oder Flugzeiten). Danach (und offiziell erst wirklich danach, auch wenn das in der Realität manchmal etwas anders scheint) kommt auch ein wirtschaftliches Interesse von Google.

Mehr Links = bessere Seite? Wohl kaum!

Externe Links

Externe Links

Lange Zeit galt für Suchmaschinenoptimierer und Webseitenbetreiber die Formel: “Mehr Links = gleich bessere Position in den Suchergebnissen” (vereinfacht). Denn Google schien genau diesen Ansatz auch in den eigenen Positionsberechnungen zu fahren. Je mehr Links auf eine Seite verweisten, umso besser wurde sie gelistet. Die Idee dahinter war relativ einfach: Je mehr Menschen freiwillig von ihrer eigenen Website auf eine andere Website verlinken, umso besser muss doch der Inhalt dieser Seite sein. Denn nur gute Informationen werden doch auch verlinkt.

Dass das nicht richtig sein kann, sagt einem der klare Menschenverstand. Denn Links entstehen nicht ausschließlich freiwillig. Webkataloge, Artikelverzeichnisse, gekaufte Links oder Linknetzwerke mit mehr oder weniger schrottigen Blogs und Satellitenseiten sind nun wahrlich keine freiwilligen Links. Im Ergebnis führte das auch manchmal dazu, dass Google Schrottseiten in den Top10 zu einer Suchanfrage anzeigte.

Auf der anderen Seite gab es immer die Angst, durch eigene Links Power der Seite abzugeben. “Linkjuice” war als Wort geboren, das genau diesen Effekt beschreiben sollte: Während jeder Link zu mir die Power meiner Seite (am Ende dann”PageRank”) erhöht, muss doch jeder Link von meiner Seite auf eine andere zu Powereinbußen führen; Schließlich gebe ich damit ja zu, dass eine andere Seite noch erweiternde, zusätzliche oder bessere Informationen enthält. Dieser Gedanke ließ sich statistisch dann auch irgendwie belegen, der Linkgeiz war erfunden.

Auch Google bemerkte dann irgendwann, dass das alles nicht so richtig funktioniert und hat mit verschiedenen Maßnahmen die Gegensteuerung versucht.

  • Da gab es plötzlich das nofollow-Attribut, um verlinkte Seiten abzuwerten und keinen “LinkJuice” abgeben zu müssen. Mittlerweile wissen wir, dass die Google-Robots auch den nofollow-Links folgen und auch nofollow-Links den Wert einer Seite erhöhen können.
  • Da gab es das Abwerten von bekannten Spam-Versuchen: Forenlinks warn plötzlich mehr schädlich als nützlich, massenhaft neue Links an einem Tag wurden als Betrugsversuch gewertet.
  • Da gab es das De-Indizieren von bekannten Artikelverzeichnissen, die nur dazu aufgebaut wurden, um Links zu erzeugen.
  • Da gab es Algorithmus-Änderungen, die Links scheinbar schädlich machten (in der Folge versuchen nun etliche Webseitenbetreiber Links abzubauen).

Externe Links

Es gab jedoch auch eine Neuerung, die offenbar belohnend wirkt. Waren in der Google-Typologie externe Links lange Zeit eher schädlich als nützlich (weil sie – wie erwähnt – einem Eingeständnis nicht ausreichender Informationen gleich kamen), so hat sich dieses Verständnis jetzt offenbar (so ist zumindest mein Eindruck) geändert: Externe Links sind kein Zeichen der Schwäche. Vielmehr sind sie als Service für die Besucher anzusehen: “Sie her, hier gibt es noch weitere Informationen zu deinem Interesse!”

Diese Veränderung führt dazu, dass es im Rahmen der On-Page-Optimierung durchaus Sinn machen kann, auf themenrelevante und weiterführende Informationen zu verlinken. Eigene Artikel aus der Vergangenheit können dabei genauso wertvoll sein wie externe Artikel zu weiterführenden Informationen oder anderen Standpunkten.

Nofollow?

Meiner Meinung nach hat Google das nofollow-Attribut schon selbst längst beerdigt: Es war der kurzzeitige Versuch scheinbare Spamlinks irgendwie abzuwerten. Weil dabei aber auch durchaus wichtige Links unter die Räder gekommen sind (weil pauschal alle externen Links vom Websitebetreiber auf nofollow gesetzt wurden), hält man sich in Mountain View schon gar nicht mehr an die einstige Erfindung, sondern bewertet Links nach ganz eigenen Regeln. Eingehende Nofollow-Links können daher für die verlinkte Website positive Auswirkungen haben, do-follow-Links aber auch mal negative.

Also wie jetzt?

Was bedeutet diese Einschätzung jetzt für Websitebetreiber? Vor allem zwei Dinge:

  1. Das gilt schon länger_ Linkbuilding ist längst nicht alles. Auch ohne Linkbuilding und nur mit richtiger On-Page-Optimierung kann man gute Ergebnisse einfahren. Eingehende Links sollten von guter Qualität sein, dazu (in einem anderen Artikel, wird hier verlinkt) später mehr.
  2. Externe Links in das eigene Angebot zu setzen, macht durchaus Sinn: Es ist für Google das Signal, dass jemand anderes an anderer Stelle ergänzende Informationen oder ein Statement zum gleichen Thema verfasst hat. Also: Gibt es weitergehende Informationen, sollte man die auch verlinken! Auf das nofollow-Attribut kann/sollte man bei solchen Links grundsätzlich verzichten. Das bedeutet aber nicht, dass man inflationär mit diesen Links umgehen kann: 2-3 “gute” externe Links sind mehr wert, als 20 sinnlos zusammengeworfene. Diese externen Links sollten dann auch (falls vorhanden) mit internen Links auf eigene Artikel erweitert werden.

7 Tipps zum Beschleunigen einer Website

Die Geschwindigkeit einer Website spielt für Google (und damit auch für die Positionierung in Suchergebnissen) eine immer größere Rolle. Ein Indiz für diese Annahme ist etwa auch, dass der Spagespeed einer Seite mittlerweile auch in den Webmastertools von Google angezeigt wird; Dazu ist nicht einmal mehr die Installation des Page Speed Plugins (Firefox und Chrome) notwendig.

Ladezeiten optimieren

Ladezeiten optimieren

Für Google macht es auch Sinn, schnellere Websites zu belohnen:

  • Die Nutzererfahrungen mit schnellen Websites sind immer besser
  • Google spart Geld und Ressourcen: Wenn 1 Millionen Websites nur 1 Sekunde schneller sind, dann bedeutet das bei Google für jedes Crawlen eine Ersparnis von etwas mehr als 277 Stunden Rechenzeit (mit den daraus resultierenden Implikationen für das Vorhalten von Serverkapazitäten, Stromersparnis, etc.).

Website-Betreiber sind also angehalten, die Geschwindigkeit ihrer Websites stetig zu verbessern. Um erstens in den Suchergebnissen besser gelistet zu werden und um zweitens Nutzern ein besseres Erlebnis zu garantieren und so Conversions, Beuschszeiten, etc. zu verbessern.

Ich möchte an dieser Stelle 7 (meist) einfache Möglichkeiten vorstellen, die unabhängig vom eingesetzten CMS von allen Website-Betreibern durchgeführt werden können.

Bilder verkleinern

In der Regel bleiben zwei Grafikformate, die für Bilder auf Websites genutzt werden können: JPEG und PNG; Bei GIF gibt es irgendwelche Rechteinhaber, die eigentlich die Nutzung lizensieren müssten, BMP werden nicht von allen Browsern angezeigt und sind viel zu groß. Das Gleiche gilt auf für TIFFs und Raw-Formate. Nur JPEGs werden von allen Browsern dargestellt und lassen sich vernünftig komprimieren, für PNGs gilt – soweit man PNGs für ältere IEs lesbar macht – Ähnliches.

ImageOptim

ImageOptim

Doch nicht jede JPEG oder PNG, die ein Grafikprogramm ausspuckt, sind auch für Websites geeignet. Denn: In der Regel sind sie viel zu groß und können noch ordentlich komprimiert werden. Einsparungen von bis zu 80% (Dateigröße) sind durchaus machbar. Daher einige Tipps:

  • Auflösung des Bildes an Erfordernisse anpassen: Es macht keinen Sinn, ein Bild mit 1200×800 Pixel zu verwenden, dass dann aber nur mit 600×400 Pixel angezeigt wird. Also: Bilder in die richtige Größe beschneiden.
  • EXIF-Daten löschen: Gerade bei echtes Fotos werden von der Kamera viele EXIF-Daten (also Informationen zu Blende, Belichtungszeit, Kamerahersteller, ggf. Ort, etc.) im Bild gespeichert. Diese Informationen braucht man bei der Verwendung auf der eigenen Website also nicht. Also: EXIF-Daten löschen. Dafür gibt es entsprechende Programme, die aber auch obsolet werden, wenn man den folgenden Tipp beachtet:
  • Bilder komprimieren: Fotos und Grafiken sind meistens in sehr guten Qualitätsstufen gespeichert. Für Websites kann man aber auch niedrigere Qualitätsstufen verwenden. Die optische Beeinträchtigung (Schlieren bei JPEGs zum Beispiel) wird – sofern die Komprimierung nicht zu klein ist – von Besuchern gar nicht wahrgenommen, die Dateigrößen können manchmal aber halbiert werden.
    Für Mac-Anwender empfehle ich immer das kleine Tool “ImageOptim” – sowohl Sergej als auch Ralf haben über das Tool schon einmal ausführlich berichtet.
    Für Windows-Nutzer habe ich leider kein Tool zur Hand.
    Die Komprimierung kann allerdings auch im Web gemacht werden: Yahoo! bietet mit Smush.it einen tollen “Bildverbesserer” im Netz, die Ergebnisse des Tools sind durchaus ordentlich!

Vorteile dieser Lösungen: Sie komprimieren nicht nur das Bild, bzw. die Bildqualität; Nein, auch die EXIF-Daten werden automatisch gelöscht. Mit ein bisschen Arbeit kann man die Bildgrößen im Mittel mindestens um 50% verringern. Mit dem daraus folgenden Boost für die Website!

HTML und CSS optimieren

Ein Graus bei vielen Websites: Verschachteltes, unnötiges HTML und CSS. Auch ich nehme mich von dieser Kritik nicht aus. Doch auch wenn man den Quelltext der eigenen Website eher selten zu Gesicht bekommt: Vernachlässigen sollte man den nicht. Unnötige Klassen (HTML) oder Deklarationen (CSS) sind vermutlich die häufigsten Probleme.

Zwei Beispiele (in Anlehnung an die von Vladimir, der ähnliche Tipps für WordPress-Nutzer gibt):

Aus einer Deklaration wie:

.text {
	font-family: Verdana, Arial, sans-serif;
	font-size: 1.2em;
	font-style: italic;
	color: #000000;
	padding-bottom: 10px;
	padding-top: 10px;
	padding-left: 20px;
	padding-right: 20px;
	}

sollte man machen:

.text {
	font: italic 1.2em Verdana, Arial, sans-serif;
	color: #000;
	padding: 10px 20px;
	}

Auch das Zusammenfügen verschiedener Klassen mit den gleichen Inhalten ist enorm wichtig. Aus:

.infobox {
	padding: 10px;
	background-color: #ccc;
	color: #000;
	margin: 10px;
	font-size: 20px;
	}

.socialbox {
	padding: 10px;
	background-color: #ccc;
	color: #000;
	margin: 10px;
	font-size: 20px;
	}

wird dann:

.infobox, .socialbox {
	padding: 10px;
	background-color: #ccc;
	color: #000;
	margin: 10px;
	font-size: 20px;
	}

Übrigens: Um die CSS-Dateien noch ein bisschen mehr zu komprimieren, empfehle ich Sergejs Code-Compressor: Der entfernt unnötige Kommentare und Leerzeichen und komprimiert die Dateigröße von CSS-Dateien (JavaScript geht übrigens auch) schnell mal um bis zu 60%. Vor Einsatz dieses Tools gilt aber: Backup machen! Das Arbeiten in den komprimierten Versionen ist enorm anstrengend!

JavaScript auf dem Prüfstand

JavaScript (JS) ist von den meisten Websites nicht mehr wegzudenken: Schicke Startseitenslider oder elegante Dropdown-Menüs sind nur zwei Fälle, in denen JavaScript zum Einsatz kommt. Aber: JavaScript macht Websites einfach langsamer. Man sollte daher einmal der Frage nachgehen, welche schicken Elemente wirklich benötigt werden, oder worauf man nicht lieber verzichten sollte.

Gibt es JavaScript, auf das man nicht verzichten will oder kann, so sollte man das nach Möglichkeit aber ans Ende einer Seite (bzw. die Verweise auf die externen JS-Dateien) setzen. Grund: JavaScript wird erst dann ausgeführt, wenn die Seite vollständig geladen ist. Nicht nur vom Gefühl wird die Seite dann schneller.

Externe CSS- und JS-Dateien zusammenführen

Aus Gründen der Einfachheit und Übersichtlichkeit werden CSS- und JS-Inhalte oftmals in mehrere unterschiedliche Dateien ausgelagert. So gibt es dann beispielsweise eine style.css, eine shortcodes.css und auch eine layout.css (ähnliche Beispiele sind denkbar). Diese Dateien sollte man nach Möglichkeit in einer Datei zusammenfassen. Der Grund: Browser können vom selben Host gleichzeitig immer nur 5 Dateien laden. Werden diese “Slots” durch 5 CSS-Dateien “blockiert” verzögert sich das Laden anderer Elemente zwangsläufig.

Wer auf die Trennung unterschiedlicher CSS-Dateien indes nicht verzichten kann, der sollte die per “link” aufrufen, nicht per “@import”. “link” ist einfach performanter.

CSS-Sprites nutzen

CSS-Sprites

CSS-Sprites

Dieser Tipp ist in der Anwendung etwas anstrengender. Vor allem dann, wenn das eigene Website-Design schon steht und nicht geändert werden soll. Denn im Nachhinein, sind CSS-Sprites nicht so einfach umzusetzen.

CSS-Sprites sind Bilddateien, die viele kleinere “Bildchen” (etwa Icons, Hintergrundgrafiken, etc.) beinhalten. Statt im CSS dann bestimmten Elementen einzelne Grafiken zuzuweisen, wird die Sprite-Datei zugewiesen und der Ausschnitt per CSS definiert. Sprites beinhalten daher häufig viele kleine Grafiken, die auf den ersten Blick vollkommen unsortiert aussehen.

Der Vorteil liegt auf der Hand, wenn man wieder an die Begrenzung gleichzeitiger Ladevorgänge der Browser denkt: Statt beispielsweise 20 kleine Mini-Grafiken zu laden, wird nur eine größere Bilddatei geladen. Somit sind schneller Kapazitäten für weitere Ladevorgänge frei.

Ein nettes Tool um Sprites zu erstellen ist übrigens Spritecow.com. Mehr Informationen zum Einsatz und zur Umsetzung von Sprites gibt es bei Frank.

Cachen

Die Idee der meisten CMS ist ja, dass man Inhalte online erstellt, die dann in einer Datenbank ablegt und das System aufgrund vordefinierter Templates daraus dann HTML-Seiten macht. Das manuelle Erstellen von HTML-Seiten ist somit nicht mehr notwendig. Ein Problem nur: Für jeden Aufruf muss dieser Vorgang der “HTML-Erstellung” neu durchgeführt werden. Das belastet den Server und verlangsamt die Seitenaufrufe.

Abhilfe gibt es für Anwender mit Apache-Server (sofern man den Zugriff auf die .htaccess hat): Mit wenigen Einträgen kann man so den Server zum Cachen bestimmter Dateitypen auffordern. Statt eine Seite dann neu zu generieren, greift der Server auf bereits vorhandenen Cache zurück.

Die notwendigen Einträge in die .htaccess sind schnell gemacht, eine gute Anleitung gibt es hier.

Komprimierung

Ebenso sinnvoll und mit wenigen Handgriffen (bzw. Einträgen in der .htaccess) erledigt: Das Komprimieren von Dateien. Hier gilt wieder der bereits oben erklärte Ansatz: Je kleiner eine Datei, umso schneller wird sie geladen. Doch nicht nur bei Grafiken oder CSS-Dateien kann man das machen. Auch HTML-, Text- oder PHP-Dateien lassen sich komprimieren. Dazu reicht bereits ein Eintrag in der .htaccess:

<IfModule mod_deflate.c>
<FilesMatch "\.(html|css|js|xml|php|txt)$">
SetOutputFilter DEFLATE
</FilesMatch>
</IfModule>

HTML-, CSS-, JS-, XML-, PHP- und TXT-Dateien werden somit vom Server komprimiert und zusätzlich auch als GZIP-Version (die Google etwa beim Crawlen gern nutzt) zur Verfügung gestellt. Die Ladezeiten reduzieren sich somit deutlich.

gleichzeitiges Laden: Dateien auslagern

Ein Tipp, der sich eher an Profis richtet, ist das Auslagern von (statischen) Dateien auf andere Hosts. Die Idee dahinter ist der Aufbau eines CDN: Da Browser nur 5 Dateien gleichzeitig von einem Host laden, kann man statische Dateien auf andere Hosts auslagern, damit die gleichzeitig geladen werden. Das empfiehlt sich vor allem für Stylesheets oder Grafiken. Dabei muss man nicht einmal auf professionelle Dienstleister zurückgreifen, eine Subdomain tut es in der Regel auch schon.

Grafiken und CSS daher einfach extern auslagern und die neuen Adressen der Website hinzufügen, schon wird alles etwas flotter.

SERPs mit Rich Snippets rocken

Ja, der Titel klingt etwas provokativ; Aber das ist gewollt! Ich möchte euch in diesem Artikel einmal aufzeigen, wie sich mit Rich Snippets die eigenen Suchergebnisse aufwerten lassen. Drei einfache, oftmals schnell umgesetzte Beispiele sollen einmal verdeutlichen, was heute schon mit Rich Snippets möglich ist.

Was sind Rich Snippets?

Bei Snippets handelt es sich um die wenigen Zeilen Text, die unter jedem Suchergebnis erscheinen. Sie sollen Nutzern eine Vorstellung davon vermitteln, was die Seite enthält und warum sie für ihre Suchanfrage relevant ist.
Google

Rich Snippets sind – allgemein ausgedrückt – Erweiterungen der eigenen Website, die Google als Extra-Informationen versteht und dann in den Suchergebnissen gesondert darstellt. Für Google ist es eine Möglichkeit dem Nutzer bereits bei der Suche nützliche Ergebnisse vorzustellen, Webseitenbetreiber können so die eigenen Suchergebnisse  aufwerten. Einzige Bedingung: Diese Aufwertung muss in der von Google vorgeschriebenen Form erfolgen, damit Google die Rich Snippets überhaupt als solche wahrnimmt.

Rich Snippets

Rich Snippets

Für Rich Snippets gibt es viele Beispiele und Anwendungsmöglichkeiten, die bereits heute von Google unterstütz werden:

  • Autor des Artikels
  • Sternchen-Bewertungen eines Produkts oder eines Artikels
  • Breadcrumb-Navigation der Seite
  • Rezepte (inklusive Vorschaubild)
  • Veranstaltungen und Ereignisse (inklusive Zeit- und Ortsangaben)

Bessere CTR durch Rich Snippets

Ich habe das Gefühl, dass Google die Rich Snippets derzeit enorm forciert, um Suchergebnisse noch besser bewerten zu können und die Relevanz einer Seite besser einschätzen zu können. Die Vermutung liegt daher auch nahe, dass Seiten mit Rich Snippets in den SERPs, aber auch bei den CTR in den SERPs deutlich besser abschneiden, als Seiten ohne Rich Snippets. Statistische Erhebungen dazu sind mir leider nicht bekannt, zwei Beispiele verdeutlichen meine Einschätzung aber:

  1. Auf meiner eigenen SEO-Spielwiese ArtikelWissen.info hat die Integration von Rich-Snippet-Breadcrumbs schlagartig eine Verdopplung der Besuchszahlen und eine deutlich gesteigerte Sichtbarkeit zur Folge gehabt.
  2. Quicksprout berichtet von einem 150%-igen Trafficboost allein durch die Integration des Authorship-Markup

Meine Einschätzung wird zudem auch von anderen geteilt.

Nun dürften viele der derzeit verfügbaren Mikrodaten für viele Webseitenbetreiber noch gar nicht so relevant sein. Drei Dinge lassen sich aber mit wenig Aufwand integrieren und sind zudem für beinahe jede Webseite und jeden Blog geignet: Breadcrumbs, Bewertungen und das Authorship-Markup.

Rich Snippets 1: Breadcrumbs

Breadrcumb-Navigationen auf Webseiten kennt man ja seit einiger Zeit. Diese Breadcrumbs sind aber beinahe genauso lang auch schon für die Google-Suchergebnisse möglich. Aussehen kann das zum Beispiel dann so:

Rich Snippets: Breadcrumbs

Rich Snippets: Breadcrumbs

Breadcrumbs zeigen somit einen genauen Pfad zu einem Artikel oder einer Seite an, sie vereinfachen dem Leser/Besucher die Orientierung und ermöglichen ihm beispielsweise auch das schnelle Zurückspringen in eine übergeordnete Kategorie.

Die Integration solcher Rich Snippets ist relativ einfach und wird hier und hier ausführlich erklärt. Wem das zu kompliziert ist, der findet für verschiedene CMS auch fertige Plugins, die dann nur noch eingebaut werden müssen. Für WordPress habe ich etwas hier schon einmal eines vorgestellt.

CSS: Breadcrumbs optisch anpassen

Die Plugins oder Erweiterungen liefern aber nicht immer auch die Mittel mit, um eine Breadcrumb-Navigation optisch an die eigene Webseite anzupassen. Wie man mit CSS relativ einfach aber Breadcrumbs erzeugen kann, dazu habe ich euch mal zwei schöne Beispiele herausgesucht:

Rich Snippets 2: Bewertungen

Eine weitere Möglichkeit, um die eigene Website in den SERPs hervorzuheben und von der derzeit stark Gebrauch gemacht wird, sind Sternchenbewertungen. Beinahe jede Nachrichtenseite und jeder zweite Online-Shops, dazu unzählige Blogs haben diese Sternchenbewertungen mittlerweile integriert. Das sieht dann so aus:

Rich Snippets: Bewertungen

Rich Snippets: Bewertungen

Die Integration dieses Rich Snippets ist auch kein Hexenwerk und wird etwa hier beschrieben. Und für verschiedene CMS gibt es bereits fast fertige Lösungen, eine einfache Umsetzung für WordPress hat beispielsweise Malte Landwehr einmal hier veröffentlicht.

Schindluder mit Sternchen-Bewertungen

Was ich allerdings kritisch sehe und wo eine Reaktion von Google nur eine Frage der Zeit ist: Nicht immer basieren die Sternchen auf tatsächlichen Bewertungen der Nutzer. So bewertet beispielsweise das Online-Angebot von “focus” den Artikel jeweils besser, je mehr Leser auf “Lesenswert” geklickt haben, wie Arthur Mai hier berichtet. Die Transparenz der Bewertungen ist so nicht mehr gewährleistet.

Mehr dazu auch unter dem Abschnitt “Rich Snippets werden nicht angezeigt”.

Rich Snippets 3: Authorship-Markup

Derzeit immer stärker im Fokus vieler Webseitenbetreiber: Das Authorship-Markup. Da Google immer mehr zu einer sozialen Suchmaschine wird, wird auch die Relevanz von Autoren eine immer größere Bedeutung bekommen. Sehr lesenswert hierzu: AuthorRank und die Top200 Autoren mit Google+ Integrationen. Seit Google+ ist es zudem immer einfacher geworden, den Autoren eines Artikels in den SERPs anzeigen zu lassen. Das sieht dann etwa so aus:

Rich Snippets: Autor

Rich Snippets: Autor

Über die beste Integration dieses Markups ist sich Google offenbar selbst noch nicht so ganz sicher, wie Christian Süllhöfer hier berichtet. Doch gibt es Anleitungen über die Integration des Authorship-Markups zuhauf (Google ist dein Freund!) und ich habe hier mal erklärt, wie es in WordPress besonders einfach geht.

Rich Snippets werden nicht angezeigt

Rich Snippets werden in der Regel nicht binnen Minuten nach den Integration angezeigt, man muss Google dafür schon etwas Zeit geben. Damit es aber überhaupt klappt, muss das Markup sauber sein, das lässt sich schnell mit dem Rich Snippets Testing Tool von Google überprüfen. Werden die Rich Snippets nach einigen Wochen dann noch immer nicht angezeigt, kann es dafür verschiedene Gründe geben, die Google hier auflistet.

Dazu zählt dann beispielsweise auch der Grund, dass das Markup für echte Benutzer nicht sichtbar ist, weil es mit den Möglichkeiten von CSS unsichtbar gemacht wird. Googles Empfehlung: “Don’t do it!”. Wenn Google das sagt, sollte man es auch so tun. Alles andere wäre in meinen Augen ein Betrugsversuch, auf die Goole ja immer allergisch reagiert. Daher bleibt die Frage spannend, ob der Focus mit seiner eigenwilligen Bewertung noch lange durchkommt… 😉

Bei Fragen: Bitte fragen! Ich helfe so gut ich nur kann!

Onpage-SEO-Faktoren im Überblick

Die Onpage-Optimierung gehört ebenso wie der Linkaufbau etwa zu den festen Bestandteilen von SEO. Hier kann man viel falsch machen, eine echte Wahrheit gibt es allerdings auch nicht. Ich möchte an dieser Stelle daher einmal die Onpage-SEO-Faktoren vorstellen, mit denen ich sehr gute Erfahrungen mache. Das bedeutet im Umkehrschluss aber nicht, dass es nicht auch anders ginge. Für Verbesserungsvorschläge wäre ich sehr dankbar!

Aber: Diese Faktoren beziehen sich nur auf das Verfassen und Optimieren von Texten. Die Optimierung des Quelltextes findet in dieser Auflistung erst einmal keine Berücksichtigung!

Onpage-SEO-Faktoren

Nr Empfehlung Anmerkung (HTML)
1 Keyword ist erstes Wort in den META-Keywords Zudem sollte ein Synonym vorhanden sein.
2 Keyword ist eines der ersten Worte in der META-Description. Aber ordentliche Sätze schreiben. Zudem Nutzeransprache forcieren: Description wird als Snippet in den Google-Ergebnissen angezeigt!
3 Meta-Description nicht länger als 140 Zeichen. Das Datum wird ebenfalls in den Suchergebnissen angezeigt, daher schneidet Google ab 140 Zeichen ab.
4 Maximal 5 Worte in den META-Keywords eintragen.
5 Keyword ist im ersten Absatz des Textes vorhanden.
6 Keyword ist eines der ersten Worte im Titel.
7 Seitentitel darf nicht länger als 70 Zeichen sein. …danach schneidet Google in den SERPs ab.
8 Keyword-Häufigkeit im Text bei etwa 3%.
9 Synonyme des Keywords mit einer Häufigkeit von etwa 1-2%.
10 1x Fett-Markierung des Keywords. <strong>Keyword<⁄strong>
11 1x Kursiv-Markierung des Keywords. <em>Keyword<⁄em>
12 1x Fett-Markierung des Synonyms.
13 Textlänge etwa 400 Wörter.
14 Keyword-Dichte im letzten Absatz etwa 4%.
15 URL enthält das Keyword .htaccess-Einstellungen beachten
16 Keyword in 30% aller Überschriften
17 Bilder enthalten das Keyword als ALT-Text <img alt=”Keyword” ⁄>
18 Mindestens 1 ausgehender Link zu themenverwandter Authority-Site. Darf aber nicht auf eine Seite verweisen, die unter demselben Keyword rankt. Verwendung von Synonymen sinnvoll.

Grundsätzlich sind diese Empfehlungen nur Erfahrungswerte. Man kann es auch anders machen. Insbesondere für SEO-Anfänger dürfte diese Liste jedoch einige wichtige Hinweise enthalten.

Diese Hinweise beziehen sich zudem nur auf die Texte selbst. Auch den Quelltext einer Seite kann man in vielen Bereichen noch stark verbessern, dazu gehört dann beispielsweise auch das Ausnutzen der Rich Snippets, um in den Suchergebnissen besser wahrgenommen zu werden.

Als Lektüre empfehle ich zudem die Hinweise, wie man Texte formatieren sollte, damit sie angenehm lesbar sind und die Besucher länger bleiben,

Backlinks durch flickr aufbauen

Es gibt Tage, an denen ich mich richtig freue. Heute war so einer. Denn wie ich feststellen durfte, habe ich einen tollen, kostenlosen Backlink von foxnews.com bekommen. Ja, so sieht’s aus: Eine der größten US-amerikanischen Nachrichtenseiten (wenn auch nur von einer Subdomain, aber immerhin) schenkt mir einen Backlink. Warum das? Und wie könnt’ ihr es mir nachtun? Die Antwort ist einfach: flickr hilft!

foxnews-Link

foxnews-Link

Backlink dank flickr

flickr-Backlinks

flickr-Backlinks

Auch wenn ich flickr selbst nicht für die Verwendung von Bildern unter CC-Lizenz geeignet halte (eine Begründung gibt es hier), so kann man flickr dennoch gut dafür nutzen, selbst Backlinks aufzubauen. Denn als eines der größten Bildportale im Internet zieht flickr auch tagtäglich tausende von Nutzer an, die kostenfreie Bilder für ihre eigene Website suchen.

Das kann man sich zu Eigen machen und eigene Bilder zur Nutzung freigeben und als “Bezahlung” einen Link erfragen. Denn: Die CC-Lizenz verlangt in jedem Fall die Angabe des Urhebers und die Angabe der Lizenz selbst. Das machen nicht alle, im deutschsprachigen Raum aber immer mehr Webseitenbetreiber. Und viele von denen lassen sich dazu überreden nicht einen Link zur flickr-Seite des Urhebers zu setzen, sondern zu einer anderen Webseite nach Wahl des Urhebers.

Grundsätzlich halte ich zwei Methoden geeignet, um über flickr Backlinks aufzubauen.

Vorher darum bitten

Wer Fotos bei flickr einstellt, der kann und sollte (dazu später in diesem Artikel mehr) die Fotos um einige Angaben erweitern: Neben einem aussagekräftigen Titel und guten Tags gehört dazu vor allem die Beschreibung.

In dieser Beschreibung frage ich regelmäßig, ob die Nutzer bei der Verwendung auf Webseiten nicht einen Link zu mir setzen können. Im Detail sieht das dann so aus:

You may use this picture without any restrictions.
All I ask for is a link (dofollow-Links are welcome!) to http://meine-webseite
Thank you!
————————–
Du kannst dieses Bild ohne Einschränkungen nutzen. Ich bitte nur um einen Link (dofollow am liebsten) zu  http://meine-webseite
Danke!

Das klappt in den meisten Fällen auch schon ganz gut. Wer meine Bilder verwendet und eh einen Link zu flickr gesetzt hätte, der ändert den auch gern mal zu einer anderen Webseite. Meine Erfahrung: Je freundlicher man fragt, umso eher wird ein Link gesetzt. Macht man das Linksetzen hingegen zu Bedingung, wird das Bild häufig gar nicht erst verwendet. Der Ton macht hier die Musik.

Später nachfragen

Doch nicht alle – und das halte ich für vollkommen in Ordnung – setzen nach dieser Bitte freiwillig einen Link. Doch auch bei denen sollte man nochmal nachfragen, ob sie das nicht noch nachträglich tun könnten.

Bilder finden: Google

Google Bildersuche

Google Bildersuche

Doch dafür muss man die Seiten erst einmal finden, die die eigenen Bilder verwenden. flickr ist hier – auch in der Pro-Version – nicht sonderlich geeignet, eine Funktion zum Durchsuchen des Webs nach eigenen Bildern vermisse ich schon seit Jahren. Und wieder einmal ist es Google, das dann genutzt werden kann.

Denn in der Google-Bildersuche ist auch eine Rückwärtssuche möglich: Diese Rückwärtssuche erlaubt mittels der Bild-URL des Originals die Anzeige von Webseiten, die dieses Bild verwenden. Wer Chrome verwendet, der hat noch mehr Glück: Dort reicht ein Rechtsklick auf das Bild und schon kann diese Rückwärtssuche im Kontextmenü ausgewählt werden. Für andere Browser gibt es das m.W. auch als Erweiterung.

Auch TinEye kann und sollte zusätzlich verwendet werden, da sich ganz selten so auch Ergebnisse finden lassen, die Google nicht kennt. Und: Die Google-Suche muss regelmäßig wiederholt werden; Zum Einen weil das Bild vielleicht nochmal zusätzlich verwendet wurde, zum anderen aber auch deshalb, weil der Google-Index nicht immer auf dem neuesten Stand ist.

Hat man die Webadressen nun gefunden, die die eigenen Bilder verwenden, so kann man die Betreiber der Webseiten einmal kontaktieren. Das Beste hierfür ist wohl die klassische Email, aber auch Kontaktformular oder die Kommentarfunktion unter dem betreffenden Beitrag funktionieren.

Freundlich bitten

Auch hier ist wieder eine freundliche Bitte das erfolgsversprechendste Vorgehen. Unter der Angabe der Originalquelle und der URL der Verwendung kann man darauf hinweisen, dass man einen Link erbeten hat und nun noch einmal nachfragen möchte, ob das nachträgliche Hinzufügen eines solchen Links nicht möglich wäre. Bei mir funktioniert der Hinweis darauf, dass ein solcher Link auch zukünftig hochwertige Bilder gewährleistet, immer ganz gut.

Aber nicht entmutigen lassen: Die Response- und Erfolgsquote dieser Mails ist sehr gering. Schätzungweise 20-30% der Angeschriebenen haben bei mir gar nicht reagiert. Von den verbliebenen 70-80% haben dann wiederum nur ungefähr 50% einen Link gesetzt. Bedeutet bei 100 Mails aber immerhin so etwa 35 Links und viele dieser Links sind dann auch dofollow.

Gute Bilder und gute Beschreibung notwendig!

Damit man aber überhaupt erst einmal in das Vergnügen kommt, dass andere die eigenen Bilder verwenden, bedarf es etwas Vorbereitung. Das letzte Schrottbild wird meistens gemieden, hochwertige Fotos machen sich deutlich besser.

Der Themenbereich des Bildes ist dabei relativ egal: Apple macht sich genauso gut wie WordPress als Thema und fotografierte Tomaten werden ebenso häufig genutzt wie ein spielender Hund. Was ich sagen will: Fotografiert das, was ihr gut könnt. Wichtig ist eben nur, dass ihr nicht nur Schnappschüsse einstellt, sondern auch künstlerisch irgendwie hochwertige Bilder. So sind in meiner Bildersammlung auch beide Formen vertreten.

Aber gute Bilder sind nichts wert, wenn sie nicht gefunden werden. Wenn man so will, muss man daher noch etwas SEO für die flickr-Suche betreiben. Klingt komisch, hat aber seine Berechtigung. Denn wie jede Suchmaschine durchsucht auch flickr die eigene Datenband daraufhin, ob das Keyword in Überschrift, Beschreibung und Tags vorhanden ist. Je besser das der Fall ist, als umso relevanter wird das Bild in den Suchergebnissen dann angezeigt. Berücksichtigt werden zudem auch die Anzahl der Favoritenmarkierungen, Kommentare oder das Vorhandensein in Sammlungen.

Daher meine Empfehlungen:

  • Aussagekräftiger Titel mit wichtigsten Keyword in Deutsch und Englisch
  • wichtigste Keywords als Tags in Deutsch und Englisch
  • Aussagekräfte Beschreibung in Deutsch und Englisch mit wichtigen Keywords
  • Hinzufügen des Bildes zu passenden Sammlungen (sogenannte Group Pools)

So klappt es dann auch mit vielen und zum Teil extrem wertvollen Backlinks.

Pinterest ist für SEO nicht geeignet

Pinterest: Für SEO ungeeignet

Pinterest: Für SEO ungeeignet

Über Pinterest, das Allheilmittel aller Backlink- und SEO-Probleme wurde ja viel geschrieben und vor allem in der Anfangsphase wurde der Dienst von vielen gefeiert. Auch ich war der festen Überzeugung, dass mit Pinterest so manches SEO-Problem wenigstens im Ansatz gelöst sei. Pustekuchen! Heute bin ich anderer Meinung: Pinterest ist für SEO nicht geeignet. Ich will auch kurz erklären warum. Wie immer gilt: Es gibt Menschen die mehr Ahnung von dem Thema haben und für jeden sachdienlichen Hinweis, dass ich vielleicht doch falsch liege, bin ich in den Kommentaren dankbar!

Pinterest für SEO-Zwecke ungeeignet

Der Grund, für den Pinterest in der SEO-Szene einmal gefeiert wurde war der, dass es scheinbar unendlich viele follow-Links auf die Originalquelle gab: In jedem Pin waren zwei Links zu der Originalquelle vertreten, mit jedem Repin kamen dann nochmal zwei dazu und die Übersichtsseite zu einer Quelle gab nochmal einen Link. Damals immer “do”follow.

Links auf nofollow

Die Zeiten sind vorbei, Pinterest hat sich dem Druck Googles gefügt und die Links beinahe alle auf “nofollow” umgestellt. Die Links in den einzelnen Pins sind nun komplett auf nofollow umgestellt, es gibt nur noch insgesamt einen dofollow-Link zu der Originalquelle: Der von der Quellen-Übersichtsseite.

Übersichtsseite zu einer Quelle bei Pinterest

Übersichtsseite zu einer Quelle bei Pinterest

Bekam man also vor einiger Zeit für einen Pin mit 5 Repins insgesamt 13 dofollow-Links (davon 12 Deeplinks), ist heute gerade einmal ein dofollow-Link auf die Startseite verblieben.

Auch nofollow-Links zählen

Nun könnte man argumentieren, dass auch nofollow-Links zu einem natürlichen Linkprofil dazugehören und daher doch noch irgendwie ein bisschen was wert sind und damit auch die Links der Pins nicht unterschätzt werden sollten. Mag stimmen, aber das Problem ist ein ganz anderes: Die meisten Pins, Repins und auch die Übersichtsseiten sind gar nicht im Google-Index.

Nicht im Google-Index vertreten

Ich wollte es genauer wissen und habe einmal überprüft, welche Pins und Repins überhaupt im Google-Index sind und habe den Test mit meinen Testpins (so wie ihr sie auf der Übersichtsseite, siehe Screenshot, sehr) gemacht. Das Ergebnis ist ernüchternd: Meine 6 Pins haben insgesamt 14 Repins. Plus Übersichtsseite müssten also insgesamt 21 URLs im Google-Index sein, die für mich interessant sind. Tatsächlich ist aber nur eine dieser URLs überhaupt im Google-Index vertreten.

Pin/Repin Google Index?
Süßigkeiten Nein
Repin 1 Nein
Repin 2 Nein
Repin 3 Nein
iPhone 3G Nein
Repin 1 Nein
Repin 2 Nein
Repin 3 Nein
Surfer Nein
Repin 1 Nein
VW Bulli Nein
Repin 1 Nein
Liebespaar Nein
MacBook Air Ja
Repin 1 Nein
Repin 2 Nein
Repin 3 Nein
Repin 4 Nein
Repin 5 Nein
Repin 6 Nein
Übersichtsseite Nein

Interessanterweise ist allein die URL vertreten, die ich einmal in einem vergangenen Beitrag verlinkt habe.

Links für Links?

Bedeutet für mich: Ein Pin/Repin wird nur dann von Google wahrgenommen, wenn ich aktiv darauf hinweise. Das würde dann ja bedeuten, dass ich jeweils einen Link zu jedem Pin/Repin setzen müsste, damit Google den dann überhaupt wahrnimmt und in den Index aufnimmt. Ein Link für jeden Pin/Repin ist in meinen Augen aber ein ziemlich schlechter Deal, bedenkt man, dass dann doch jeweils nur ein nofollow-Link zurückkommt.

Sinnvoll erscheint dieser Schritt nur, wenn man die Übersichtsseite einer Quelle verlinkt, denn von der kommt akutell ja noch ein dofollow-Link. Das habe ich in diesem Beitrag jetzt einmal getan und ich bin gespannt, wie lange es nun dauert, bis die Seite im Index auftaucht.

Es bleibt ja der Traffic

Wie viele Studien und Beiträge gab es schon dazu, dass Pinterest ja immerhin noch einer der derzeit größten Trafficlieferanten ist. Ja, mag sein. Auch ich spüre das. Aber Pascal Landau etwa hat auch dargelegt, dass man diesen Traffic erst einmal zu nutzen wissen muss.

In meinem Fall jedoch ist der von Pinterest generierte Traffic einer, den ich mir auch schenken könnte: Die Besuchsdauer liegt bei ungeschlagenen 2 Sekunden, pro Besuch schauen sich die Besucher nur eine Seite an, die Absprungrate liegt bei 100%. Bedenke ich, welche Arbeit es macht die Pins wirklich sinnvoll einzusetzen, dann schenke ich mir diese Arbeit lieber.

Für SEO nix wert

Also: Aus meiner Sicht ist Pinterest weder für SEO noch für die Generierung von Traffic (zumindest im deutschsprachigen Raum) nichts wert. Mehr Sinn macht es, in den Linkaufbau etwas mehr Zeit zu investieren, die Ergebnisse sind dann aber viel mehr wert.

Oder was meint ihr?

Pinterest für SEO nutzen

Pinterest-SEO

Pinterest-SEO

Was jetzt folgt, ist eigentlich nichts Neues, sondern wurde schon hundertfach im netz beschrieben: Pinterest als Linkquelle. Ich möchte dennoch – aufgrund meiner eigenen Erfahrungen – das Thema hier noch einmal aufgreifen und auch ein paar Worte dazu verlieren.

Was ist Pinterest?

Pinterest ist ein sogenanntes “Pinboard”. Ein neuartiger Bilderdienst, der doch den Fokus nicht auf das Hochladen der Fotos selbst legt, sondern vielmehr das “soziale” Teilen von Bildern verfolgt: Die Bilder können über einen entsprechenden Button auch von fremden Websites in den eigenen Bilderstream bei Pinterest eingefügt werden, ein Hochladen entfällt.

Nun könnte man tatsächlich argumentieren, dass es auf der einen Seite schon zwei starke Bilderdienste (Picasa und flickr) gibt und auf der anderen Seite für das soziale Teilen von Inhalten ja Google+ und Facebook geeignet sind. Stimmt, aber!

Das Interesse an Pinterest ist derzeit extrem stark.

Sowohl bei den Suchanfragen, als auch bei den tatsächlichen täglichen Visits legt Pinterest – laut Google Trends – derzeit eine ganz ordentliche Performance hin. Das bestätigt meinen Verdacht, den ich schon sein langem hege: Auch Fotografen sind immer stärker daran interessiert, nicht nur Bilder hochzuladen und ggf. noch zu Bildern zu kommentieren. Auch sie wollen einen Schritt weitergehen und eine andere Form der Interaktion beschreiten. Das aber bietet flickr so gut wie nicht, Picasa nur in Grenzen.

Nun könnte man auf die Idee kommen, Facebook oder Google+ könnten diese Aufgabe übernehmen. Das stimmt aber nur zum Teil. Zwar sind diese Angebote vielmehr auf Nutzer-Interaktion ausgelegt, als etwa flickr. Sie legen den Fokus aber auf den gesamten Lebensbereich, nicht aber ausschließlich etwa auf Fotografie.

Hier kommt Pinterest und verknüpft beide Anforderungen: Der Fokus ist auf Bilder gelegt, die Möglichkeit der Vernetzung und Nutzerinteraktion groß. Aber nicht nur Fotografen werden in Pinterest einen tollen Begleiter finden. Vielmehr geht es bei Pinterest um die Verknüpfung von grundsätzlichen Interessen mit Fotos. Das führt dann dazu, dass etwa Bereiche wie “DIY” oder Produktschauen großen Anklang in der noch sehr jungen Community finden.

SEO bei Pinterest

Das macht Pinterest dann auch für den Bereich SEO, bzw. das Linkbuilding so interessant: Bilder müssen nicht manuell hochgeladen werden, sondern können von jeder Website mit einem Klick in den eigenen Fotostream geladen werden. Wenn das getan wird, nennt Pinterest die Quelle. Und das mindestens zweimal.

Etwa bei diesem Beispiel: Ich habe ein Foto (natürlich selbst aufgenommen) meiner “Spielwiese” artikelwissen.info geteilt. Pinterest importiert das Foto dann in den eigenen Dienst, teilt über zwei Links jedoch die Originalquelle des Bildes mit.

Pinterest Pin

Pinterest Pin

Das Tolle: Diese zwei Links sind “follow”, Google folgt diesen Links also. Zudem könnte ein dritter Link noch in der Bildbeschreibung eingefügt werden, auch diese Link wäre dann follow.

Einziges Manko derzeit: Die Indizierung der einzelnen Foto-Seiten durch Google dauert noch sehr lang. Seit Einfügen des Bildes sind bisher weit über 24 Stunden (zum Zeitpunkt der Veröffentlichung dieses Artikels) vergangen, Google hat den Pinterest-Pin bisher noch nicht im Index. Meine bisherigen Vermutungen: Je mehr ein Pin geteilt, geliked und kommentiert wird, umso schneller ist er im Index. Diese Vermutung kann ich jedoch noch nicht belegen.

Denn – das ist das Pinterest-Prinzip: Jedes Foto kann von anderen Nutzern in den eigenen Bilder-Stream gestellt werden. Vergleichbar ist das etwa mit einem Retweet bei twitter. Und das wiederum kann nur positive Auswirkungen auf eine Pin-URL und in der Konsequenz damit auch für den Link zur Originalquelle haben. Wir ein Pin noch zwanzig mal “geteilt” (“Repin”), dann verweisen 20 eigene URLs auf diesen Pin. Die Relevanz für die Suchmaschinen steigt, die Originalquelle bekommt mehr “Linkjuice”.

Links sind follow

Ja, derzeit sind alle Links nach außen “follow”. Es wird jedoch nur eine Frage der Zeit sein, bis Pinterest diese Links auf nofollow setzen wird. Es gibt Vermutungen, das Pinterest das derzeit nur tut, um in der SEO-Welt eine gewisse Relevance zu erhalten. Ob das stimmt, weiß ich nicht. Vielleicht ist es das auch derzeit einfach ein Thema, dem bei Pinterest derzeit noch keine hohe Relevance zugesprochen wird. Die Zukunft wird zeigen, ob die Links auf follow bleiben.

Wie nun SEO bei Pinterest betreiben?

Das Einfachste wäre aus SEO-Sicht nun, einfach alle Fotos bei Pinterest zu teilen und dann auf Erfolg zu hoffen. Das allerdings wird vermutlich in die Hose gehen. Wie jedes “social network” ist Pinterest auf die Nutzer-Interaktion angewiesen. Schlechte und nichts-sagende Fotos wird daher in der Gemeinschaft auf keinen großen Zuspruch treffen.

Besser ist es daher aus meiner Sicht, nur besonders hochwertige Fotos selbst zu teilen und dafür zu sorgen, dass die in der Community geteilt werden.

Zudem gelten auch bei Pinterest alle sonstigen Anforderungen eines social networks: Selbst folgen, selbst teilen, selbst teilnehmen. Das ist und muss Devise bleiben. Pinterest selbst gibt zudem die Tipps, Bekanntheiten zu folgen, sich einen großen “Follower”-Stamm aufzubauen und Fotos uneigennützig zu teilen.

Hochwertige Fotos

Ganz deutlich zeigt sich: Je hochwertiger das geteilte Foto, umso mehr wird es auf Zustimmung (und damit Erfolg) in der Community stoßen. Ästhetik ist zwar sehr subjektiv. Doch kleine, verpixelte und nichtssagende Bilder sollte man tunlichst vermeiden. Besonders erfolgreich scheinen mit derzeit Fotos zu sein, die eine gewisse Romantik ausstrahlen. Das sind meist gedeckte Farben und ein gesundes Maß an Tiefenunschärfe.

Einladung gefällig?

Wer noch zu Pinterest eingeladen werden will, der solte unter diesem Artikel einfach einen Kommentar hinterlassen (bitte achtet dabei auf die Angabe der richtigen Mailadresse!). Gern lade ich jeden Interessenten ein!

Pinterest-SEO

Pinterest-SEO

Kostenlose Backlinks aufbauen

Suchmaschinenoptimierung besteht aus ganz unterschiedlichen Faktoren, sei es die Bilderoptimierung oder sei es die Optimierung der eigenen Texte. Immer aber ist auch das Aufbauen von Backlinks (also Links externer Websites, die auf die eigene verweisen) absolut wichtig. Die Frage, die aber vielen und vor allem jungen Webmastern und Bloggern, bleibt: “Wie komme ich an kostenlose Backlinks?” Einige Möglichkeiten, wie man an kostenlose Backlinks herankommt, will ich hier einmal aufzeigen.

Kostenlose Backlinks

Im Folgenden liste ich mal all die Möglichkeiten auf, die man generell nutzen kann, um kostenlose Backlinks für die eigene Website zu generieren. Dabei habe ich es mir aber nicht nehmen lassen, auch darzulegen, welche Links gut geeignet sind und wo man besser mit Vorsicht rangeht.

Kostenlose Backlinks aus Blogkommentaren

Kostenlose Backlinks

Kostenlose Backlinks

Immer eine gute Möglichkeit, um an Backlinks zu kommen, sind Blogkommentare: Durch das Kommentieren eines Artikels hat man nicht nur die Möglichkeit, die eigene Website zu verlinken; Es bleibt immer auch die Chance, mit solchen Kommentaren neue Leser zu generieren, die deinen Blog dann auch selbst einmal verlinken.

Aber Achtung: Auf Deeplinks, Links zu extrem kommerziellen Projekten oder Keywords als Autorenname reagieren die meisten Blogger doch sehr empfindlich. Ein solches Verhalten solltest du besser nicht an den Tag legen, sonst landest du schneller in Spam-Listen, als dir lieb ist!

Backlinks durch Trackbacks

Ganz ähnlich ist es mit Trackbacks: Durch das Verlinken eines Beitrags eines anderen Bloggers sendest du mit den meisten Blog-Softwares automatisch einen sogenannten Trackback. Gibt der verlinkte Blogger diesen trackback dann frei, so bekommst du automatisch – in den Kommentaren – einen Link zurück. Der ist zwar reziprok – also gegenseitig – und längst nicht Gold wert. Aber Link ist Link und gehört zu einem natürlichen Link-Portfolio dazu.

Aber Achtung: Trackbacks zu senden, ohne dass tatsächlich ein Link innerhalb des Artikels vorhanden ist, lässt dich wieder einmal in Spam-Listen rutschen. Also: Immer brav verlinken.

Links durch Blogparaden o.ä.

Immer noch beliebt sind Blogparaden: Ein Blogger fordert andere Blogger auf, zu einem bestimmten Thema einen eigenen Beitrag zu schreiben. Ein gutes Beispiel dafür ist der wöchentliche Webmasterfriday.

Letztlich beruhen Blog-Paraden meist auch nur auf dem Trackback-System: Du verlinkst und bekommst dafür einen Backlink zurück. Schaffst du es aber, selbst mal eine ordentliche Blogparade auf die Beine zu stellen, dann kannst du dir vieler Backlinks von ganz unterschiedlichen Domains sicher sein.

Backlinks durch Infografiken

Ein Phänomen, dass seit einiger Zeit durch’s Internet “geistert”, sind sogenannte Infografiken: Zu einem bestimmten Thema gibt es optisch aufgehübscht alle Fakten zu diesem Thema in einer Grafik zusammengefasst. Und ist die Grafik gut, verständlich, vorzugsweise auf Englisch und beschäftigt sich mit einem spannenden Thema, so wird der tausendfach – wenn’s gut läuft – verlinkt, weil tausendfach über die Infografik berichtet wird. Und das Spannendste überhaupt: Nicht nur kleine Blogs sprechen darüber, sondern auch große Online-Magazine setzen dann schon einmal einen Link.

Wenn du also mit Grafikprogrammen umgehen kannst und zu einem Thema viele interessante Fakten finden kannst, dann los! Aber Achtung: Eine solche Grafik macht enorm viel Arbeit. Ich habe mich selbst mal an so etwas versucht und bin nach einigen Stunden kläglich gescheitert. Wenn du es aber kannst, dann solltest du nicht zögern. Selbst t3n verlinkt solche Grafiken gern und viel.

Kostenlose Backlinks mit Webkatalogen

Eine immer noch beliebte Möglichkeit, um kostenlose Backlinks aufzubauen, sind Webkataloge. Einmal eingetragen versprechen solche Webkataloge einfachen Linkaufbau mit wenig Mühe. Aber Achtung: Webkataloge sind ein Überbleibsel aus der grauen Vorzeit des Internets. Waren Links aus Webkatalogen früher noch wichtiger Bestandteil für das Ranking in den Google-Suchergebnissen, so ist diese Zeit vorbei. Schlimmer noch: Zu viele Backlinks aus Webkatalogen zeugen von einem unnatürlichen Linkaufbau und beeinflussen das Ranking sogar negativ.

Ein kostenlose Backlinks aus dem moderierten DMOZ ist immer noch Pflicht. Bei allen anderen Webkatalogen solltest du jedoch sehr sparsam und vorsichtig vorgehen.

Backlinks aus Artikelverzeichnissen

Gleiches gilt ebenso für sogenannte Artikelverzeichnisse. Auch hier ist das Prinzip denkbar simpel: Du schreibst einen kleinen Beitrag (meist zwischen 250 und 300 Wörtern) udn darfst dafür dann zwei Links (auch Deeplinks) darin unterbringen.

Doch auch diese Form des Linkaufbaus hat massiv gelitten. Gerade die großen und vollkommen öffentlichen Artikelverzeichnisse sind nicht mehr das, was sie einmal waren. In geringem Umfang solltest du die daher immer noch zum Aufbau kostenloser Backlinks verwenden. Verzichte aber besser darauf in 200 Artikelverzeichnissen vertreten zu sein. Dafür lohnt die Arbeit nicht und viel schlimmer: Sie könnte auch nach hinten losgehen. Achte zudem auch darauf, dass das Artikelverzeichnis immer noch von hoher Qualität ist.

Kostenlose Backlinks durch Gastbeiträge

Wer sich als Autor und Blogger erst einmal einen Namen hat, der kann und sollte sich als Gastautor anbieten. Beinahe jeder Blogger wird das Angebot eines Gastartikels dankend annehmen. Für dich gibt es bei dem Gastartikel wahrscheinlich kein Geld, aber du wirst mit Backlinks belohnt und wenn es besonders gut läuft, dann darfst du sogar Deeplinks setzen. Die Arbeit für dich ist im Grunde die, als ob du auf deinem eigenen Blog einen Artikel schreiben würdest; Also überschaubar!

Kostenlose Backlinks durch Foren

Wer viel in Foren unterwegs ist, der weiß: Auch dort kann man kostenlose Backlinks abgreifen. Wer sich an einer Diskussion beteiligt und weitergehende Informationen kennt, der sollte die verlinken. Zusätzlich gestatten fast alle Foren, Links zu den eigenen Projekten in die Signatur einzubauen. Diese Links sind zwar nicht immer dofollow, gehören zum Linkbuilding aber trotzdem dazu.

Aber wieder mal Achtung: Wer ständig und in jedem zweiten Beitrag Links zu den eigenen Webprojekten setzt, der fliegt irgendwann raus. Genau wie in Blogs kann solches Verhalten als Spamming aufgefasst werden. Also sehr behutsam mit solchen Links umgehen!

Kostenlose Backlinks durch Fotos

Warum Bilder in Artikeln wichtig sind, habe ich ja schon einmal erklärt. Und wo man solche Fotos kostenlos herbekommt, war hier auch schon Thema. Was ich bisher verschwiegen habe: Wenn man selbst ein bisschen fotografiert und diese Fotos dem Web kostenlos zur Nutzung anbietet, dann kann man damit auch Backlinks aufbauen!

Die einfachste Möglichkeit hierfür bietet sicherlich flickr: Lädst du hier ein Foto hoch, so kannst du in der Bildbeschreibung darum bitten, bei Verwendung einen Link auf deine Seite xy.de zu setzen. Das machen sogar recht viele der Nutzer. Und je häufiger dein Bild verwendet wird, umso mehr Links kannst du damit abgreifen. Wenn du dir die Mühe machen willst, so kannst du zusätzlich über die Google-Bildersuche herausfinden, wer dein Bild verwendet. Findest du über diesen Weg jemanden, der das Bild nutzt, aber deine Seite nicht verlinkt, so reicht häufig eine nette Mail, um diesen “Missstand” abzustellen.

Welche Motive du hochlädst, ist letztlich egal. Gut sollte das Bild aussehen und in einer ordentlichen Auflösung verfügbar sein. Wenn du dann noch eine englische Beschreibung und Benennung hinzufügst, dann ist das Bild auch für englischsprachige Nutzer interessant.

Kostenlose Backlinks durch Linktausch

Wenn du dir die Mühe machen willst, dann kannst du auch Links tauschen; Potenzielle Linkpartner findest du am einfachsten über Google. Vermeide nur bitte den Fehler des reziproken Verlinkens, das würde nicht so viel bringen.

Außerdem: Viele Webmaster und Blogger reagieren empfindlich auf standardisierte Mails. Also mache dir die Mühe und schreibe den Blogger oder Websitebetreiber mit seinem Namen an und gib der Mail einen persönlichen Touch. Oder noch einfacher: Ruf einfach mal an!

Kostenlose Backlinks

Kostenlose Backlinks