Tag Archive » SEO

HochgeschwindigkeitsSEO: Lasst mich mit eurem Scheiß in Ruhe!

Derzeit findet unter dem Keyword “HochgeschwindigkeitsSEO” mal wieder ein SEO-Wettbewerb statt. Neben Ruhm und Ehre gibt es wohl auch ein neues iPhone zu gewinnen. Obwohl ich gar nicht teilnehme, nervt mich dieser SEO-Wettbewerb nur noch.

Eins vorweg: Sorry für diesen Ausraster/Mini-Rant/was auch immer! Ich bin nur derzeit tierisch genervt und muss mir mit diesem Artikel mal etwas Luft machen. 😉

Worum geht’s beim “HochgeschwindigkeitsSEO”?

Nervt: HochgeschwindigkeitsSEO-Contest

Nervt: HochgeschwindigkeitsSEO-Contest

Derzeit gibt es wieder einen SEO-Wettbewerb (der übrigens heute endet). Ziel ist es, mit dem Keyword “HcohgeschwindigkeitsSEO” besonders gut zu ranken. Wem das am besten gelingt, der gewinnt neben reichlich Anerkennung auch das neue iPhone, das wohl auch heute vorgestellt werden wird.

An sich sind SEO-Wettbewerbe aller Art ja eine feine Sache: Ob Teilnehmer oder nur Zuschauer, man kann im besten Falle viel darüber lernen, wie der Google-Algorithmus funktioniert. Das lässt natürlich hilfreiche Rückschlüsse auch auf die eigene Arbeit zu und macht im besten Falle vieles einfacher. Auch deshalb habe ich ja schon selbst einmal aktiv an einem solchen Wettbewerb teilgenommen.

Was ist aus meiner Sicht doof?

So spannend solche Wettbewerbe auch sein können, so nervig war/ist dieser. Statt sich darauf zu besinnen onpage die eigenen Seiten so sehr zu optimieren, dass Google sie ziemlich gut listet, sind einige der Teilnehmer offenbar nach kurzer Zeit zu alt”bewährten” Mitteln zurückgekehrt und nerven vermutlich nicht nur mich damit.

Trackback-, Kommentar-, twitter-, Wikipedia-Spam

Diese altbewährten Mittel scheinen bei manchem noch immer Massenlinks minderer Qualität zu sein. Das stellt nicht nur Karl Kratz in seinen Auswertung fest. Das sehe ich auch tagtäglich bei mir in den verschiedenen Blogs, bei twitter und Facebook, selbst bei Wikipedia ist das Phänomen zu beobachten.

Einige Spam-Kommentare (à la “Wow, tolle Erkenntnis, war mir so noch nicht bewusst”) mit Keyword-Namen und Deeplinks durfte ich gleich zu Beginn des “HochgeschwindigkeitsSEO”-Contest löschen, in den letzten Tage musste ich das immer wieder tun.

Da folgen mir irgendwelche “HochgeschwindigkeitsSEOs” bei twitter gleich mehrfach am Tag, um ja noch einen Follower zurückzubekommen, den sie mit ihren schlechten Inhalten zu Tode nerven wollen.

Da gibt es aber auch diejenigen Wikipedia-“Autoren” die dieses vollkommen unbedeutende Thema irgendwie noch in die freie Enzyklopädie pressen wollen, um ja nur einen Link abzubekommen. Zum Thema Wikipedia und SEO hatte ich mich in anderem Zusammenhang ja schon ausgelassen.

Schade…

Hätte sich die Mehrzahl der Teilnehmer auf eine gute onpage-Optimierung verlassen hätte man vielleicht etwas über Google lernen können. Bei maßvollem Einsatz hätte man vielleicht auch sogar etwas über die Relevanz von Social Media erfahren oder die wahre (“neue”) Bedeutung von Links erkennen können. Nun versinken wohl die meisten Teilnehmer eher in einem Sumpf aus minderwertigen Links von Fake-Accounts, Spam-Kommentaren und irgendwelchen Linknetzwerken und Pyramiden. Über langfristigen Erfolg im Bereich SEO lernt man damit wohl eher nichts. Es hätte so schön sein können.

Die einzige Erkenntnis, die es jetzt vielleicht noch gibt, ist die, ob Google auch nach den Algorithmus-Änderungen immer noch auf diese Billiglinks anspringt.

P.S.: Wer die von mir genannten Techniken bei seiner Teilnahme nicht angewandt hat, der möge mir verzeihen und sich einfach nicht angesprochen fühlen. 😉

Wikipedia – Aus SEO-Sicht

Beim Webmasterfriday wird aktuell gefragt, was man persönlich von Wikipedia hält. Nun will ich keine langen Monologe halten: Natürlich ist Wikipedia toll, hat aber auch Macken (zum Teil verquere Autoren, die es Neulingen schwer machen, im wissenschaftlichen Kontext wird Wikipedia noch immer nicht als Quelle akzeptiert und und und).

Ich will eine persönliche Bewertung der Wikipedia anderen überlassen und an dieser Stelle versuchen, Wikipedia mal aus einer anderen Sicht zu beurteilen. Nämlich aus der der Suchmaschinenoptimierung.

Wikipedia aus SEO-Sicht

Wikipedia SEO

Wikipedia aus SEO-Sicht

Zur Bedeutung von SEO im Webmaster-Alltag will ich hier nicht lang ausschweifen. Martin Mißfeldt hat jetzt erst sehr schön dargelegt, dass SEO neben 4 anderen Faktoren eine gleichberechtigte Möglichkeit ist, Traffic zu generieren. Zur Bedeutung von SEO lest daher bitte seinen Artikel. Ich gehe aber eh davon aus, dass alle Besucher und Leser dieses Blogs eh schon mal davon gehört haben, welche Bedeutung SEO hat und wissen, wie es ungefähr geht. 😉

Es ist daher auch nichts Neues, dass zu einem SEO-Bundle auch (die richtigen) Links gehören. Links aus der Wikipedia gelten dabei seit eh und je als Ritterschlag: Wer es schafft in der Wikipedia einen Link unterzubringen, kann davon ausgehen, dass Google der Seite einen großen Schub an Relevanz für ein bestimmtes Thema zuweist. Auch mit den letzten Algorithmus-Änderungen (Panda, Penguin und Konsorten) hat sich damit meines Erachtens nicht viel dran geändert.

Aber genau da liegt die Krux an der Sache und ein Problem, mit dem Wikipedia massiv zu kämpfen hat.

Spammy Links aus der Wikipedia

Dadurch, dass Google Links aus der Wikipedia eine relativ hohe Relevanz zuteilt wird nämlich dann ein echtes Problem, wenn wirklich jedermann versucht, eigene Links in der Wikipedia unterzubringen. Doch Wikipedia ist eben keine reine Linksammlung sondern basiert auf dem Prinzip gemeinsamer Wissensteilung: Experten aus bestimmten Bereichen verfassen gemeinsam einen Artikel zu einem bestimmten Thema, überarbeiten diesen gemeinsam und verlinken – wie im wissenschaftlichen Kontext – glaubwürdige Quellen zur Untermauerung einer bestimmten These. Das funktioniert meistens gut, manchmal steht in der Wikipedia aber auch einfach nur Quatsch.

Wenn aber selbsternannte Experten zu einem Theme halbgare Wahrheiten schreiben und diese dann mit ihren halbgaren Thesen auf Landingpages etc. untermauern wollen, dann verliert Wikipedia an Qualität. Doch genau das zeichnet Wikipedia bislang ja aus: Wissen auf relativ hohem Niveau. Verliert aber Wikipedia an Qualität, sot täten es in Googles Augen auch langfristig die ausgehenden Links.

Zwar gibt es immer wieder echte Wikipedia-Nutzer, die mangelhafte Beiträge und Verweise ins Nirvana schicken. Aber nicht immer ist das der Fall. Manchmal schafft es dann doch ein selbsternannter Finanz-, Bodenbelag- oder Ernährungsexperte schlechte Links und Beiträge unterzubringen. Immer wieder fällt mir das auf. So aber hat die Wikipedia keine Zukunft.

Content ist immer noch King – Vielleicht mehr denn je!

Nun komme ich mit – dem zugegebenener Maßen etwas ausgelutschten Spruch – “Content is King” daher. Schon immer hatte dieser Spruch Relevanz und seit den letzten Änderungen am Google-Algorithmus wahrscheinlich noch ein bisschen mehr: Google will keinen Schrottcontent mehr, Wikipedia wollte es noch nie.

Diese zwei Faktoren sollten eigentlich zeigen, worauf der Fokus eines Webmasters/Bloggers/SEOs/etc liegen sollte: Auf gutem Content; Nicht aber auf dem zwanghaften Versuch Links aus Wikipedia abzugreifen.

Wer guten Content schafft und dem Nutzer damit einen Mehrwert liefert, der wird vermutlich irgendwann sogar ganz automatisch in der Wikipedia verlinkt. Gute Mehrwerte sind aber nicht endlose Bilderstrecken, tausende Infografiken und hingeklatschter Content. Nein, es sind die Besonderheiten, die Webseiten für Wikipedia-Autoren interessant machen. Das können Interviews mit (echten) Experten sein, das kann aber auch das Aufstellen einer ganz neuen These sein.

Wichtig ist: Einzigartigkeit, Verständlichkeit, Nutzen.

Übrigens: Wikipedia auch mal verlinken

Gerade in diesem Zusammenhang gilt: Guter Content ist nur dann wirklich gut, wenn er auf verwandte Quellen verweist; Ich habe das hier schon einmal ausgeführt. Und daher gilt: Auch Wikipedia zu zitieren und zu verlinken, kann aus SEO-Sicht nur richtig sein.

Fazit

Ich habe nichts gegen Links aus der Wikipedia. Im Gegenteil: Externe Links bei Wikipedia helfen, die Verlässlichkeit der Informationen zu überprüfen. Es gilt aber, dass Wikipedia in seiner Einzigartigkeit nicht zerstört werden sollte. Genau das passiert aber, wenn jeder Webseitenbetreiber eigenen, manchmal schlechten Content auf Wikipedia verlinkt wissen möchte.

Wir sollten uns nicht auf die Links fokussieren, sondern Nutzer und Inhalte wieder mehr in den Mittelpunkt stellen. Dann kommen die Links aus Wikipedia ganz automatisch und Google wird es uns danken.

Was denkt ihr?

Schluss mit dem Linkgeiz: Externe Links machen Sinn

Seit Jahren schon bestimmt ein Thema den Bereich SEO maßgeblich: Das Linkbuilding. Dieser Teil der Off-Page-Optimierung galt lange Zeit als höchste und wichtigste Disziplin im Strauß verschiedener SEO-Maßnahmen. Möglichst viele (wertvolle) Links auf das eigene Angebot bekommen und selbst so wenig wie möglich nach außen verlinken, war dabei das Credo vieler Webseitenbetreiber, das neben dem (häufig missverstandenen) Ausdruck “Content is King” zu den Allgemeinplätzen gehörte.

Spätestens seit den letzten Algorithmus-Änderungen bei Google wissen wir: Mit diesen zwei Formeln macht man sich die SEO-Welt ein bisschen zu einfach. Gerade das Linkbuilding beinhaltet mehr als das Sammeln von Links (mal abgesehen davon, ob sie nun themenrelevant sind oder nicht, ob sie wertvoll oder minderwertig sind und ob sie durch Kauf oder freiwilliges Verlinken entstanden sind) und das Vermeiden von externen Links.

Externe Links machen durchaus Sinn und können den Wert (auch für die Google-Suchergebnisse) einer Website steigern. Und ich will euch auch erklären, warum das so ist.

Google sucht die besten Seiten für die besten Ergebnisse

Glaubt man den Aussagen von Google, so will die Suchmaschine aus dem sonnenverwöhnten Kalifornien den suchenden Internetnutzern vor allem eines liefern: Die Ergebnisse, die am besten zu einer Suche (und das ist nicht immer die Suchanfrage selbst!) passenden Ergebnisse liefern. Deshalb verbessert Google Suchanfragen (falsche Schreibweisen), deshalb macht Google schon beim Eintippen der Suchanfrage Vorschläge zur Vervollständigung (“auto-suggest”), deshalb positioniert Google Seiten mit eigentlich gleichem Inhalt auf unterschiedlichen Positionen. Und manchmal gibt es die richtigen Ergebnisse schon direkt auf der Google-Seite (z.B. Wetter, Wechselkurse oder Flugzeiten). Danach (und offiziell erst wirklich danach, auch wenn das in der Realität manchmal etwas anders scheint) kommt auch ein wirtschaftliches Interesse von Google.

Mehr Links = bessere Seite? Wohl kaum!

Externe Links

Externe Links

Lange Zeit galt für Suchmaschinenoptimierer und Webseitenbetreiber die Formel: “Mehr Links = gleich bessere Position in den Suchergebnissen” (vereinfacht). Denn Google schien genau diesen Ansatz auch in den eigenen Positionsberechnungen zu fahren. Je mehr Links auf eine Seite verweisten, umso besser wurde sie gelistet. Die Idee dahinter war relativ einfach: Je mehr Menschen freiwillig von ihrer eigenen Website auf eine andere Website verlinken, umso besser muss doch der Inhalt dieser Seite sein. Denn nur gute Informationen werden doch auch verlinkt.

Dass das nicht richtig sein kann, sagt einem der klare Menschenverstand. Denn Links entstehen nicht ausschließlich freiwillig. Webkataloge, Artikelverzeichnisse, gekaufte Links oder Linknetzwerke mit mehr oder weniger schrottigen Blogs und Satellitenseiten sind nun wahrlich keine freiwilligen Links. Im Ergebnis führte das auch manchmal dazu, dass Google Schrottseiten in den Top10 zu einer Suchanfrage anzeigte.

Auf der anderen Seite gab es immer die Angst, durch eigene Links Power der Seite abzugeben. “Linkjuice” war als Wort geboren, das genau diesen Effekt beschreiben sollte: Während jeder Link zu mir die Power meiner Seite (am Ende dann”PageRank”) erhöht, muss doch jeder Link von meiner Seite auf eine andere zu Powereinbußen führen; Schließlich gebe ich damit ja zu, dass eine andere Seite noch erweiternde, zusätzliche oder bessere Informationen enthält. Dieser Gedanke ließ sich statistisch dann auch irgendwie belegen, der Linkgeiz war erfunden.

Auch Google bemerkte dann irgendwann, dass das alles nicht so richtig funktioniert und hat mit verschiedenen Maßnahmen die Gegensteuerung versucht.

  • Da gab es plötzlich das nofollow-Attribut, um verlinkte Seiten abzuwerten und keinen “LinkJuice” abgeben zu müssen. Mittlerweile wissen wir, dass die Google-Robots auch den nofollow-Links folgen und auch nofollow-Links den Wert einer Seite erhöhen können.
  • Da gab es das Abwerten von bekannten Spam-Versuchen: Forenlinks warn plötzlich mehr schädlich als nützlich, massenhaft neue Links an einem Tag wurden als Betrugsversuch gewertet.
  • Da gab es das De-Indizieren von bekannten Artikelverzeichnissen, die nur dazu aufgebaut wurden, um Links zu erzeugen.
  • Da gab es Algorithmus-Änderungen, die Links scheinbar schädlich machten (in der Folge versuchen nun etliche Webseitenbetreiber Links abzubauen).

Externe Links

Es gab jedoch auch eine Neuerung, die offenbar belohnend wirkt. Waren in der Google-Typologie externe Links lange Zeit eher schädlich als nützlich (weil sie – wie erwähnt – einem Eingeständnis nicht ausreichender Informationen gleich kamen), so hat sich dieses Verständnis jetzt offenbar (so ist zumindest mein Eindruck) geändert: Externe Links sind kein Zeichen der Schwäche. Vielmehr sind sie als Service für die Besucher anzusehen: “Sie her, hier gibt es noch weitere Informationen zu deinem Interesse!”

Diese Veränderung führt dazu, dass es im Rahmen der On-Page-Optimierung durchaus Sinn machen kann, auf themenrelevante und weiterführende Informationen zu verlinken. Eigene Artikel aus der Vergangenheit können dabei genauso wertvoll sein wie externe Artikel zu weiterführenden Informationen oder anderen Standpunkten.

Nofollow?

Meiner Meinung nach hat Google das nofollow-Attribut schon selbst längst beerdigt: Es war der kurzzeitige Versuch scheinbare Spamlinks irgendwie abzuwerten. Weil dabei aber auch durchaus wichtige Links unter die Räder gekommen sind (weil pauschal alle externen Links vom Websitebetreiber auf nofollow gesetzt wurden), hält man sich in Mountain View schon gar nicht mehr an die einstige Erfindung, sondern bewertet Links nach ganz eigenen Regeln. Eingehende Nofollow-Links können daher für die verlinkte Website positive Auswirkungen haben, do-follow-Links aber auch mal negative.

Also wie jetzt?

Was bedeutet diese Einschätzung jetzt für Websitebetreiber? Vor allem zwei Dinge:

  1. Das gilt schon länger_ Linkbuilding ist längst nicht alles. Auch ohne Linkbuilding und nur mit richtiger On-Page-Optimierung kann man gute Ergebnisse einfahren. Eingehende Links sollten von guter Qualität sein, dazu (in einem anderen Artikel, wird hier verlinkt) später mehr.
  2. Externe Links in das eigene Angebot zu setzen, macht durchaus Sinn: Es ist für Google das Signal, dass jemand anderes an anderer Stelle ergänzende Informationen oder ein Statement zum gleichen Thema verfasst hat. Also: Gibt es weitergehende Informationen, sollte man die auch verlinken! Auf das nofollow-Attribut kann/sollte man bei solchen Links grundsätzlich verzichten. Das bedeutet aber nicht, dass man inflationär mit diesen Links umgehen kann: 2-3 “gute” externe Links sind mehr wert, als 20 sinnlos zusammengeworfene. Diese externen Links sollten dann auch (falls vorhanden) mit internen Links auf eigene Artikel erweitert werden.

7 Tipps zum Beschleunigen einer Website

Die Geschwindigkeit einer Website spielt für Google (und damit auch für die Positionierung in Suchergebnissen) eine immer größere Rolle. Ein Indiz für diese Annahme ist etwa auch, dass der Spagespeed einer Seite mittlerweile auch in den Webmastertools von Google angezeigt wird; Dazu ist nicht einmal mehr die Installation des Page Speed Plugins (Firefox und Chrome) notwendig.

Ladezeiten optimieren

Ladezeiten optimieren

Für Google macht es auch Sinn, schnellere Websites zu belohnen:

  • Die Nutzererfahrungen mit schnellen Websites sind immer besser
  • Google spart Geld und Ressourcen: Wenn 1 Millionen Websites nur 1 Sekunde schneller sind, dann bedeutet das bei Google für jedes Crawlen eine Ersparnis von etwas mehr als 277 Stunden Rechenzeit (mit den daraus resultierenden Implikationen für das Vorhalten von Serverkapazitäten, Stromersparnis, etc.).

Website-Betreiber sind also angehalten, die Geschwindigkeit ihrer Websites stetig zu verbessern. Um erstens in den Suchergebnissen besser gelistet zu werden und um zweitens Nutzern ein besseres Erlebnis zu garantieren und so Conversions, Beuschszeiten, etc. zu verbessern.

Ich möchte an dieser Stelle 7 (meist) einfache Möglichkeiten vorstellen, die unabhängig vom eingesetzten CMS von allen Website-Betreibern durchgeführt werden können.

Bilder verkleinern

In der Regel bleiben zwei Grafikformate, die für Bilder auf Websites genutzt werden können: JPEG und PNG; Bei GIF gibt es irgendwelche Rechteinhaber, die eigentlich die Nutzung lizensieren müssten, BMP werden nicht von allen Browsern angezeigt und sind viel zu groß. Das Gleiche gilt auf für TIFFs und Raw-Formate. Nur JPEGs werden von allen Browsern dargestellt und lassen sich vernünftig komprimieren, für PNGs gilt – soweit man PNGs für ältere IEs lesbar macht – Ähnliches.

ImageOptim

ImageOptim

Doch nicht jede JPEG oder PNG, die ein Grafikprogramm ausspuckt, sind auch für Websites geeignet. Denn: In der Regel sind sie viel zu groß und können noch ordentlich komprimiert werden. Einsparungen von bis zu 80% (Dateigröße) sind durchaus machbar. Daher einige Tipps:

  • Auflösung des Bildes an Erfordernisse anpassen: Es macht keinen Sinn, ein Bild mit 1200×800 Pixel zu verwenden, dass dann aber nur mit 600×400 Pixel angezeigt wird. Also: Bilder in die richtige Größe beschneiden.
  • EXIF-Daten löschen: Gerade bei echtes Fotos werden von der Kamera viele EXIF-Daten (also Informationen zu Blende, Belichtungszeit, Kamerahersteller, ggf. Ort, etc.) im Bild gespeichert. Diese Informationen braucht man bei der Verwendung auf der eigenen Website also nicht. Also: EXIF-Daten löschen. Dafür gibt es entsprechende Programme, die aber auch obsolet werden, wenn man den folgenden Tipp beachtet:
  • Bilder komprimieren: Fotos und Grafiken sind meistens in sehr guten Qualitätsstufen gespeichert. Für Websites kann man aber auch niedrigere Qualitätsstufen verwenden. Die optische Beeinträchtigung (Schlieren bei JPEGs zum Beispiel) wird – sofern die Komprimierung nicht zu klein ist – von Besuchern gar nicht wahrgenommen, die Dateigrößen können manchmal aber halbiert werden.
    Für Mac-Anwender empfehle ich immer das kleine Tool “ImageOptim” – sowohl Sergej als auch Ralf haben über das Tool schon einmal ausführlich berichtet.
    Für Windows-Nutzer habe ich leider kein Tool zur Hand.
    Die Komprimierung kann allerdings auch im Web gemacht werden: Yahoo! bietet mit Smush.it einen tollen “Bildverbesserer” im Netz, die Ergebnisse des Tools sind durchaus ordentlich!

Vorteile dieser Lösungen: Sie komprimieren nicht nur das Bild, bzw. die Bildqualität; Nein, auch die EXIF-Daten werden automatisch gelöscht. Mit ein bisschen Arbeit kann man die Bildgrößen im Mittel mindestens um 50% verringern. Mit dem daraus folgenden Boost für die Website!

HTML und CSS optimieren

Ein Graus bei vielen Websites: Verschachteltes, unnötiges HTML und CSS. Auch ich nehme mich von dieser Kritik nicht aus. Doch auch wenn man den Quelltext der eigenen Website eher selten zu Gesicht bekommt: Vernachlässigen sollte man den nicht. Unnötige Klassen (HTML) oder Deklarationen (CSS) sind vermutlich die häufigsten Probleme.

Zwei Beispiele (in Anlehnung an die von Vladimir, der ähnliche Tipps für WordPress-Nutzer gibt):

Aus einer Deklaration wie:

.text {
	font-family: Verdana, Arial, sans-serif;
	font-size: 1.2em;
	font-style: italic;
	color: #000000;
	padding-bottom: 10px;
	padding-top: 10px;
	padding-left: 20px;
	padding-right: 20px;
	}

sollte man machen:

.text {
	font: italic 1.2em Verdana, Arial, sans-serif;
	color: #000;
	padding: 10px 20px;
	}

Auch das Zusammenfügen verschiedener Klassen mit den gleichen Inhalten ist enorm wichtig. Aus:

.infobox {
	padding: 10px;
	background-color: #ccc;
	color: #000;
	margin: 10px;
	font-size: 20px;
	}

.socialbox {
	padding: 10px;
	background-color: #ccc;
	color: #000;
	margin: 10px;
	font-size: 20px;
	}

wird dann:

.infobox, .socialbox {
	padding: 10px;
	background-color: #ccc;
	color: #000;
	margin: 10px;
	font-size: 20px;
	}

Übrigens: Um die CSS-Dateien noch ein bisschen mehr zu komprimieren, empfehle ich Sergejs Code-Compressor: Der entfernt unnötige Kommentare und Leerzeichen und komprimiert die Dateigröße von CSS-Dateien (JavaScript geht übrigens auch) schnell mal um bis zu 60%. Vor Einsatz dieses Tools gilt aber: Backup machen! Das Arbeiten in den komprimierten Versionen ist enorm anstrengend!

JavaScript auf dem Prüfstand

JavaScript (JS) ist von den meisten Websites nicht mehr wegzudenken: Schicke Startseitenslider oder elegante Dropdown-Menüs sind nur zwei Fälle, in denen JavaScript zum Einsatz kommt. Aber: JavaScript macht Websites einfach langsamer. Man sollte daher einmal der Frage nachgehen, welche schicken Elemente wirklich benötigt werden, oder worauf man nicht lieber verzichten sollte.

Gibt es JavaScript, auf das man nicht verzichten will oder kann, so sollte man das nach Möglichkeit aber ans Ende einer Seite (bzw. die Verweise auf die externen JS-Dateien) setzen. Grund: JavaScript wird erst dann ausgeführt, wenn die Seite vollständig geladen ist. Nicht nur vom Gefühl wird die Seite dann schneller.

Externe CSS- und JS-Dateien zusammenführen

Aus Gründen der Einfachheit und Übersichtlichkeit werden CSS- und JS-Inhalte oftmals in mehrere unterschiedliche Dateien ausgelagert. So gibt es dann beispielsweise eine style.css, eine shortcodes.css und auch eine layout.css (ähnliche Beispiele sind denkbar). Diese Dateien sollte man nach Möglichkeit in einer Datei zusammenfassen. Der Grund: Browser können vom selben Host gleichzeitig immer nur 5 Dateien laden. Werden diese “Slots” durch 5 CSS-Dateien “blockiert” verzögert sich das Laden anderer Elemente zwangsläufig.

Wer auf die Trennung unterschiedlicher CSS-Dateien indes nicht verzichten kann, der sollte die per “link” aufrufen, nicht per “@import”. “link” ist einfach performanter.

CSS-Sprites nutzen

CSS-Sprites

CSS-Sprites

Dieser Tipp ist in der Anwendung etwas anstrengender. Vor allem dann, wenn das eigene Website-Design schon steht und nicht geändert werden soll. Denn im Nachhinein, sind CSS-Sprites nicht so einfach umzusetzen.

CSS-Sprites sind Bilddateien, die viele kleinere “Bildchen” (etwa Icons, Hintergrundgrafiken, etc.) beinhalten. Statt im CSS dann bestimmten Elementen einzelne Grafiken zuzuweisen, wird die Sprite-Datei zugewiesen und der Ausschnitt per CSS definiert. Sprites beinhalten daher häufig viele kleine Grafiken, die auf den ersten Blick vollkommen unsortiert aussehen.

Der Vorteil liegt auf der Hand, wenn man wieder an die Begrenzung gleichzeitiger Ladevorgänge der Browser denkt: Statt beispielsweise 20 kleine Mini-Grafiken zu laden, wird nur eine größere Bilddatei geladen. Somit sind schneller Kapazitäten für weitere Ladevorgänge frei.

Ein nettes Tool um Sprites zu erstellen ist übrigens Spritecow.com. Mehr Informationen zum Einsatz und zur Umsetzung von Sprites gibt es bei Frank.

Cachen

Die Idee der meisten CMS ist ja, dass man Inhalte online erstellt, die dann in einer Datenbank ablegt und das System aufgrund vordefinierter Templates daraus dann HTML-Seiten macht. Das manuelle Erstellen von HTML-Seiten ist somit nicht mehr notwendig. Ein Problem nur: Für jeden Aufruf muss dieser Vorgang der “HTML-Erstellung” neu durchgeführt werden. Das belastet den Server und verlangsamt die Seitenaufrufe.

Abhilfe gibt es für Anwender mit Apache-Server (sofern man den Zugriff auf die .htaccess hat): Mit wenigen Einträgen kann man so den Server zum Cachen bestimmter Dateitypen auffordern. Statt eine Seite dann neu zu generieren, greift der Server auf bereits vorhandenen Cache zurück.

Die notwendigen Einträge in die .htaccess sind schnell gemacht, eine gute Anleitung gibt es hier.

Komprimierung

Ebenso sinnvoll und mit wenigen Handgriffen (bzw. Einträgen in der .htaccess) erledigt: Das Komprimieren von Dateien. Hier gilt wieder der bereits oben erklärte Ansatz: Je kleiner eine Datei, umso schneller wird sie geladen. Doch nicht nur bei Grafiken oder CSS-Dateien kann man das machen. Auch HTML-, Text- oder PHP-Dateien lassen sich komprimieren. Dazu reicht bereits ein Eintrag in der .htaccess:

<IfModule mod_deflate.c>
<FilesMatch "\.(html|css|js|xml|php|txt)$">
SetOutputFilter DEFLATE
</FilesMatch>
</IfModule>

HTML-, CSS-, JS-, XML-, PHP- und TXT-Dateien werden somit vom Server komprimiert und zusätzlich auch als GZIP-Version (die Google etwa beim Crawlen gern nutzt) zur Verfügung gestellt. Die Ladezeiten reduzieren sich somit deutlich.

gleichzeitiges Laden: Dateien auslagern

Ein Tipp, der sich eher an Profis richtet, ist das Auslagern von (statischen) Dateien auf andere Hosts. Die Idee dahinter ist der Aufbau eines CDN: Da Browser nur 5 Dateien gleichzeitig von einem Host laden, kann man statische Dateien auf andere Hosts auslagern, damit die gleichzeitig geladen werden. Das empfiehlt sich vor allem für Stylesheets oder Grafiken. Dabei muss man nicht einmal auf professionelle Dienstleister zurückgreifen, eine Subdomain tut es in der Regel auch schon.

Grafiken und CSS daher einfach extern auslagern und die neuen Adressen der Website hinzufügen, schon wird alles etwas flotter.

SERPs mit Rich Snippets rocken

Ja, der Titel klingt etwas provokativ; Aber das ist gewollt! Ich möchte euch in diesem Artikel einmal aufzeigen, wie sich mit Rich Snippets die eigenen Suchergebnisse aufwerten lassen. Drei einfache, oftmals schnell umgesetzte Beispiele sollen einmal verdeutlichen, was heute schon mit Rich Snippets möglich ist.

Was sind Rich Snippets?

Bei Snippets handelt es sich um die wenigen Zeilen Text, die unter jedem Suchergebnis erscheinen. Sie sollen Nutzern eine Vorstellung davon vermitteln, was die Seite enthält und warum sie für ihre Suchanfrage relevant ist.
Google

Rich Snippets sind – allgemein ausgedrückt – Erweiterungen der eigenen Website, die Google als Extra-Informationen versteht und dann in den Suchergebnissen gesondert darstellt. Für Google ist es eine Möglichkeit dem Nutzer bereits bei der Suche nützliche Ergebnisse vorzustellen, Webseitenbetreiber können so die eigenen Suchergebnisse  aufwerten. Einzige Bedingung: Diese Aufwertung muss in der von Google vorgeschriebenen Form erfolgen, damit Google die Rich Snippets überhaupt als solche wahrnimmt.

Rich Snippets

Rich Snippets

Für Rich Snippets gibt es viele Beispiele und Anwendungsmöglichkeiten, die bereits heute von Google unterstütz werden:

  • Autor des Artikels
  • Sternchen-Bewertungen eines Produkts oder eines Artikels
  • Breadcrumb-Navigation der Seite
  • Rezepte (inklusive Vorschaubild)
  • Veranstaltungen und Ereignisse (inklusive Zeit- und Ortsangaben)

Bessere CTR durch Rich Snippets

Ich habe das Gefühl, dass Google die Rich Snippets derzeit enorm forciert, um Suchergebnisse noch besser bewerten zu können und die Relevanz einer Seite besser einschätzen zu können. Die Vermutung liegt daher auch nahe, dass Seiten mit Rich Snippets in den SERPs, aber auch bei den CTR in den SERPs deutlich besser abschneiden, als Seiten ohne Rich Snippets. Statistische Erhebungen dazu sind mir leider nicht bekannt, zwei Beispiele verdeutlichen meine Einschätzung aber:

  1. Auf meiner eigenen SEO-Spielwiese ArtikelWissen.info hat die Integration von Rich-Snippet-Breadcrumbs schlagartig eine Verdopplung der Besuchszahlen und eine deutlich gesteigerte Sichtbarkeit zur Folge gehabt.
  2. Quicksprout berichtet von einem 150%-igen Trafficboost allein durch die Integration des Authorship-Markup

Meine Einschätzung wird zudem auch von anderen geteilt.

Nun dürften viele der derzeit verfügbaren Mikrodaten für viele Webseitenbetreiber noch gar nicht so relevant sein. Drei Dinge lassen sich aber mit wenig Aufwand integrieren und sind zudem für beinahe jede Webseite und jeden Blog geignet: Breadcrumbs, Bewertungen und das Authorship-Markup.

Rich Snippets 1: Breadcrumbs

Breadrcumb-Navigationen auf Webseiten kennt man ja seit einiger Zeit. Diese Breadcrumbs sind aber beinahe genauso lang auch schon für die Google-Suchergebnisse möglich. Aussehen kann das zum Beispiel dann so:

Rich Snippets: Breadcrumbs

Rich Snippets: Breadcrumbs

Breadcrumbs zeigen somit einen genauen Pfad zu einem Artikel oder einer Seite an, sie vereinfachen dem Leser/Besucher die Orientierung und ermöglichen ihm beispielsweise auch das schnelle Zurückspringen in eine übergeordnete Kategorie.

Die Integration solcher Rich Snippets ist relativ einfach und wird hier und hier ausführlich erklärt. Wem das zu kompliziert ist, der findet für verschiedene CMS auch fertige Plugins, die dann nur noch eingebaut werden müssen. Für WordPress habe ich etwas hier schon einmal eines vorgestellt.

CSS: Breadcrumbs optisch anpassen

Die Plugins oder Erweiterungen liefern aber nicht immer auch die Mittel mit, um eine Breadcrumb-Navigation optisch an die eigene Webseite anzupassen. Wie man mit CSS relativ einfach aber Breadcrumbs erzeugen kann, dazu habe ich euch mal zwei schöne Beispiele herausgesucht:

Rich Snippets 2: Bewertungen

Eine weitere Möglichkeit, um die eigene Website in den SERPs hervorzuheben und von der derzeit stark Gebrauch gemacht wird, sind Sternchenbewertungen. Beinahe jede Nachrichtenseite und jeder zweite Online-Shops, dazu unzählige Blogs haben diese Sternchenbewertungen mittlerweile integriert. Das sieht dann so aus:

Rich Snippets: Bewertungen

Rich Snippets: Bewertungen

Die Integration dieses Rich Snippets ist auch kein Hexenwerk und wird etwa hier beschrieben. Und für verschiedene CMS gibt es bereits fast fertige Lösungen, eine einfache Umsetzung für WordPress hat beispielsweise Malte Landwehr einmal hier veröffentlicht.

Schindluder mit Sternchen-Bewertungen

Was ich allerdings kritisch sehe und wo eine Reaktion von Google nur eine Frage der Zeit ist: Nicht immer basieren die Sternchen auf tatsächlichen Bewertungen der Nutzer. So bewertet beispielsweise das Online-Angebot von “focus” den Artikel jeweils besser, je mehr Leser auf “Lesenswert” geklickt haben, wie Arthur Mai hier berichtet. Die Transparenz der Bewertungen ist so nicht mehr gewährleistet.

Mehr dazu auch unter dem Abschnitt “Rich Snippets werden nicht angezeigt”.

Rich Snippets 3: Authorship-Markup

Derzeit immer stärker im Fokus vieler Webseitenbetreiber: Das Authorship-Markup. Da Google immer mehr zu einer sozialen Suchmaschine wird, wird auch die Relevanz von Autoren eine immer größere Bedeutung bekommen. Sehr lesenswert hierzu: AuthorRank und die Top200 Autoren mit Google+ Integrationen. Seit Google+ ist es zudem immer einfacher geworden, den Autoren eines Artikels in den SERPs anzeigen zu lassen. Das sieht dann etwa so aus:

Rich Snippets: Autor

Rich Snippets: Autor

Über die beste Integration dieses Markups ist sich Google offenbar selbst noch nicht so ganz sicher, wie Christian Süllhöfer hier berichtet. Doch gibt es Anleitungen über die Integration des Authorship-Markups zuhauf (Google ist dein Freund!) und ich habe hier mal erklärt, wie es in WordPress besonders einfach geht.

Rich Snippets werden nicht angezeigt

Rich Snippets werden in der Regel nicht binnen Minuten nach den Integration angezeigt, man muss Google dafür schon etwas Zeit geben. Damit es aber überhaupt klappt, muss das Markup sauber sein, das lässt sich schnell mit dem Rich Snippets Testing Tool von Google überprüfen. Werden die Rich Snippets nach einigen Wochen dann noch immer nicht angezeigt, kann es dafür verschiedene Gründe geben, die Google hier auflistet.

Dazu zählt dann beispielsweise auch der Grund, dass das Markup für echte Benutzer nicht sichtbar ist, weil es mit den Möglichkeiten von CSS unsichtbar gemacht wird. Googles Empfehlung: “Don’t do it!”. Wenn Google das sagt, sollte man es auch so tun. Alles andere wäre in meinen Augen ein Betrugsversuch, auf die Goole ja immer allergisch reagiert. Daher bleibt die Frage spannend, ob der Focus mit seiner eigenwilligen Bewertung noch lange durchkommt… 😉

Bei Fragen: Bitte fragen! Ich helfe so gut ich nur kann!

Onpage-SEO-Faktoren im Überblick

Die Onpage-Optimierung gehört ebenso wie der Linkaufbau etwa zu den festen Bestandteilen von SEO. Hier kann man viel falsch machen, eine echte Wahrheit gibt es allerdings auch nicht. Ich möchte an dieser Stelle daher einmal die Onpage-SEO-Faktoren vorstellen, mit denen ich sehr gute Erfahrungen mache. Das bedeutet im Umkehrschluss aber nicht, dass es nicht auch anders ginge. Für Verbesserungsvorschläge wäre ich sehr dankbar!

Aber: Diese Faktoren beziehen sich nur auf das Verfassen und Optimieren von Texten. Die Optimierung des Quelltextes findet in dieser Auflistung erst einmal keine Berücksichtigung!

Onpage-SEO-Faktoren

Nr Empfehlung Anmerkung (HTML)
1 Keyword ist erstes Wort in den META-Keywords Zudem sollte ein Synonym vorhanden sein.
2 Keyword ist eines der ersten Worte in der META-Description. Aber ordentliche Sätze schreiben. Zudem Nutzeransprache forcieren: Description wird als Snippet in den Google-Ergebnissen angezeigt!
3 Meta-Description nicht länger als 140 Zeichen. Das Datum wird ebenfalls in den Suchergebnissen angezeigt, daher schneidet Google ab 140 Zeichen ab.
4 Maximal 5 Worte in den META-Keywords eintragen.
5 Keyword ist im ersten Absatz des Textes vorhanden.
6 Keyword ist eines der ersten Worte im Titel.
7 Seitentitel darf nicht länger als 70 Zeichen sein. …danach schneidet Google in den SERPs ab.
8 Keyword-Häufigkeit im Text bei etwa 3%.
9 Synonyme des Keywords mit einer Häufigkeit von etwa 1-2%.
10 1x Fett-Markierung des Keywords. <strong>Keyword<⁄strong>
11 1x Kursiv-Markierung des Keywords. <em>Keyword<⁄em>
12 1x Fett-Markierung des Synonyms.
13 Textlänge etwa 400 Wörter.
14 Keyword-Dichte im letzten Absatz etwa 4%.
15 URL enthält das Keyword .htaccess-Einstellungen beachten
16 Keyword in 30% aller Überschriften
17 Bilder enthalten das Keyword als ALT-Text <img alt=”Keyword” ⁄>
18 Mindestens 1 ausgehender Link zu themenverwandter Authority-Site. Darf aber nicht auf eine Seite verweisen, die unter demselben Keyword rankt. Verwendung von Synonymen sinnvoll.

Grundsätzlich sind diese Empfehlungen nur Erfahrungswerte. Man kann es auch anders machen. Insbesondere für SEO-Anfänger dürfte diese Liste jedoch einige wichtige Hinweise enthalten.

Diese Hinweise beziehen sich zudem nur auf die Texte selbst. Auch den Quelltext einer Seite kann man in vielen Bereichen noch stark verbessern, dazu gehört dann beispielsweise auch das Ausnutzen der Rich Snippets, um in den Suchergebnissen besser wahrgenommen zu werden.

Als Lektüre empfehle ich zudem die Hinweise, wie man Texte formatieren sollte, damit sie angenehm lesbar sind und die Besucher länger bleiben,

Backlinks durch flickr aufbauen

Es gibt Tage, an denen ich mich richtig freue. Heute war so einer. Denn wie ich feststellen durfte, habe ich einen tollen, kostenlosen Backlink von foxnews.com bekommen. Ja, so sieht’s aus: Eine der größten US-amerikanischen Nachrichtenseiten (wenn auch nur von einer Subdomain, aber immerhin) schenkt mir einen Backlink. Warum das? Und wie könnt’ ihr es mir nachtun? Die Antwort ist einfach: flickr hilft!

foxnews-Link

foxnews-Link

Backlink dank flickr

flickr-Backlinks

flickr-Backlinks

Auch wenn ich flickr selbst nicht für die Verwendung von Bildern unter CC-Lizenz geeignet halte (eine Begründung gibt es hier), so kann man flickr dennoch gut dafür nutzen, selbst Backlinks aufzubauen. Denn als eines der größten Bildportale im Internet zieht flickr auch tagtäglich tausende von Nutzer an, die kostenfreie Bilder für ihre eigene Website suchen.

Das kann man sich zu Eigen machen und eigene Bilder zur Nutzung freigeben und als “Bezahlung” einen Link erfragen. Denn: Die CC-Lizenz verlangt in jedem Fall die Angabe des Urhebers und die Angabe der Lizenz selbst. Das machen nicht alle, im deutschsprachigen Raum aber immer mehr Webseitenbetreiber. Und viele von denen lassen sich dazu überreden nicht einen Link zur flickr-Seite des Urhebers zu setzen, sondern zu einer anderen Webseite nach Wahl des Urhebers.

Grundsätzlich halte ich zwei Methoden geeignet, um über flickr Backlinks aufzubauen.

Vorher darum bitten

Wer Fotos bei flickr einstellt, der kann und sollte (dazu später in diesem Artikel mehr) die Fotos um einige Angaben erweitern: Neben einem aussagekräftigen Titel und guten Tags gehört dazu vor allem die Beschreibung.

In dieser Beschreibung frage ich regelmäßig, ob die Nutzer bei der Verwendung auf Webseiten nicht einen Link zu mir setzen können. Im Detail sieht das dann so aus:

You may use this picture without any restrictions.
All I ask for is a link (dofollow-Links are welcome!) to http://meine-webseite
Thank you!
————————–
Du kannst dieses Bild ohne Einschränkungen nutzen. Ich bitte nur um einen Link (dofollow am liebsten) zu  http://meine-webseite
Danke!

Das klappt in den meisten Fällen auch schon ganz gut. Wer meine Bilder verwendet und eh einen Link zu flickr gesetzt hätte, der ändert den auch gern mal zu einer anderen Webseite. Meine Erfahrung: Je freundlicher man fragt, umso eher wird ein Link gesetzt. Macht man das Linksetzen hingegen zu Bedingung, wird das Bild häufig gar nicht erst verwendet. Der Ton macht hier die Musik.

Später nachfragen

Doch nicht alle – und das halte ich für vollkommen in Ordnung – setzen nach dieser Bitte freiwillig einen Link. Doch auch bei denen sollte man nochmal nachfragen, ob sie das nicht noch nachträglich tun könnten.

Bilder finden: Google

Google Bildersuche

Google Bildersuche

Doch dafür muss man die Seiten erst einmal finden, die die eigenen Bilder verwenden. flickr ist hier – auch in der Pro-Version – nicht sonderlich geeignet, eine Funktion zum Durchsuchen des Webs nach eigenen Bildern vermisse ich schon seit Jahren. Und wieder einmal ist es Google, das dann genutzt werden kann.

Denn in der Google-Bildersuche ist auch eine Rückwärtssuche möglich: Diese Rückwärtssuche erlaubt mittels der Bild-URL des Originals die Anzeige von Webseiten, die dieses Bild verwenden. Wer Chrome verwendet, der hat noch mehr Glück: Dort reicht ein Rechtsklick auf das Bild und schon kann diese Rückwärtssuche im Kontextmenü ausgewählt werden. Für andere Browser gibt es das m.W. auch als Erweiterung.

Auch TinEye kann und sollte zusätzlich verwendet werden, da sich ganz selten so auch Ergebnisse finden lassen, die Google nicht kennt. Und: Die Google-Suche muss regelmäßig wiederholt werden; Zum Einen weil das Bild vielleicht nochmal zusätzlich verwendet wurde, zum anderen aber auch deshalb, weil der Google-Index nicht immer auf dem neuesten Stand ist.

Hat man die Webadressen nun gefunden, die die eigenen Bilder verwenden, so kann man die Betreiber der Webseiten einmal kontaktieren. Das Beste hierfür ist wohl die klassische Email, aber auch Kontaktformular oder die Kommentarfunktion unter dem betreffenden Beitrag funktionieren.

Freundlich bitten

Auch hier ist wieder eine freundliche Bitte das erfolgsversprechendste Vorgehen. Unter der Angabe der Originalquelle und der URL der Verwendung kann man darauf hinweisen, dass man einen Link erbeten hat und nun noch einmal nachfragen möchte, ob das nachträgliche Hinzufügen eines solchen Links nicht möglich wäre. Bei mir funktioniert der Hinweis darauf, dass ein solcher Link auch zukünftig hochwertige Bilder gewährleistet, immer ganz gut.

Aber nicht entmutigen lassen: Die Response- und Erfolgsquote dieser Mails ist sehr gering. Schätzungweise 20-30% der Angeschriebenen haben bei mir gar nicht reagiert. Von den verbliebenen 70-80% haben dann wiederum nur ungefähr 50% einen Link gesetzt. Bedeutet bei 100 Mails aber immerhin so etwa 35 Links und viele dieser Links sind dann auch dofollow.

Gute Bilder und gute Beschreibung notwendig!

Damit man aber überhaupt erst einmal in das Vergnügen kommt, dass andere die eigenen Bilder verwenden, bedarf es etwas Vorbereitung. Das letzte Schrottbild wird meistens gemieden, hochwertige Fotos machen sich deutlich besser.

Der Themenbereich des Bildes ist dabei relativ egal: Apple macht sich genauso gut wie WordPress als Thema und fotografierte Tomaten werden ebenso häufig genutzt wie ein spielender Hund. Was ich sagen will: Fotografiert das, was ihr gut könnt. Wichtig ist eben nur, dass ihr nicht nur Schnappschüsse einstellt, sondern auch künstlerisch irgendwie hochwertige Bilder. So sind in meiner Bildersammlung auch beide Formen vertreten.

Aber gute Bilder sind nichts wert, wenn sie nicht gefunden werden. Wenn man so will, muss man daher noch etwas SEO für die flickr-Suche betreiben. Klingt komisch, hat aber seine Berechtigung. Denn wie jede Suchmaschine durchsucht auch flickr die eigene Datenband daraufhin, ob das Keyword in Überschrift, Beschreibung und Tags vorhanden ist. Je besser das der Fall ist, als umso relevanter wird das Bild in den Suchergebnissen dann angezeigt. Berücksichtigt werden zudem auch die Anzahl der Favoritenmarkierungen, Kommentare oder das Vorhandensein in Sammlungen.

Daher meine Empfehlungen:

  • Aussagekräftiger Titel mit wichtigsten Keyword in Deutsch und Englisch
  • wichtigste Keywords als Tags in Deutsch und Englisch
  • Aussagekräfte Beschreibung in Deutsch und Englisch mit wichtigen Keywords
  • Hinzufügen des Bildes zu passenden Sammlungen (sogenannte Group Pools)

So klappt es dann auch mit vielen und zum Teil extrem wertvollen Backlinks.

Pinterest ist für SEO nicht geeignet

Pinterest: Für SEO ungeeignet

Pinterest: Für SEO ungeeignet

Über Pinterest, das Allheilmittel aller Backlink- und SEO-Probleme wurde ja viel geschrieben und vor allem in der Anfangsphase wurde der Dienst von vielen gefeiert. Auch ich war der festen Überzeugung, dass mit Pinterest so manches SEO-Problem wenigstens im Ansatz gelöst sei. Pustekuchen! Heute bin ich anderer Meinung: Pinterest ist für SEO nicht geeignet. Ich will auch kurz erklären warum. Wie immer gilt: Es gibt Menschen die mehr Ahnung von dem Thema haben und für jeden sachdienlichen Hinweis, dass ich vielleicht doch falsch liege, bin ich in den Kommentaren dankbar!

Pinterest für SEO-Zwecke ungeeignet

Der Grund, für den Pinterest in der SEO-Szene einmal gefeiert wurde war der, dass es scheinbar unendlich viele follow-Links auf die Originalquelle gab: In jedem Pin waren zwei Links zu der Originalquelle vertreten, mit jedem Repin kamen dann nochmal zwei dazu und die Übersichtsseite zu einer Quelle gab nochmal einen Link. Damals immer “do”follow.

Links auf nofollow

Die Zeiten sind vorbei, Pinterest hat sich dem Druck Googles gefügt und die Links beinahe alle auf “nofollow” umgestellt. Die Links in den einzelnen Pins sind nun komplett auf nofollow umgestellt, es gibt nur noch insgesamt einen dofollow-Link zu der Originalquelle: Der von der Quellen-Übersichtsseite.

Übersichtsseite zu einer Quelle bei Pinterest

Übersichtsseite zu einer Quelle bei Pinterest

Bekam man also vor einiger Zeit für einen Pin mit 5 Repins insgesamt 13 dofollow-Links (davon 12 Deeplinks), ist heute gerade einmal ein dofollow-Link auf die Startseite verblieben.

Auch nofollow-Links zählen

Nun könnte man argumentieren, dass auch nofollow-Links zu einem natürlichen Linkprofil dazugehören und daher doch noch irgendwie ein bisschen was wert sind und damit auch die Links der Pins nicht unterschätzt werden sollten. Mag stimmen, aber das Problem ist ein ganz anderes: Die meisten Pins, Repins und auch die Übersichtsseiten sind gar nicht im Google-Index.

Nicht im Google-Index vertreten

Ich wollte es genauer wissen und habe einmal überprüft, welche Pins und Repins überhaupt im Google-Index sind und habe den Test mit meinen Testpins (so wie ihr sie auf der Übersichtsseite, siehe Screenshot, sehr) gemacht. Das Ergebnis ist ernüchternd: Meine 6 Pins haben insgesamt 14 Repins. Plus Übersichtsseite müssten also insgesamt 21 URLs im Google-Index sein, die für mich interessant sind. Tatsächlich ist aber nur eine dieser URLs überhaupt im Google-Index vertreten.

Pin/Repin Google Index?
Süßigkeiten Nein
Repin 1 Nein
Repin 2 Nein
Repin 3 Nein
iPhone 3G Nein
Repin 1 Nein
Repin 2 Nein
Repin 3 Nein
Surfer Nein
Repin 1 Nein
VW Bulli Nein
Repin 1 Nein
Liebespaar Nein
MacBook Air Ja
Repin 1 Nein
Repin 2 Nein
Repin 3 Nein
Repin 4 Nein
Repin 5 Nein
Repin 6 Nein
Übersichtsseite Nein

Interessanterweise ist allein die URL vertreten, die ich einmal in einem vergangenen Beitrag verlinkt habe.

Links für Links?

Bedeutet für mich: Ein Pin/Repin wird nur dann von Google wahrgenommen, wenn ich aktiv darauf hinweise. Das würde dann ja bedeuten, dass ich jeweils einen Link zu jedem Pin/Repin setzen müsste, damit Google den dann überhaupt wahrnimmt und in den Index aufnimmt. Ein Link für jeden Pin/Repin ist in meinen Augen aber ein ziemlich schlechter Deal, bedenkt man, dass dann doch jeweils nur ein nofollow-Link zurückkommt.

Sinnvoll erscheint dieser Schritt nur, wenn man die Übersichtsseite einer Quelle verlinkt, denn von der kommt akutell ja noch ein dofollow-Link. Das habe ich in diesem Beitrag jetzt einmal getan und ich bin gespannt, wie lange es nun dauert, bis die Seite im Index auftaucht.

Es bleibt ja der Traffic

Wie viele Studien und Beiträge gab es schon dazu, dass Pinterest ja immerhin noch einer der derzeit größten Trafficlieferanten ist. Ja, mag sein. Auch ich spüre das. Aber Pascal Landau etwa hat auch dargelegt, dass man diesen Traffic erst einmal zu nutzen wissen muss.

In meinem Fall jedoch ist der von Pinterest generierte Traffic einer, den ich mir auch schenken könnte: Die Besuchsdauer liegt bei ungeschlagenen 2 Sekunden, pro Besuch schauen sich die Besucher nur eine Seite an, die Absprungrate liegt bei 100%. Bedenke ich, welche Arbeit es macht die Pins wirklich sinnvoll einzusetzen, dann schenke ich mir diese Arbeit lieber.

Für SEO nix wert

Also: Aus meiner Sicht ist Pinterest weder für SEO noch für die Generierung von Traffic (zumindest im deutschsprachigen Raum) nichts wert. Mehr Sinn macht es, in den Linkaufbau etwas mehr Zeit zu investieren, die Ergebnisse sind dann aber viel mehr wert.

Oder was meint ihr?

Backlinks verkaufen – Anbieter

Der Verkauf von Backlinks ist ein Spiel mit dem Feuer: Einmal von Google erwischt heißt es nachbessern oder raus aus dem Index (zumindest in den meisten Fällen). Gerade in jüngster Zeit hat sich wieder einmal gezeigt, dass Google massiv gegen Linkkäufer und -verkäufer vorgeht, denn klug verkaufte Links kann Google immer noch nicht automatisch erkennen.

[button text=”Direkt zu den Anbietern” url=”#anbieter” color=”red”]

Backlinks verkaufen

Backlinks verkaufen

Das Problem – und daran kann auch Google langfristig nichts ändern – bleibt für viele Website-Betreiber ein bekanntes: Der Verkauf von Links ist häufig eine der wichtigsten und lukrativsten Einnahmequellen überhaupt. Insbesondere bei Projekten, mit denen sich über bekannte Affiliate-Netzwerke oder Dienste wie Google Adsense nur wenig bis kein ordentlicher Verdienst erzeugen lässt, sind bezahlte Beiträge (die – entgegen der Google-Richtlinie – nicht als solche gekennzeichnet sind) oftmals die einzige Möglichkeit überhaupt Geld im Internet zu verdienen.

Die Verlockung ist daher groß, über das Verkaufen von Links und Beiträgen mit inkludierten Links ein paar Euro zu generieren. Hinzukommt, dass sich mit der wachsenden Anzahl von Wettbewerbern auch endlich die Provisionierung deutlich verbessert hat. Dreistellige Beträge als Einmalzahlung sind für Links oder Beiträge immer häufiger möglich und in den meisten Fällen damit Lichtjahre von möglichen Affiliate-Erträgen entfernt; Im positiven Sinne.

Backlinks verkaufen?

Die Frage, die man sich vor dem Verkaufen von Backlinks stellen sollte, ist die nach der Sinnhaftigkeit. Wer ernsthaft an die Sache herangehen will, muss im Vorhinein eine Kosten-Nutzen-Analyse, eine Abwägung von Vor- und Nachteilen vornehmen

Vorteile des Backlinkverkauf

Die Vorteile beim Verkauf von Backlinks liegen klar auf der Hand:

  • Es gibt in den meisten Fällen ganz ordentliche Provisionen, die (per Einmalzahlung) auch in den drei- oder sogar vierstelligen Bereich gehen können.
  • Die Zahlung ist unabhängig von Schwankungen der Besucherzahlen.
  • Es besteht keine Abhängigkeit von Klick-/Lead-/Sale-Provisionen.
  • Die Umrechnung in einen Stundenlohn ist meist sehr attraktiv.

Die Vorteile des Backlink-Verkaufs klingen verlockend…

Gefahren/Nachteile beim Backlinkverkauf

Doch auch die Gefahren sollten bei den Überlegungen nicht vernachlässigt werden:

  • Entdeckt Google Verstöße gegen die Richtlinien (also den Verkauf von Links), droht eine Penalty oder sogar ein Ausschluss aus dem Index.
  • Fliegt ein verkaufter Artikel aus dem Index, muss ggf. die erhaltene Provision zurückgezahlt werden.
  • Thematisch nicht passende Artikel können zu einem Vertrauensverlust bei Lesern führen.

Übrigens: Wer Backlinks verkaufen will oder bereits verkauft, der sollte darüber nicht zu offen reden. Alle mir bekannten Anbieter haben in den AGB Klauseln zum Stillschweigen vereinbart. Werden diese Klauseln gebrochen, drohen mitunter hohe Strafzahlungen.

Anbieter: Backlinks verkaufen

Wer sich aller Risiken bewusst ist und sich für den Verkauf von Links und Artikel entscheidet, der sollte sich aber nicht nur an einen Anbieter binden. Zu groß können Preisunterschiede, verfügbare Kampagnen/Angebote und die generellen Abwicklungskonditionen sein. Wer sich nur auf einen Anbieter festlegt, verschenkt möglicherweise Potenzial und damit auch bares Geld.

Auf den folgenden Seiten möchte ich daher insgesamt vier Anbieter vorstellen, bei denen sich ein Besuch grundsätzlich lohnen könnte. Die Ordnung der Anbieter ist aber rein willkürlich und ohne Ordnung.

Richtig formatieren

Richtig formatieren

Richtig formatieren

Über die richtige Anordnung von Bildern in Artikel, um eine Störung des Leseflusses zu unterbinden, hatte ich ja schon an anderer Stelle berichtet. Diesen Artikel möchte ich einem anderen nicht zu vernachlässigenden, aber in der Praxis häufig stiefmütterlich behandeltem Punkt widmen: Der richtigen Formatierung. Anders als im SEO-Blog von SEO-United gehe ich hierbei aber nicht auf SEO-Faktoren ein, sondern betrachte rein optische Merkmale. Denn diese Merkmale sind es, die die Besuchsdauer eines Besuchers nicht unerheblich beeinflussen.

Gut lesbar

Eine Seite ist umso attraktiver (abgesehen von den angebotenen Informationen), je besser ein Besucher sie lesen kann. Ist ein Text optisch einfach aufzunehmen, so verursacht das beim Rezipienten ein angenehmes Gefühl; Er verweilt länger. Das Gegenteil ist denkbar einfach: Je mehr sich ein Leser anstrengen muss um einen Text zu lesen, umso schneller wird er “flüchten” und die Seite verlassen.

Vor allem bei Designanpassungen und dem Erstellen von Texten sollte man genau das berücksichtigen: Texte müssen (optisch) gut lesbar sein.

Gute Formatierungen vs. böse Formatierungen

Die Entscheidung, ob etwas gut oder nicht gut ist, ist aber häufig von subjektiven Faktoren abhängig. Was der Eine gut lesen kann, kann der Andere vielleicht schon nicht entziffern. Wo der Eine seinen Kopf von links nach rechts bewegen muss, da kann der Andere den ganzen Text aus einer Position erfassen.

Doch hängt dieser Eindruck auch von technischen Umständen ab, die man als Webseitenbetreiber wahrlich nicht beeinflussen kann. Die Bildschirmgröße, bzw. Auflösung spielt dabei wohl die größte Rolle.

Nichts desto trotz gibt es einige Faktoren, die unabhängig von persönlichen Geschmäckern und technischen Voraussetzungen einen Text gut oder schlecht lesbar machen. Zunächst ein optisches Beispiel. Entscheide einmal selbst, welchen Text du (unabhängig davon welche Farben und Formen dir besser gefallen) auf Anhieb besser lesen kannst.

Richtig formatieren: Vergleich

Richtig formatieren: Vergleich

Zugegeben: Natürlich ist das jetzt etwas plakativ und sicherlich auch übertrieben. Aber du siehst den Unterschied: Ein eigentlich vollkommen gleicher Text kann je nach Formatierung ganz anders wirken. Das eine Mal ist er schnell erfassbar und auch lesbar, beim anderen Mal müssen die Augen schon stark zusammengekniffen werden und man erkennt erstmal gar nichts. Dabei: Der Text ist gleich, die Überschrift ist gleich, selbst die Breite der einzelnen Beispiele ist auf’s Pixel genau gleich. Nur wird eben unterschiedlich mit diesen Informationen umgegangen. Auf richtig abgefahrene Farben oder beknackte Schriftarten (wie Comic Sans MS) habe ich vollkommen verzichtet.

Dieses Wissen richtig einzusetzen ist für den Erfolg des eigenen Webprojekts unbedingt notwendig.

Tipps: Richtig Formatieren

Im Laufe der Jahre habe ich mit meinen Webprojekten, aber auch durch Besuche auf anderen Blogs und Webseiten jede Menge Erfahrungen gesammelt und glaube behaupten zu können, was gut ist und was nicht. Auch hat ein Selbstversuch vor einigen Monaten die Erkenntnis gebracht (auch wenn der statistische Fehler wahrscheinlich relativ hoch wäre), dass es für die Besuchsdauer und Absprungrate sehr wohl ausschlaggebend ist, wie ein Text formatiert und eine Seite aufgebaut ist.

Ich möchte daher einmal auf die in meinen Augen wichtigsten Faktoren eingehen. Wer eine kurze, komprimierte Liste meiner Erfahrungen will, der findet die am Ende.

[button color=”red” url=”#liste” text=”Direkt zur Liste”]

Farben und Seitenaufbau

Wichtig ist zunächst, eine Dinge beim grundsätzlichen Seitenaufbau zu beachten.

Um wirklich alle Bildschirmgrößen abzudecken, sollte das Seitenlayout nicht breiter als etwa 960 Pixel sein; Dafür gibt es ja auch gute Gridsysteme, z.B. 960.gs. Doch diese Überlegung ist für die Lesbarkeit von Texten noch gar nicht so relevant. Viel wichtiger ist hier, die Textbreite zu begrenzen, damit die Augen des Betrachters nicht immer den ganzen Bildschirm “scannen” müssen.

In meinen Erfahrungen hat sich eine Textbreite von etwa 660 Pixel immer bewährt. So ist sowohl auf kleinen, als auch auf größeren Bildschirmen der Text in seiner Breite sofort zu erfassen. Wichtig zudem: Zu den Seitenrändern immer einen kleinen Abstand von etwa 10 Pixeln einhalten.

Des Weiteren sollte das gesamte Layout aber auch zentriert sein um eben unterschiedlichen Displaygrößen gerecht zu werden und den Text immer sofort im Blickpunkt des Betrachters anzuzeigen.

Ebenso wichtig: Zwischen der Hintergrundfarbe des gesamten Layouts und der Hintergrundfarbe des Textbereichs sollte ein guter, aber nicht zu starker Kontrast herrschen. Ein leichtes Grau (etwa #c2c2c2) für den Seitenhintergrund und ein neutrales Weiß (#ffffff) liefert bei mir die besten Ergebnisse.

Weiß ist als Texthintergrund ohnehin die wahrscheinlich beste Wahl und liefert den besten Kontrast bei nahezu allen Schriftfarben; Von hellgrauer Schrift oder weißem Text sei einmal abgesehen.

Schriftart, Schriftfarbe, Schriftgröße

So wichtig wie das richtige Layout ist auch die Wahl der richtigen Einstellungen für die Schrift. Schriftart, Schriftgröße und Schriftfarbe spielen hierbei eine entscheidende Bedeutung. Eines vorweg:  Von hübschen Schriftarten, die auf lokalen Rechnern nicht immer vorhanden sind und deren Verwendung daher von Google Fonts o.ä. unterstützt werden muss, halte ich persönlich nichts: Verlangsamt die Seite nur und der Mehrwert für die Besucher ist nicht der größte.

Schriftart

Als Schriftart eignen sich besonders Serif-Schriften und aus dem umfangreichen Angebot dieser Schriftarten dürfte vor allem “Times New Roman” die richtige Wahl sein. Dafür gibt es vor allem zwei Gründe: Serifen-Schriftarten sind grundsätzlich besser lesbar; Die kleinen Füßchen an den einzelnen Buchstaben geben eine unsichtbare Linie vor, das “Verrutschen” zwischen Zeilen wird so vermieden. Times New Roman ist zudem eine Standardschriftart auf allen gängigen Betriebssystemen und kann so immer angezeigt werden.

Schriftgröße

Auch bei der Schriftgröße sollte man dem Besucher/Leser etwas Gutes tun und sie nicht zu klein wählen. Eine Times New Roman sollte daher im normalen Text immer eine Größe von etwa 12 Pixeln haben. Sinnvoll kann übrigens auch die Angabe in “em” sein, weil Pixel nicht überall gleich groß sind. Mehr zu diesem schwierigen Thema hier.

Schriftfarbe

So viel ist bei der Schriftfarbe nicht zu beachten. Eigentlich nur eine Sache: Ein hoher Kontrast. Daher ist bei weißem Hintergrund etwa immer eine schwarze Schrift empfehlenswert. Mit all zu bunten Farben sollte man hier nicht experimentieren, der Text sollte nicht zu einer optischen Spielerei verkommen.

Überschriften

Experimentieren kann man in Grenzen dafür bei den Überschriften. Hier sind eigentlich keine Grenzen gesetzt. Beachten sollte man jedoch zunächst, dass Schriftarten der Überschriften auch zum Text passen. Verwendet man im Text eine Serifen-Schrift, kann in den Überschriften eine serifenlose (Helvetica, Verdana, Arial z.B.) verwendet werden. Die Schriftfarben sollte aber sowohl beim Fließtext, als auch in den Überschriften gleich sein.

Die Schriftgrößen der Überschriften hingegen müssen sich deutlich vom Fließtext unterscheiden, um als Überschriften überhaupt wahrgenommen zu werden. Bei der Festlegung der Schriftgrößen sollte man dann aber auch die HTML-Hierarchie (H1 bis H6) beachten und dementsprechend anpassen.

Links

Links im Fließtext sollten mit einer anderen Farbe kenntlich gemacht werden. Diese Farbe sollte dann stark von der Schriftfarbe des umgebenden Fließtexts abweichen, ein kräftiges Rot kann beispielsweise Wunder wirken. Links auch unterstrichen anzeigen zu lassen kann sinnvoll sein, ist bei einer deutlich abweichenden Farbe aber nicht notwendig. Eine Spielerei hingegen ist die Verwendung von Symbolen, die Links je nach Art kennzeichnen: Überflüssig.

Ansonsten sind Links aber im gleichen Format wie der Fließtext zu halten.

Komprimierte Liste

Hier noch einmal wie versprochen alle Tipps stark komprimiert:

  • Seitenlayout: maximale Breite von 960 Pixeln
  • Textbereich: maximale Breite von 660 Pixeln
  • Abstand zum Seitenrand des Textbereichs: 10 Pixel
  • Layout zentriert
  • Seitenhintergrund: helles Grau, z.B. #f2f2f2
  • Texthintergrund: weiß, #ffffff
  • Serifen-Schriftart, vorzugsweise “Times New Roman”
  • Schriftgröße 12 Pixel (bzw. em-Pendant)
  • Schriftfarbe: Hoher Kontrast; Empfehlenswert etwa schwarz bei weißem Hintergrund
  • Überschriften deutlich größer
  • Hierarchie bei Überschriften (H1 bis H6) auch bei deren Schriftgröße berücksichtigen
  • Links sollten farblich stark vom Fließtext abweichen

Fazit

Wer diese Tipps beherzigt, wird – davon bin ich fest überzeugt – bei Werten wie Besuchsdauer oder Absprungrate durchaus Verbesserungen feststellen. Doch es sei auch gesagt: Je nach Ausrichtung der Website kann es manchmal kleine Unterschiede geben. Hier gilt es zu experimentieren.

Das Wichtigste jedoch ist dabei immer: Nicht nach eigenem Geschmack arbeiten, sondern durch die Brille des Lesers schauen und sich die Frage stellen, wie der wohl am besten lesen kann. Dann wird’s klappen!

Was vergessen? Dann bitte einen Kommentar! 🙂