Strategien zur Offpage-Suchmaschinenoptimierung

Größe: px
Ab Seite anzeigen:

Download "Strategien zur Offpage-Suchmaschinenoptimierung"

Transkript

1 Strategien zur Offpage-Suchmaschinenoptimierung Daniel Mühlbacher D I P L O M A R B E I T eingereicht am Fachhochschul-Masterstudiengang Digitale Medien in Hagenberg im Juni 2009

2 Copyright 2009 Daniel Mühlbacher Alle Rechte vorbehalten ii

3 Erklärung Hiermit erkläre ich an Eides statt, dass ich die vorliegende Arbeit selbstständig und ohne fremde Hilfe verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt und die aus anderen Quellen entnommenen Stellen als solche gekennzeichnet habe. Hagenberg, am 13. Juli 2009 Daniel Mühlbacher iii

4 Inhaltsverzeichnis Erklärung Danksagung Kurzfassung Abstract iii vii viii ix 1 Einleitung Problemstellung Zielsetzung Aufbau dieser Arbeit Vergleichbare Arbeiten Suchmaschinennutzung Ranking-Algorithmen Der Ranking-Algorithmus von Google Das PageRank-Konzept Link-, Domain- und IP-Popularität Themenrelevanz Link-Texte Das Hilltop-Prinzip Personalisierte Rankings: SearchWiki Alternative Ranking-Systeme Ask (Teoma) Wikia Search Wolfram Alpha Bing Grundlagen der Suchmaschinenoptimierung Onpage-Optimierung Begriffserklärung Allgemeiner Website-Aufbau iv

5 Inhaltsverzeichnis v Die URL: Domainname, Verzeichnisstruktur und Dateinamen Title-Tag Meta-Tags Inhalt und Keyword-Dichte Überschriften und Textauszeichnungen Links und Link-Texte Bilder Offpage-Optimierung Begriffserklärung Bestandteile der Offpage-Optimierung Spam Optimierung für die Google-Bildsuche Allgemeines Funktionsweise der Indexierung Ranking-Kriterien Onpage-Optimierung Dateiname Alt- und Title-Tag Umgebender Text Einsatz eines Framebreakers Offpage-Optimierung Strategien zur Offpage-Optimierung Allgemeines Indexierung der Website Anmeldung bei Suchmaschinen am Beispiel Google XML-Sitemaps Linkquellen Webkataloge Artikelverzeichnisse Social Bookmarks Social Media und Social News Microblogging RSS-Feeds Das Kakadu-Prinzip Linkbait Satellitendomains Qualitätskriterien der Offpage-Optimierung Domainalter Themenrelevanz eingehender Links Geschwindigkeit des Linkaufbaus Link-Exklusivität

6 Inhaltsverzeichnis vi Unidirektionale und reziproke Links Link-Texte Deep-Links IP-Popularität Gewichtung des PageRank eingehender Links Praktischer Versuchsaufbau zur Offpage-Optimierung Versuchsaufbau Auswahl der Qualitätskriterien Auswahl der Testwebsites Technische Voraussetzungen Analyse des Versuchsaufbaus Durchführung Umsetzung der Testwebsites Linkaufbau Zeitlicher Ablauf Ergebnisse und Auswertung Indexierungsgeschwindigkeit und Indexierungsgrad Unidirektionale und reziproke Links Variation der Link-Texte Deep-Links Gewichtung des PageRank eingehender Links Social Bookmarks IP-Popularität Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse Keyword-Analyse mit SEA Tools v Bildsuche-Analyse mit SEA Tools v Link-Analyse mit SEA Tools v Schlussbemerkung und Ausblick 80 A Ergebnisse des Versuchsaufbaus 82 B Linkaufbau der Testwebsites 98 C Inhalt der CD-ROM 114 C.1 PDF-Dateien C.2 Literaturquellen C.3 Scripts C.4 Versuchsaufbau Literaturverzeichnis 117

7 Danksagung Ich möchte diese Arbeit meiner im Jahr 2008 verstorbenen Mutter Birgit Mühlbacher widmen, welche 25 Jahre immer für mich da war und mich in allen Dingen besonders auch im Studium unterstützt hat. Danke. Mein besonderer Dank gilt meiner Freundin Christina (für mehr, als ich an dieser Stelle aufzählen könnte) und auch ihrer Familie, meinem Vater Josef Mühlbacher und meiner Schwester Kerstin. Abschließend möchte ich meinem Betreuer Mag. DI Dr. Andreas Stöckl für seine kompetente und verlässliche Unterstützung im Zuge der Erstellung dieser Arbeit danken. vii

8 Kurzfassung Die Nutzung von Suchmaschinen, allen voran Google, hat in den letzten Jahren stark zugenommen und dazu geführt, dass eine Suchmaschine für den Großteil der Internetnutzer zu der Einstiegsseite ins World Wide Web geworden ist, um andere Websites und Produkte zu finden. Umso wichtiger ist es für den Erfolg einer Website, diese für eine möglichst gute Position in den Suchergebnissen zu optimieren. Dieser Suchmaschinenoptimierung genannte Bereich ist Thema dieser Arbeit. Unterschieden wird hierbei zwischen der Onpage- (alle Maßnahmen, welche direkt auf der jeweiligen Website getroffen werden können) und Offpage- Optimierung (Linkaufbau), wobei die Auswirkungen einzelner Kriterien der Offpage-Optimierung aufgrund fehlender Informationen von offizieller Seite der Suchmaschinen-Betreiber häufig auf praktischen Erfahrungen und Spekulationen beruhen. In dieser Arbeit sollen deshalb insbesondere erfolgversprechende Strategien zur Offpage-Suchmaschinenoptimierung sowie deren Auswirkungen durch den Aufbau eines praktischen Versuchsaufbaus, der über 13 Wochen durchgeführt wurde, behandelt werden. Zusätzlich werden Grundlagen der Suchmaschinenoptimierung vorgestellt und Optimierungsmöglichkeiten für die Google-Bildsuche, einen häufig vernachlässigten Bereich mit großem Potential, besprochen. Als Ergänzung wird desweiteren der technische Hintergrund der Keyword-, Bildsuche- und Link-Analyse, welche mit der als Vorprojekt zu dieser Arbeit entstandenen Webapplikation SEA Tools v2 durchgeführt wurde, erklärt. viii

9 Abstract The usage of search engines, especially Google, has increased rapidly within the last years and made search engines the number one entry point to the World Wide Web for the better part of internet users in order to find other websites and products. All the more important the optimisation of a website for a better position on the search engine result pages has become for its success. This field called Search Engine Optimisation is the topic of this thesis. Commonly Search Engine Optimisation is separated into two parts: onpage (all changes done directly on the particular website) and offpage optimisation (link building), whereas the knowledge about the effects of single offpage criteria is often based on practical experience and speculations due to missing official information from the search engines. Therefore this thesis deals, above all else, with promising strategies for offpage search engine optimisation as well as their effects evaluated by a practical test set-up which has been run for several months. Additionally search engine optimisation essentials and optimisation possibilities for Google Image Search, an often neglected field with high potential, are presented. Complementary the technical background of the keyword, image search and link analysis realised with the self-made web application SEA Tools v2 is explained. ix

10 Kapitel 1 Einleitung In den vergangenen Jahren nahm die Nutzung von Suchmaschinen kontinuierlich zu, so dass diese auf dem besten Weg sind, als meistgenutzte Applikation im Internet abzulösen [Fal08]. Knapp 50% der Internetnutzer verwenden Suchmaschinen wie z. B. Google, Yahoo! oder Live Search (Bing) täglich, um Websites und Produkte zu finden. Berücksichtigt man diese Tatsache steht fest, dass Suchmaschinen zu einem wesentlichen Erfolgsfaktor für Websites geworden sind, auf deren Besucher nicht verzichtet werden kann. Umso mehr Bedeutung erlangt in diesem Zusammenhang die Platzierung einer Website für bestimmte Suchbegriffe innerhalb der Suchergebnisse, weisen Experten doch darauf hin, dass mehr als die Hälfte aller Benutzer die ersten drei Ergebnisse einer Suchanfrage anklicken und die Klickraten für alle nachfolgenden Ergebnisse rapide abnehmen [Beu07]. Diese Arbeit beschäftigt sich mit Suchmaschinenoptimierung (kurz: SEO), deren Ziel es ist, Websites für eine bestmögliche Platzierung innerhalb der Suchergebnisse, auch Ranking genannt, zu optimieren. 1.1 Problemstellung Das Thema Suchmaschinenoptimierung ist sehr komplex und vielschichtig und besteht aus den beiden Bereichen Onpage- und Offpage-Optimierung. Während die Onpage-Optimierung, welche Änderungen auf der jeweiligen Website an sich beschreibt, in einschlägiger Literatur bereits sehr gut behandelt wird, steht im Vergleich dazu der Bereich der Offpage-Optimierung, welche vornehmlich den Linkaufbau einer Website bezeichnet, eher im Hintergrund, obwohl dieser einen maßgeblichen Einfluss auf das Ranking einer Website hat. Zusätzlich werden nur wenige Optimierungsmaßnahmen von offizieller Seite der Suchmaschinen-Betreiber bekannt gegeben, so dass viele Informationen auf Spekulationen zurückzuführen sind. 1

11 1. Einleitung Zielsetzung Das Ziel dieser Arbeit soll insbesondere die Vorstellung von erfolgversprechenden Strategien zur Offpage-Suchmaschinenoptimierung sein sowie der Aufbau und die Durchführung eines Versuchsaufbaus zur empirischen Evaluierung des tatsächlichen Einflusses ausgewählter Ranking-Kriterien aus dem genannten Bereich. In der Literatur und im Internet publizierte Informationen zur Wirkungsweise diverser Maßnahmen der Offpage-Optimierung sollen auf diese Weise mittels Reverse Engineering 1 untersucht werden. 1.3 Aufbau dieser Arbeit Basis dieser Arbeit bildet die Vorstellung der Ranking-Algorithmen populärer Suchmaschinen am Beispiel des Marktführers Google sowie alternativer Ranking-Systeme. Darauf aufbauend sollen Grundlagen der Suchmaschinenoptimierung vermittelt sowie das oft vernachlässigte Thema der Optimierung für die Google-Bildsuche beschrieben werden, welche zunehmend an Bedeutung gewinnt. Den Hauptteil dieser Arbeit bildet die theoretische Vorstellung erfolgversprechender Strategien zur Offpage-Suchmaschinenoptimierung sowie die Dokumentation des praktischen Versuchsaufbaus sowie dessen Auswertung. Im Anschluss soll kurz der technische Hintergrund diverser Analyse-Verfahren erklärt als auch eine Schlussbemerkung samt Ausblick abgegeben werden. 1.4 Vergleichbare Arbeiten Im Zuge der Recherche zu dieser Arbeit konnten keine vergleichbaren Arbeiten, welche die empirische Evaluierung des Einflusses von Ranking-Kriterien aus dem Bereich der Offpage-Optimierung untersuchen, gefunden werden. Einzig der Abschlussbericht von Christoph Neuberger und Stefan Karzauninkat zum Test der Effektivität von Optimierungsverfahren zur externen Manipulation von Suchmaschinen [NK03] aus dem Jahr 2003 beinhaltet einen ähnlichen Versuchsaufbau, welcher sich jedoch in erster Linie auf die Auswirkungen von unterschiedlichen Spam-Methoden bei verschiedenen Suchmaschinen konzentriert. 1.5 Suchmaschinennutzung Die drei großen Suchmaschinen Google, Yahoo! und Live Search (Bing) decken einen Großteil der weltweiten Suchanfragen ab, wobei sowohl Ask auf 1 Reverse Engineering bezeichnet den Vorgang, aus einem bestehenden System durch Untersuchung von Strukturen und Verhaltensweisen dessen Konstruktionselemente zu extrahieren (http://de.wikipedia.org/wiki/reverse Engineering).

12 1. Einleitung 3 dem amerikanischen als auch Baidu auf dem chinesischen Markt eine Rolle spielen. Wie aktuelle Erhebungen von comscore [com09a] [com09b] belegen ist jedoch Google mit einer Nutzung von 64% in den U.S.A. (Stand: April 2009) sowie einer Nutzung von 80% in Deutschland (Stand: Juli 2008) unangefochtener Marktführer. Diese Arbeit und insbesondere die vorgestellten Strategien zur Offpage-Suchmaschinenoptimierung und der praktische Versuchsaufbau beschränken sich demzufolge auf die Google-Suche und Google- Bildsuche.

13 Kapitel 2 Ranking-Algorithmen Die wichtigste Komponente einer jeden Suchmaschine ist neben dem Index, in dem alle erfassten Websites gespeichert sind, der Ranking-Algorithmus. Dieser entscheidet über die Relevanz einer Website für eine bestimmte Suchanfrage und bestimmt, ob und an welcher Position die indexierte Seite auf der Suchergebnis-Seite, auch als Ranking bezeichnet, zu finden ist. Nachfolgend möchte ich insbesondere auf den Ranking-Algorithmus von Google, der in vielen Bereichen auch von den anderen beiden großen Suchmaschinen Live Search (bzw. seit Juni 2009 Bing) und Yahoo! in dieser Weise verwendet wird, eingehen als auch alternative Ansätze zur Ranking-Erstellung vorstellen. Bei der Betrachtung der unterschiedlichen Ranking-Algorithmen werden desweiteren Onpage-Faktoren wie URL- oder Website-Titel, Keyword- Dichte, interne Verlinkung etc. außen vor gelassen. Diese werden in Kapitel 3 erörtert. 2.1 Der Ranking-Algorithmus von Google Der ursprüngliche Ranking-Algorithmus von Google wurde von den beiden Stanford-Studenten Sergey Brin und Lawrence Page 1998 entwickelt und geht auch mit der Gründung von Google im selben Jahr einher. Erstmals beschrieben sie diesen in der Veröffentlichung The Anatomy of a Large- Scale Hypertextual Web Search Engine. Seit damals wurde der Algorithmus stetig angepasst, basiert in seinen Grundzügen jedoch immer noch auf den selben Konzepten wie Das PageRank-Konzept Das PageRank-Konzept basiert auf der Idee eines sogenannten Random Surfers, welcher sich von einer Seite zur nächsten bewegt und auf einen beliebigen Link auf diesen Seiten klickt unabhängig von dessen Text, Gestaltung oder Ziel. In die Berechnung des PageRank einer Website fließen 4

14 2. Ranking-Algorithmen 5 somit alle ausgehenden Links (also auch die Website-interne Verlinkung) mit ein. Mit einer gewissen Wahrscheinlichkeit (vertreten durch den Dämpfungsfaktor d; dazu später mehr) verfolgt der Random Surfer willkürlich die Links im World Wide Web, ruft jedoch von Zeit zu Zeit auch eine beliebige andere Website auf. Aus einem anderen Blickwinkel betrachtet entspricht der Google Page- Rank einer Empfehlung für eine Website. Je mehr eingehende Links eine Website besitzt, um so mehr Empfehlungen werden für diese im übertragenen Sinn ausgesprochen. Dabei ist jedoch nicht nur die reine Anzahl an Empfehlungen von Bedeutung; ebenso wichtig sind deren Urheber. Um wieder zu Websites zurück zu kehren: Der Link einer bedeutenden Website, welche selbst einen hohen PageRank besitzt, ist wesentlich mehr wert bzw. gibt mehr PageRank weiter, als der Link einer kleinen Website, welche einen geringen PageRank hat. Die Berechnung des PageRank einer Website erfolgt durch folgende Formel [BP98]: P R(A) = (1 d) + d P R(N) C(N) (2.1) PR(A) stellt hierbei die Website dar, für welche der PageRank berechnet werden soll, PR(N) sind wiederum die PageRank-Werte der Websites, welche auf Website A verlinken. Dividiert werden diese durch die Anzahl der ausgehenden Links C(N) pro Website. Die Variable d bezeichnet einen Dämpfungsfaktor, welcher zwischen 0 und 1 liegen kann, üblicherweise jedoch mit 0,85 angenommen wird und die Wahrscheinlichkeit definiert, mit welcher der Random Surfer die Links auf den Websites weiterverfolgt. Je kleiner der Dämpfungsfaktor, umso größer ist wiederum die Wahrscheinlichkeit, dass nicht die Links weiterverfolgt, sondern eine komplett neue Website aufgerufen wird [BP98]. Berechnet wird der PageRank für alle indexierten Dokumente im Google- Index durch einen iterativen, nicht rekursiven, Algorithmus, welcher als Startwert für alle Websites einen PageRank von 1 annimmt und in mehreren Iterationsschritten die PageRank-Werte für alle Websites möglichst genau annähert. Die Anzeige des PageRank in der Google Toolbar für Internet Explorer und Mozilla Firefox sowie im Google Verzeichnis 1 erfolgt mit Werten zwischen 0 (Minimum) und 10 (Maximum), wobei es sich hier um logarithmisch skalierte Werte des tatsächlichen PageRank aus oben dargestellter Formel handelt [Sob03]. 1

15 2. Ranking-Algorithmen 6 Das in Abbildung 2.1 von Sebastian Erlhofer [Erl06] beschriebene Beispiel soll die Berechnung des PageRank in einem Beispielweb mit drei Websites demonstrieren: Abbildung 2.1: Die Ausgangssituation vor der ersten Iteration; nachgezeichnet aus [Erl06]. Für noch nicht berechnete Dokumente wird ein Startwert von 1 für den PageRank vergeben. Daraus ergibt sich nach oben dargestellter Formel und einem Dämpfungsfaktor d von 0.85 folgende Berechnung im ersten Iterationsschritt: P R(A) = (1 0.85) ( 1 1 ) = 1 (2.2) Der soeben berechnete vorläufige Wert für die Seite A wird für die Berechnung der Werte für die Seiten B, C und D benutzt: P R(B) = (1 0.85) ( 1 ) = (2.3) P R(C) = (1 0.85) ( ) = (2.4) P R(D) = (1 0.85) = 0.15 (2.5)

16 2. Ranking-Algorithmen 7 In den weiteren Iterationsschritten werden die in einem Schritt zuvor berechneten Werte eingesetzt, so dass sich nach etwa 20 Schritten das in Abbildung 2.2 dargestellte Ergebnis ergibt: Abbildung 2.2: Das Ergebnis der PageRank-Berechnung nach etwa 20 Iterationen; nachgezeichnet aus [Erl06]. Wie aus der Grafik ersichtlich besitzt Seite C mit den meisten eingehenden Links den höchsten PageRank, gefolgt von Seite A, die wiederum PageRank von Seite C zurück bekommt. Der Wert von Seite D verändert sich da keine eingehenden Links vorhanden sind nicht und bleibt auf dem Minimum von Link-, Domain- und IP-Popularität Die Link-Popularität kann als zugrunde liegende Idee hinter dem PageRank- Algorithmus von Google gesehen werden. Sebastian Erlhofer beschreibt diese in [Erl06] so: Link-Popularität bezeichnet die Anzahl und Qualität der eingehenden Links auf eine Seite und wird als Einschätzung von anderen Webautoren im Sinne einer objektiven Empfehlung angesehen. Der bekannteste Algorithmus zur Berechnung der Link-Popularität stammt von Google (PageRank). Das Gewicht einer Empfehlung über die Link-Popularität ist umso größer, je höher die Popularität der verweisenden Seite und je größer die thematische Nähe ist. Die reine Link-Popularität an sich berechnet sich dabei aus der Summe aller eingehenden Links auf eine Website auch von mehreren eingehenden

17 2. Ranking-Algorithmen 8 Links, welche von ein und der selben Website stammen. In der Praxis bedeutender ist jedoch die Domain-Popularität, welche alle eingehenden Links auf eine Website nicht einzeln, sondern nach Domains gruppiert, wertet. Viele eingehende Links von der gleichen Domain haben dementsprechend kaum einen Vorteil gegenüber einem oder nur wenigen eingehenden Links von der gleichen Domain, da nicht die Anzahl der unterschiedlichen Links, sondern die Anzahl der unterschiedlichen Domains, berücksichtigt wird [Beu07]. Den gleichen Ansatz verfolgt die sogenannte IP-Popularität, welche analog zur Link- und Domain-Popularität Links nur pro IP-Adresse in die Bewertung miteinbezieht [Beu07]. Der Einsatz der IP-Popularität innerhalb des Google Ranking-Algorithmus ist zwar zum aktuellen Zeitpunkt unumstritten, im Gegensatz zu den anderen beiden Verfahren jedoch hinsichtlich der Relevanz nicht eindeutig geklärt. Der praktische Teil dieser Diplomarbeit ab Kapitel 5 wird sich u. a. näher mit dem Thema IP-Popularität befassen Themenrelevanz Ein nicht zu unterschätzender Faktor im Ranking-Algorithmus ist die Themenrelevanz eingehender und auch ausgehender Links. Bis heute gibt es keine konkreten Informationen von Google, in wie weit dieser Faktor das Ranking beeinflusst, jedoch ist davon auszugehen, dass der ursprünglich von Sergey Brin und Lawrence Page beschriebene Algorithmus von Google inzwischen weiterentwickelt wurde und auch die Themenrelevanz Einfluss auf das Gewicht eines Links hat. Gefestigt wird diese Annahme durch die Publikation Topic-Sensitive PageRank von Taher H. Haveliwala [Hav02], welcher seit einigen Jahren für Google arbeitet Link-Texte Eine Erweiterung der Link-Popularität bzw. des PageRank-Konzeptes stellt die Berücksichtigung von Link-Texten (engl. anchor texts) dar. Beim Link- Text handelt es sich um den Text, welcher mit dem Link auf die jeweilige Website verknüpft ist. Dieser Faktor hat eine große Bedeutung für das Ranking, wie auch schon in der ersten Veröffentlichung der beiden Google Gründer [BP98] erwähnt wird. Der Link-Text wird dabei als Beschreibung des Inhalts einer Website betrachtet und beeinflusst auf diese Weise die Position für verschiedene Keywords innerhalb der Suchergebnisse. Wird eine Website z. B. genügend oft mit dem Link-Text Gartenbau Mühlviertel verlinkt, assoziiert Google diese Keyword-Kombination mit dem Inhalt der Website, was eine bessere Position für diesen Suchbegriff für die betroffene Website zur Folge hat. Wie gut diese Eigenschaft des Google Ranking-Algorithmus funktioniert bzw. zur Offpage-Optimierung von Websites beiträgt wird anhand folgenden Negativ-Beispiels deutlich: Im Jahr 2003 setzten tausende Gegner des

18 2. Ranking-Algorithmen 9 damaligen US-Präsidenten George W. Bush einen Link auf dessen offizielle Website mit dem Link-Text miserable failure (jämmerlicher Versager). Nur wenige Zeit später war die Website des Präsidenten auf der ersten Position in den Google Suchergebnissen für diesen Suchbegriff zu finden. Diese Art der Manipulation der Link-Popularität bzw. der Suchergebnisse ist seit dem als Google Bombing bekannt [Erl06] Das Hilltop-Prinzip Das Hilltop-Prinzip bzw. der Hilltop-Algorithmus wurde im Jahr 2000 von Krishna Bharat (einem heutigen Google-Mitarbeiter) und George A. Mihaila beschrieben. Dabei werden Websites als Experten bzw. Autoritäten für bestimmte Themenbereiche definiert, was zur Folge hat, dass ausgehende Links von diesen ganz oben auf der Bergspitze (engl. hilltop) stehenden Websites für eine themenrelevante Website deutlich mehr Gewicht haben als andere Links. Die Art und Weise, wie diese Autoritäten für einzelne Suchbegriffe vergeben werden, ist unklar, jedoch ist eine Kombination verschiedener Faktoren wie die manuelle Vergabe des Status, eine Eintragung im Open Directory (einem von Google angesehen Webkatalog), die Höhe des PageRank und weitere Ranking-Faktoren am wahrscheinlichsten [Erl06]. Abbildung 2.3: Die Experten-Seite samt Sitelinks als Beispiel für das Hilltop-Prinzip. Sebastian Erlhofer erwähnt in seinem Buch Suchmaschinenoptimierung für Webentwickler [Erl06] zudem, dass Hilltop-Seiten durch sogenannte Sitelinks (zusätzliche Links unterhalb eines meist ganz oben positionierten Suchergebnisses) gekennzeichnet sind. Der in Abbildung 2.3 dargestellte Screenshot zeigt eine solche Experten-Website samt Sitelinks auf einer Suchergebnis-Seite Personalisierte Rankings: SearchWiki Einen sehr neuen Bestandteil des Google Ranking-Algorithmus stellen die personalisierten Rankings, von Google SearchWiki genannt, dar. Das Search- Wiki (siehe Abbildung 2.4) wurde auf google.com im November 2008 und auf

19 2. Ranking-Algorithmen 10 google.de im April 2009 eingeführt und ermöglicht eingeloggten Benutzern mit einem Google-Account, Websites auf jeder Suchergebnis-Seite in ihrer Reihenfolge zu verschieben und zu löschen, um auf diese Weise eine persönliche Anpassung des Rankings hinsichtlich der Relevanz zum gesuchten Begriff vorzunehmen. Google betont jedoch ausdrücklich, dass die vorgenommen Änderungen nur Einfluss auf die persönlichen Suchergebnisse haben und nicht in das Ranking für andere Benutzer einfließen [Goo09d]. Zusätzlich haben Benutzer durch SearchWiki jedoch auch die Möglichkeit, Kommentare zu einzelnen Websites innerhalb der Suchergebnisse abzugeben, welche auch für andere Benutzer sichtbar sind. Zudem stellt sich die Frage, ob und inwieweit Google die über SearchWiki generierten Daten mittelfristig als einen generellen für alle Benutzer gültigen Ranking-Faktor verwenden wird. Abbildung 2.4: Das Google SearchWiki-System im Einsatz. 2.2 Alternative Ranking-Systeme Ask (Teoma) Ask.com verwendet seit dem Jahr 2001 die Suchtechnologie von Teoma (gälisch Experte ), welche kurze Zeit zuvor von einem kleinen Team an der Rutgers Universität in New Jersey entwickelt wurde und auf dem Prinzip der themenspezifischen Popularität beruht. Bei diesem von Ask.com als ExpertRank bezeichneten Ranking-Algorithmus werden Themen, auch Cluster genannt, identifiziert und für jedes Thema Experten-Websites definiert, deren ausgehende Links als besonders aussagekräftig gelten. Darüber hinaus verwendet die Ask.com Suchtechnologie das Verfahren der Klick-Popularität, welches von der 1999 übernommenen Firma Direct Hit entwickelt wurde und die Anzahl der tatsächlichen Klicks auf die einzelnen Suchergebnisse in das Ranking mit einberechnet [Ask09]. Teoma wurde 2006 vollständig in Ask.com überführt und existiert seitdem nicht mehr als eigenständige Suchmaschine.

20 2. Ranking-Algorithmen Wikia Search Bei Wikia Search handelte es sich um eine im Januar 2008 erstmals online verfügbare Suchmaschine, welche vom Wikipedia Gründer Jimmy Wales entwickelt wurde, bei der es sich anders als bei Wikipedia jedoch um ein kommerzielles Projekt handelte. Während der Dokumenten-Index von Wikia Search zu Beginn von der Open-Source-Suchmaschine Nutch stammte, wurde die Index-Quelle aufgrund der weit größeren Aktualität später auf Yahoo umgestellt [Lew09]. Die Yahoo-Suchergebnisse wurden bei Wikia Search jedoch um drei wesentliche Bestandteile, die dem Community-Gedanken der Suchmaschine entstammen, erweitert: So war zum einen eine direkte Bewertung der einzelnen Suchergebnisse durch Benutzer möglich, zum anderen konnten Benutzer analog zu Wikipedia Mini-Artikel zu einzelnen Websites schreiben. Wie Dirk Lewandowski von der Online-Zeitschrift Password beschreibt bot Wikia Search zudem die Möglichkeit einer Personensuche, um Experten zu einem bestimmten Thema ausfindig zu machen [Lew08]. Legte Wikia Search zu Beginn im Gegensatz zu Konkurrenten wie Google, Yahoo! oder Live Search (bzw. Bing) noch höchsten Wert auf die Transparenz der Suchergebnisse, in dem die Berechnung eines jeden Rankings angezeigt werden konnte (siehe [Lew08]), war dies mit der Verwendung des Yahoo-Index nicht mehr möglich. Im April 2009, etwas mehr als ein Jahr nach dem Start von Wikia Search, kündigte Jimmy Wales bereits das Ende der neuen Suchmaschine an [Fri09]. Als Gründe hierfür nannte er u. a. den geringen kommerziellen Erfolg von Wikia Search, welcher wohl auch durch die mangelnde Qualität der Suchergebnisse, wie bereits in Ausgabe 03/2009 von Password bemerkt [Lew09], begründet war Wolfram Alpha Wolfram Alpha 2 nennt sich das neuste Projekt der US-Amerikanischen Firma Wolfram Research Inc., welches im Mai 2009 offiziell gestartet wurde. Dabei handelt es sich weniger um eine Such- als um eine Antwortmaschine, die in der Lage sein soll, anhand mathematischer Berechnungen und Algorithmen zur Spracherkennung Antworten auf beliebig formulierte Fragen basierend auf gesicherten Informationsquellen im Internet (d.h. nicht jeder beliebigen Website) liefern zu können. In direkter Konkurrenz zu Google steht Wolfram Alpha somit nicht. Stephen Wolfram, der Entwickler von Wolfram Alpha, erklärt in seinem Blog den grundlegenden Unterschied zu derzeit gebräuchlichen Suchmaschinen im Web dadurch, dass nicht nur bereits vorhandene Inhalte durchsucht, sondern Antworten auf komplexe Fragen berechnet werden können [Wol09]. Mit einer klassischen Suchmaschine kann Wolfram Alpha nicht verglichen werden; so werden z. B. bei der Suche nach New York keine Websites angezeigt, die sich mit der Stadt beschäf- 2

21 2. Ranking-Algorithmen 12 tigen, sondern eine Reihe von zusammengestellten Fakten wie die Bevölkerungszahl oder die geographische Position ausgegeben. Zusammenfassend kann gesagt werden, dass Wolfram Alpha einen sehr interessanten neuen Ansatz verfolgt, Wissen im Internet zugänglich zu machen. Die Zukunft wird zeigen, wie sich diese Antwortmaschine entwickelt und ob Wolfram Alpha (siehe Abbildung 2.5) zu einer Ergänzung zu klassischen Suchmaschinen wird. Abbildung 2.5: Eine Suche auf Wolfram Alpha Bing Seit Juni 2009 ersetzt Microsofts neue Suchmaschine Bing 3 die bisherige Live Search des Unternehmens. Microsoft verwendet dabei den Begriff der Entscheidungsmaschine und will damit hervorheben, dass Bing nach eigenen Angaben [Mic09] bessere Ergebnisse in einer übersichtlicheren Form als bisher liefert und somit den Entscheidungsprozess des Benutzers deutlich erleichtert. Objektiv betrachtet unterscheiden sich die Suchergebnisse kaum von denen der bisherigen Live Search, allerdings wurde deren Präsentation teilwei- 3

22 2. Ranking-Algorithmen 13 se verbessert. Zusätzlich werden die Suchergebnisse je nach Anfrage durch erweiterte Funktionen wie z. B. die Integration der Ciao! Produktsuche ergänzt. Es bleibt abzuwarten, ob Microsoft in Zukunft mit Bing (siehe Abbildung 2.6) Marktführer Google Konkurrenz machen kann. Abbildung 2.6: Microsofts neue Suchmaschine Bing.

23 Kapitel 3 Grundlagen der Suchmaschinenoptimierung 3.1 Onpage-Optimierung Begriffserklärung Das Ziel der Suchmaschinenoptimierung einer Website wurde bereits in der Einleitung dieser Arbeit erläutert. Die Optimierung wird dabei in zwei Bereiche, Onpage-Optimierung und Offpage-Optimierung, unterteilt. Wie der Name bereits vermuten lässt handelt es sich bei der Onpage-Optimierung um alle Maßnahmen, welche direkt auf der zu optimierenden Website getroffen werden können. Bei der Erstellung eines neuen Webprojektes sollte darauf geachtet werden, dass zuerst die Website selbst (Onpage) optimiert wird, bevor man sich der weiteren Suchmaschinenoptimierung (Offpage) widmet. Eine Onpage-Optimierung ist in der Regel auch deutlich Zeit- und Ressourcenschonender durchzuführen Allgemeiner Website-Aufbau Am Anfang steht der allgemeine Aufbau der Website. Hierbei sind in Hinblick auf die Suchmaschinenoptimierung mehrere Punkte zu beachten. So ist es von Vorteil zu wissen, dass die Crawler der Suchmaschinen den Inhalt einer Seite vom HTML-Code trennen müssen, um diesen korrekt erfassen und indexieren zu können. Um dem Crawler diese Trennung möglichst leicht zu machen erscheint es logisch, bei der Umsetzung der Website darauf zu achten, dass diese unter Verwendung von XHTML und CSS realisiert wurde, da auf diese Weise der Inhalt einer Seite so weit wie möglich von dessen Gestaltung (ausgelagert in die CSS) getrennt werden kann. Darüber hinaus sollte der HTML-Code der Website weitestgehend valide, d.h. syntaktisch korrekt, sein. In einem der schlimmsten Fälle wäre z. B. der Titel einer Seite wie später noch beschrieben wird ein sehr wichtiges Kriterium durch 14

24 3. Grundlagen der Suchmaschinenoptimierung 15 die Suchmaschine nicht auslesbar, wenn der Title-Tag (<title>...</title>) falsch verwendet wird. Überprüft werden kann die Validität einer Seite u. a. mit Hilfe des W3C Validators 1. Auf die Verwendung von Frames sollte wenn schon nicht aus Usability- Gründen auch im Sinne der Suchmaschinenoptimierung verzichtet werden, da Frame-Seiten wie von Sebastian Erlhofer beschrieben [Erl06] von Google (und wahrscheinlich auch anderen Suchmaschinen) mitunter nicht korrekt erfasst werden können. Als Konsequenz des in Kapitel 2 beschrieben Ranking-Algorithmus von Google beinhaltet ein suchmaschinenfreundlicher Website-Aufbau zudem eine durchdachte interne Linkstruktur; jede Unterseite sollte auf die Startseite (z. B. durch ein verlinktes Website-Logo [Erl06]) verweisen, zu optimierende Unterseiten sollten von allen anderen Seiten aus gut über im besten Fall Text- anstelle von Grafiklinks miteinander verknüpft sein Die URL: Domainname, Verzeichnisstruktur und Dateinamen Die URL stellt einen der wohl wichtigsten Onpage-Ranking-Faktoren dar, weshalb ihr besondere Beachtung geschenkt werden sollte. Sofern möglich ist es von Vorteil, im Domainnamen bereits die Keywords zu verwenden, für welche die Website optimiert werden soll. Soll z. B. auf Scifi Bücher optimiert werden, wäre die Domain am besten geeignet. Es wird von einer sogenannten Keyword-Domain gesprochen. Dieses Prinzip sollte auch bei der Verzeichnisstruktur einer Website und den verwendeten Dateinamen angewendet werden, um möglichst viele aussagekräftige Keywords für die entsprechenden Unterseiten in der URL unter zu bringen. Handelt es sich bei dem zu optimierenden Projekt um eine Website mit dynamisch generierten Inhalten können z. B. die PHP-Dateien mit Hilfe des Apache-Moduls mod rewrite derart umgeschrieben werden, dass auch diese unter einer sprechenden URL, z. B. wolken-fotos-1.html anstatt category.php?id=1, erreichbar sind. Generell muss in der URL auf die korrekte Trennung der Keywords geachtet werden. Werden zwei oder mehrere Keywords zusammen geschrieben, können diese in der Regel von Suchmaschinen nicht mehr auseinander gehalten werden, so dass für die Suchmaschine aus den beiden Wörtern scifi und buecher das Wort scifibuecher wird. Das gleiche gilt für den beliebten Unterstrich, welcher eine Verbindung zwischen Wörtern signalisiert. Da Leerzeichen in URLs nicht möglich sind ist einzig und allein der Bindestrich zur korrekten Trennung von (Schlüssel-)Wörtern geeignet [Erl06]. 1

25 3. Grundlagen der Suchmaschinenoptimierung Title-Tag Neben einer sprechenden und in Bezug auf die Keywords relevanten URL sollte vor allem der Title-Tag einer Seite beachtet werden. Dieser dient nicht nur dem Benutzer als Auskunft über den Inhalt einer Seite sondern auch den Suchmaschinen. Aus diesem Grund gilt hier das gleiche wie bei der URL: Der Titel einer Seite sollte deren Inhalt beschreiben und die Keywords für die entsprechende Seite enthalten. Es gilt jedoch nicht das Prinzip je länger desto besser, da der Title-Tag von Suchmaschinen nur bis zu einer Länge von 250 Zeichen indexiert wird. Darüber hinaus berücksichtigt Google auch die relative Nähe zweier Wörter zueinander [Erl06]. Unterschiedliche Seiten sollten zudem unterschiedliche Website-Titel haben, um von Suchmaschinen nicht als ein und die selbe Seite angesehen zu werden. Sebastian Erlhofer erwähnt jedoch auch zurecht in seinem Buch Suchmaschinenoptimierung für Webentwickler [Erl06], dass der am besten für Suchmaschinen optimierte Website-Titel sinnlos ist, wenn dieser einen potentiellen Besucher, welcher den Titel in den Suchergebnissen angezeigt bekommt, nicht anspricht und zum darauf Klicken veranlasst. Wie oft in der Suchmaschinenoptimierung ist an dieser Stelle die richtige Mischung gefragt Meta-Tags Waren Meta-Tags zu Zeiten von AltaVista noch eines der wichtigsten Kriterien zur Optimierung einer Website für Suchmaschinen hat sich dies seit der Entwicklung moderner Suchmaschinen wie Google, Yahoo! oder Live Search (bzw. Bing) grundlegend geändert. Meta-Tags haben zwar keinen Einfluss mehr auf die Ranking-Algorithmen, machen teilweise aber dennoch Sinn, um z. B. die verwendete Sprache, den Content-Type oder die Kurzbeschreibung einer Seite anzugeben. Der Tag <meta name= description content= > zur Angabe einer Beschreibung ist dabei besonders interessant, da der dort angegebene Text von einigen Suchmaschinen wie z. B. Google sofern vorhanden unter dem Website-Titel in den Suchergebnissen angezeigt wird [Erl06]. Auf diese Weise ist es mit einer interessanten Beschreibung möglich, das Klickverhalten potentieller Besucher positiv zu beeinflussen Inhalt und Keyword-Dichte Es ist kaum verwunderlich, dass der Inhalt einer Website von modernen Suchmaschinen zur Beurteilung der Relevanz für eine bestimmte Suchanfrage in besonderem Ausmaß heran gezogen wird. Die Bezeichnung Inhalt steht hierbei für reinen Text, da Grafiken (abgesehen von deren Alternativtexten) nicht zur Inhaltsbestimmung benutzt werden. Neben einer ausreichenden Textlänge von mindestens mehreren hundert Wörtern ist beim Inhalt vor allem auf die Keyword-Dichte für die zu opti-

26 3. Grundlagen der Suchmaschinenoptimierung 17 mierenden Keywords zu achten. Die Keyword-Dichte bezeichnet dabei den prozentualen Anteil eines Wortes am Gesamtinhalt und sollte wie von Sebastian Erlhofer beschrieben [Erl06] für die Schlüsselwörter zwischen fünf und sieben Prozent liegen Überschriften und Textauszeichnungen Überschriften und logische (z. B. <strong> oder <emph>) sowie physische (z. B. <b> oder <i>) Textauszeichnungen in HTML wurden eingeführt, um eine bessere Strukturierung des Website-Inhalts zu ermöglichen und wichtige Textpassagen hervorzuheben. Diesen Grundgedanken machen sich auch Suchmaschinen zu Nutze und gewichten Text aus Überschriften oder durch Textauszeichnungen hervorgehobenen Text mehr als normalen Fließtext. Die Verwendung von Überschriften und Textauszeichnungen in einem normalen Ausmaß gehört demzufolge zu einer erfolgreichen Onpage-Optimierung. Inwieweit Text innerhalb dieser Elemente mehr gewichtet wird ist jedoch offiziell nicht angegeben Links und Link-Texte Wie in Kapitel 2 beschrieben messen Google und die anderen großen Suchmaschinen in ihren Ranking-Algorithmen Links eine große Bedeutung zu. Davon abgesehen, dass nur durch eine durchdachte Linkstruktur die Indexierung aller Seiten einer Website ermöglicht wird, ist es mit internen Links zudem möglich, auch den Fluss des Linkjuice 2 zu steuern. Hierzu wird das erst seit wenigen Jahren existente Attribut rel= nofollow verwendet, das die Weitergabe von Link-Popularität verhindert. Auf diese Weise können z. B. für das Ranking irrelevante Seiten wie das Impressum einer Website von der Weitergabe des Linkjuice ausgeschlossen werden, wodurch für das Ranking wichtige Seiten mehr Link-Popularität behalten. Zusätzlich sollte auch bei internen Links auf einen Keyword-optimierten Link-Text geachtet werden Bilder Da der Inhalt von Bildern derzeit von Suchmaschinen nur sehr begrenzt erfasst werden kann ist es wichtig, diese mit einem aussagekräftigen Alternativtext und Titeltext, realisiert über die beiden Attribute alt= und title=, zu versehen. Auch bei Bildern sollte zudem auf einen optimierten Dateinamen, bei dem einzelne Wörter durch Bindestriche getrennt sind, geachtet werden. Die Onpage- als auch Offpage-Optimierung von Bildern wird in Kapitel 4 detailliert beschrieben. 2 Als Linkjuice wird die Link-Popularität einer Seite bezeichnet, welche durch eingehende Links entsteht und ausgehende Links wieder abfliesst.

27 3. Grundlagen der Suchmaschinenoptimierung Offpage-Optimierung Begriffserklärung Im Gegensatz zur Onpage-Optimierung unterliegt die Offpage-Optimierung Faktoren, die nicht direkt auf der betroffenen Website zu finden sind. Dies ist der Aufbau eingehender Links von anderen Websites. Es kann gesagt werden, dass eine Website ohne explizite Onpage-Optimierung dennoch auch zu umkämpften Keywords eine gute Position im Ranking erreichen kann, sofern die Offpage-Optimierung dementsprechend gut ist. Umgekehrt ist dies nicht der Fall die beste Optimierung von Onpage-Faktoren hat bei populären Keywords keinen Erfolg ohne den Aufbau einer hinreichenden Struktur an eingehenden Links. Jedoch ist der Aufwand einer guten Offpage-Optimierung um ein vielfaches höher Bestandteile der Offpage-Optimierung Wie bereits erwähnt handelt es sich bei der Offpage-Optimierung von Websites um den Aufbau eingehender Links von anderen Seiten. Welchen Faktoren der erfolgreiche Aufbau einer Linkstruktur unterliegt ist der Hauptteil dieser Arbeit und wird in Kapitel 5 theoretisch besprochen. 3.3 Spam Unter Spam werden in Zusammenhang mit der Suchmaschinenoptimierung von Websites alle Methoden verstanden, welche das Ranking einer Website unnatürlich verbessern also im Grunde viele Elemente der Optimierung der Website an sich. Dazu gehören z. B. das Keyword-Stuffing 3, versteckte Links oder Cloaking 4. 3 Unter Keyword-Stuffing wird die unnatürlich häufige Verwendung von Keywords verstanden, um das Ranking einer Website für diese Wörter zu optimieren. [Erl06] 4 Cloaking bezeichnet das Verstecken von für Suchmaschinen optimierten Website- Elementen vor Besuchern der Website und umgekehrt. [Erl06]

28 Kapitel 4 Optimierung für die Google-Bildsuche 4.1 Allgemeines Die Google-Bildsuche stellt neben der klassischen Websuche wohl die bedeutendste Form der Google-Suche dar. Eingeführt im Dezember enthält der Index der Bildsuche mittlerweile laut eigenen Angaben mehr als 880 Millionen Bilder [Goo09c] unterschiedlichster Art, Herkunft und Größe. Dabei ist die Bedeutung der Google-Bildsuche heute sowohl auf das Suchverhalten der Benutzer als auch analog auf die indexierten Websites sehr groß und weiter steigend. So ist ein Besucheranteil von über 50%, welcher direkt über die Google-Bildsuche zugreift, bei bildlastigen Websites keine Seltenheit 2. Ein derartiges Potential sollte wie es auf vielen Websites noch der Fall ist nicht ungenutzt bleiben, jedoch sind detaillierte Informationen über die Funktionsweise der Google-Bildsuche und Optimierungsmöglichkeiten im Vergleich zu anderen Bereichen der Suchmaschinenoptimierung wenig bekannt. Der nachfolgende Exkurs dieser Diplomarbeit soll demnach relevante Informationen zu diesem unverzichtbaren Bereich der Suchmaschinenoptimierung bereit stellen. 1 Image Search 2 Der angegebene Prozentsatz wurde durch die Erfahrungen mehrjähriger Besucheranalysen mit Google-Analytics auf den Websites und ermittelt. 19

29 4. Optimierung für die Google-Bildsuche 20 Abbildung 4.1: Eine Ergebnisseite der Google-Bildsuche mit ausgewählter Kategorie und aktivem Farbfilter. 4.2 Funktionsweise der Indexierung Die Funktionsweise der Google-Bildsuche (siehe Abbildung 4.1) entspricht in ihren Grundzügen der klassischen Websuche. Wie der Google-Mitarbeiter Peter Linsley in einem Video im Rahmen der SMX West 3 im Februar 2009 erklärte [Lin09] erkennt der Google-Crawler Inline-Bilder (als Bestandteil des Inhalts einer Website) oder Bilder, auf die direkt per Link verwiesen wird, bereits in der Websuche indexierter Seiten. Gefundene Bilder werden klassifiziert und je nach Größe und Art (Fotografie, Gesichter, gezeichnete Bilder, schwarz-weiß, etc.) in Kategorien eingeteilt. Bevor ein Bild in den Bildsuche-Index aufgenommen wird, müssen desweiteren mögliche Duplikate identifiziert werden, wobei hier das qualitativ beste Bild bevorzugt wird. Soweit die Theorie. Es stellt sich jedoch die Frage, wieso auf diese Weise nicht alle Bilder einer Website (was in der Tat kaum der Fall ist) indexiert werden. Ein Google-Mitarbeiter [Goo08] nennt in den offiziellen Diskussionsforen der Suchmaschine für die Indexierung eines Bildes zwei Voraussetzungen: 3 Die SMX (Search Marketing Expo) ist eine Konferenz zum Thema Suchmaschinenmarketing und wird weltweit abgehalten (http://searchmarketingexpo.com).

30 4. Optimierung für die Google-Bildsuche 21 ˆ Wie bereits oben erwähnt muss sich das Bild auf einer Seite befinden, die bereits bekannt und indexiert ist. ˆ Die Seite, auf der sich das Bild befindet, muss ein gewisses Ranking und demzufolge eine entsprechende Link-Popularität besitzen. Nur dadurch kann für Google das Vertrauen entstehen, ein Bild von der jeweiligen Seite als Ergebnis in der Bildsuche anzuzeigen. Für eine möglichst vollständige Aufnahme der Bilder einer Website in die Google-Bildsuche ist somit eine gute Verteilung der Link-Popularität innerhalb der Website notwendig. Desweiteren versucht der Crawler wie Colin Georg Müller in seinem Blog beschreibt [Mül08] zwischen Content- (nur ein mal vorhanden) und Layout-Bildern (auf jeder Unterseite vorhanden) zu unterscheiden. In Bezug auf die Dateiformate werden alle gängigen Formate für Bilder im Web (JPEG, GIF, PNG, aber auch Bitmaps) unterstützt und indexiert. Hinsichtlich der Geschwindigkeit der Indexierung gab es bis vor kurzem noch deutliche Unterschiede zwischen der Google-Bildsuche und der klassischen Websuche. Während einzelne neue Seiten mitunter innerhalb weniger Tage (oder gar Stunden) in den Index der Websuche aufgenommen werden, erfolgte ein Update der Bildsuche meist in deutlich größeren Abständen, so dass die Indexierung eines Bildes mehrere Monate dauern konnte [Miß09d]. Inzwischen nimmt jedoch auch die Google-Bildsuche kontinuierlich neue Bilder auf, wie Martin Mißfeldt beschreibt [Miß09c] und wie die Ergebnisse des Versuchsaufbaus dieser Arbeit belegen. 4.3 Ranking-Kriterien Im Gegensatz zur Websuche ist über die Ranking-Kriterien der Google- Bildsuche noch wenig bekannt. Zwar legen wie Peter Linsley erklärt [Lin09] Benutzer der Bildsuche ein anderes Verhalten an den Tag als bei der Websuche und sehen sich deutlich mehr Suchergebnisse an, was zur Folge hat, dass auch Bilder am Ende einer Ergebnisseite oder auf der zweiten Ergebnisseite relativ gute Klickraten aufweisen, jedoch bleibt das Ranking eines Bildes ein wesentlicher Erfolgsfaktor. Folgende Ranking-Kriterien der Google-Bildsuche, wie sie u. a. offiziell auf der Google-Website [Goo09c] oder in einem Beitrag eines Google- Mitarbeiters [Goo08] zu finden sind, sind bekannt: ˆ Der Dateiname eines Bildes wird beim Ranking berücksichtigt. Dieser sollte sinnvoll sein und die für das Bild relevanten Keywords enthalten. ˆ Der Alt- und Title-Tag eines Bildes ist nicht nur aus Usability- Gründen, sondern auch in Hinblick auf die Verbesserung des Rankings

31 4. Optimierung für die Google-Bildsuche 22 eines Bildes empfehlenswert. Insbesondere mit dem Alt-Tag können der Bildsuche weitere Informationen zum Bild mitgeteilt werden. ˆ Um den Inhalt eines Bildes zu bestimmen und dieses thematisch zuordnen zu können bedient sich die Bildsuche zusätzlich dem Text, der sich in direkter Umgebung des Bildes befindet. ˆ Ein wesentliches Ranking-Kriterium scheint zudem die Popularität der Seite zu sein, auf welcher das Bild eingebettet ist. Je größer die Popularität der jeweiligen Seite, desto mehr Vertrauen hat Google in die Anzeige des Bildes als Suchergebnis. 4.4 Onpage-Optimierung Analog zur Optimierung von HTML-Seiten für die klassische Websuche können auch Bilder als Bestandteil einer Website sowohl Onpage- als auf Offpage-optimiert werden. Hierzu sollen nachfolgend Methoden vorgestellt werden Dateiname Wie bereits im Zuge der Ranking-Kriterien der Google-Bildsuche erwähnt ist auch der Dateiname eines Bildes von Bedeutung. Dieser sollte sinnvoll gewählt sein und für das jeweilige Bild relevante Keywords enthalten [Goo08]. Zur Trennung von Wörtern sollte wie auch bei der Onpage-Optimierung der URL-Struktur (siehe Kapitel 3) unbedingt ein Bindestrich, auf keinen Fall ein Unterstrich (dieser verbindet zwei Wörter zu einem) [Erl06], verwendet werden Alt- und Title-Tag Die Verwendung des Alt-Tags für Bilder wird u. a. in den W3C Web Content Accessibility Guidelines [W3C99] vorgeschlagen, um ein Text-Äquivalent des Bildes für Benutzer, welche das Bild nicht anzeigen oder sehen können, bereit zu stellen. Neben dieser Verbesserung der Usability ermöglicht es der Alt- Tag jedoch auch Suchmaschinen-Crawlern, welche den Inhalt eines Bildes nicht oder nur sehr begrenzt auslesen können, Informationen zu diesem zu erhalten. Ohne die Verwendung dieses Tags wird die Indexierung eines Bildes in der Bildsuche deutlich unwahrscheinlicher [Gui08]. Der verwendete Text innerhalb des Alt-Tags sollte dabei wie in den Google Webmaster Guidelines beschrieben [Goo09g] den Inhalt des Bildes mit einigen wenigen Wörtern beschreiben. In Hinblick auf die Optimierung des Bildes für die Bildsuche bietet es sich an, in die Beschreibung die relevanten Keywords einzubauen.

32 4. Optimierung für die Google-Bildsuche 23 Aus Usability-Gründen ist desweiteren auch die Verwendung des Title- Tags, welcher Benutzern als Tooltip angezeigt wird, sobald diese den Mauszeiger über das Bild bewegen, sinnvoll. Nebenbei können so der Suchmaschine weitere Informationen zum Bild gegeben werden Umgebender Text Da auch der umgebende Text eines Bildes Einfluss auf dessen Ranking in der Bildsuche hat [Goo08] sollte dieser optimiert werden. Hierbei ist generell darauf zu achten, dass sich in unmittelbarer Nähe des Bildes (bezogen auf den Quelltext der jeweiligen Seite) ausreichend Text befindet, welcher den Inhalt des Bildes beschreibt und relevante Keywords zu diesem enthält. Neben dem Alt- und Title-Tag stellt dieser Text die einzige Möglichkeit für die Suchmaschinen-Crawler dar, den Inhalt eines Bildes zu bestimmen und dieses thematisch einzuordnen Einsatz eines Framebreakers Klickt ein Benutzer auf ein Bild innerhalb der Google-Bildsuche öffnet sich die Seite, auf der Bild eingebettet ist, innerhalb eines Frames, so dass der Benutzer jederzeit zur Bildsuche zurückkehren kann; die Verweildauer auf der jeweiligen Website und die Anzahl der Seitenaufrufe ist demnach bei Besuchern, welche über die Bildsuche auf eine Website gelangen, deutlich geringer als bei anderen über eine Suchmaschine generierten Besuchern [Miß09b]. Eine Möglichkeit dies zu ändern stellt der Einsatz eines Framebreakers dar. Bei einem Framebreaker handelt es sich um wenige Zeilen JavaScript- Code, welche vorhandene Framesets auflösen und im Falle der Google- Bildsuche das Frame der Bildsuche entfernen. Wie Untersuchungen von Martin Mißfeldt [Miß09b] belegen lässt sich dadurch die Anzahl der Seitenaufrufe eines Besuchers, der über die Bildsuche auf eine Website gelangt, deutlich steigern, da dieser ohne das Google-Frame eher dazu neigt, auf der jeweiligen Website zu verweilen. Negative Auswirkungen auf die Indexierung bzw. das Ranking konnten im mehrmonatigen Test von Martin Mißfeldt nicht festgestellt werden [Miß09a]. Das Framebreaker-Script, wie es von Martin Mißfeldt [Miß09e] verwendet wurde, kann an beliebiger Stelle im Quelltext (z. B. dem Head-Bereich) einer Website eingebaut werden und ist wie folgt aufgebaut: 1 <script language="javascript" type="text/javascript"> 2 if (top.location!= self.location) 3 { 4 top.location = self.location; 5 } 6 </script>

33 4. Optimierung für die Google-Bildsuche Offpage-Optimierung Da auch die Popularität und das Ranking einer Seite, auf der sich ein Bild befindet, zu dessen Positionierung innerhalb der Google-Bildsuche beitragen [Goo08], empfiehlt sich zusätzlich zur Onpage- auch eine Offpage- Optimierung der entsprechenden Seite auf die für das Bild relevanten Keywords. Hierzu können alle Maßnahmen zur Offpage-Optimierung wie in Kapitel 5 beschrieben verwendet werden.

34 Kapitel 5 Strategien zur Offpage-Optimierung 5.1 Allgemeines Die Offpage-Optimierung einer Website inkludiert alle Maßnahmen zur Suchmaschinenoptimierung, welche nicht direkt im Inhalt der Website vorgenommen werden. Hier ist in erster Linie der Aufbau eingehender Links zu nennen. In diesem Kapitel sollen die wichtigsten theoretischen Strategien zur Offpage-Optimierung vorgestellt und miteinander verglichen werden, bevor einige davon im nachfolgenden Kapitel in einem praktischen Versuchsaufbau evaluiert werden. 5.2 Indexierung der Website Am Anfang einer jeden Offpage-Optimierung steht die Indexierung der Website. Dies erscheint auch logisch, denn ohne Seiten, die sich im Suchmaschinen-Index befinden, ist die beste Optimierung nutzlos. Aus diesem Grund sollte versucht werden, auch bei umfangreichen Websites mit wenn möglich allen Seiten einer Webpräsenz in den Index der Suchmaschinen zu gelangen denn jede indexierte Seite könnte potentielle Besucher anziehen. Neben abwarten, bis der Crawler von selbst auf die eigene Website kommt und diese nach und nach indexiert, gibt es auch Möglichkeiten, diesen Vorgang aktiv zu beeinflussen Anmeldung bei Suchmaschinen am Beispiel Google Suchmaschinen-Crawler durchsuchen bereits indexierte Websites regelmäßig nach neuen Inhalten sowie Links zu bisher noch unbekannten Websites [Erl06]. Sollte die eigene Website noch nicht in den Suchmaschinen-Index aufgenommen worden sein, kann hier entweder ein Link von einer regelmäßig 25

35 5. Strategien zur Offpage-Optimierung 26 vom Crawler besuchten Website oder aber eine direkte Anmeldung bei der Suchmaschine Abhilfe schaffen. So bietet z. B. Google Website-Betreibern die Möglichkeit, ihre Website-URL zum Index hinzuzufügen 1. Hierbei handelt es sich zwar nicht um ein wirkliches Hinzufügen sondern vielmehr um eine Bekanntmachung bzw. einen Vorschlag (siehe Abbildung 5.1); dennoch kann die Erstindexierung einer Website dadurch mitunter je nach bereits vorhandenem Linkaufbau beschleunigt werden. Genauere Informationen hierzu finden sich im nachfolgenden Kapitel. Abbildung 5.1: Die Anmeldung einer URL bzw. Website bei Google XML-Sitemaps Neben herkömmlichen HTML-Sitemaps, die sich auf einer Website befinden und in erster Linie dem Besucher (aber auch dem Suchmaschinen-Crawler) die Navigation auf der Seite erleichtern sollen, werden von den großen drei Suchmaschinen Google, Yahoo! und Live Search (bzw. Bing) seit einiger Zeit auch XML-Sitemaps unterstützt. Dabei handelt es sich in der einfachsten Form um eine Liste von URLs der Website innerhalb eines standardisierten XML-Dokumentes 2, welche wie in der Google Webmaster-Hilfe [Goo09a] beschrieben dazu dienen soll, der Suchmaschine alle Seiten auf der Website 1 2 Der Standard für XML-Sitemaps wurde von sitemaps.org spezifiziert. Zur Zeit ist die Protokoll-Version 0.9 aktuell, welche unter eingesehen werden kann.

36 5. Strategien zur Offpage-Optimierung 27 bekannt zu machen; einschließlich der Seiten, die beim Crawling mitunter unentdeckt bleiben. Laut Google [Goo09a] sind XML-Sitemaps, die für Google z. B. in den Webmaster Tools 3 hinzugefügt werden können, insbesondere für Websites mit dynamischem Content, AJAX- oder Flash-Inhalten, vielen untereinander nur spärlich verlinkten Content-Seiten oder sehr neuen Websites mit wenig eingehenden Links von Vorteil. Zudem können Informationen wie die Änderungshäufigkeit oder die relative Wichtigkeit der Seiten zueinander (definiert durch einen Dezimalwert zwischen 0 und 1) angegeben werden. Ein Beispiel für eine XML-Sitemap bestehend aus einem Eintrag könnte so aussehen: 1 <?xml version="1.0" encoding="utf-8"?> 2 <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> 3 <url> 4 <loc>http://www.widescreen-wallpapers.de/index.html</loc> 5 <lastmod> </lastmod> 6 <changefreq>daily</changefreq> 7 <priority>0.5</priority> 8 </url> 9 </urlset> Auf diese Weise können alle URLs einer Website (bis zu URLs pro XML-Dokument [Goo09h]) in die Sitemap aufgenommen werden. Welche Auswirkungen die Einreichung einer XML-Sitemap auf das Crawling und den Indexierungsvorgang für eine Website hat, ist nicht ohne weiteres zu beantworten. Google verweist darauf, dass die in einer Sitemap enthaltenen URLs nicht automatisch auch in den Index übernommen werden, eine Sitemap jedoch generell Vorteile mit sich bringt [Goo09b]. Die tatsächlichen Auswirkungen einer XML-Sitemap sind ein Teil des praktischen Versuchsaufbaus zur Offpage-Optimierung im nächsten Kapitel. 5.3 Linkquellen Ein unverzichtbarer Teil der Offpage-Optimierung besteht in der Erschließung von Linkquellen, wobei es mittlerweile deutlich mehr Möglichkeiten als den abgesprochenen Linktausch mit anderen Websites gibt. Hierbei gilt jedoch zu beachten, dass Linkquelle nicht gleich Linkquelle ist und sich diese in der Qualität der möglichen Links auf die eigene Website teilweise deutlich unterscheiden sei es durch Faktoren auf der Website, von welcher der Link ausgeht oder bedingt durch die Ranking-Algorithmen der Suchmaschinen. Nachfolgend werden einige der populärsten Möglichkeiten, eingehende Links aufzubauen, vorgestellt. 3

37 5. Strategien zur Offpage-Optimierung Webkataloge Webkataloge, welche meist aus einer mehr oder weniger umfangreichen thematisch sortieren Liste von Links zu anderen Websites bestehen, gehören zu einer der ältesten Möglichkeiten, eingehende Links für eine Website aufzubauen. Wie Kristopher B. Jones beschreibt [Jon08] haben Links aus Webkatalogen in den letzten Jahren zwar deutlich an Einfluss auf das Suchmaschinen-Ranking verloren, können jedoch immer noch besonders bei Links aus den großen Verzeichnissen eine entscheidende Rolle spielen. Mario Fischer begründet in seinem Buch Website-Boosting [Fis06] den Einfluss auf dreierlei Art: ˆ Einträge in Webkataloge werden in der Regel manuell hinzugefügt, was die Begutachtung der Website durch einen Redakteur nötig macht. Dies reduziert für die Suchmaschine das Risiko, dass es sich bei der Website um eine für einen anderen Zweck manipulierte Seite ohne für das Thema relevanten Inhalt handelt. ˆ Da die Eintragung in einige Webkataloge kostenpflichtig ist, kann die Suchmaschinen davon ausgehen, dass es sich um eine ernsthaftere Website handelt, die bedingt durch die finanzielle Investition im Rahmen der Eintragung eine gewisse Qualität aufweisen müsste. ˆ Die Einteilung der jeweiligen Website in einen bestimmten Themenbereich erlaubt es der Suchmaschine, das tatsächliche Thema einer Seite abzuschätzen bzw. mit den eigenen Auswertungen abzugleichen. Kostenpflichtige Webkataloge Die Eintragung in kostenpflichtige Webkataloge wie Yahoo 4, Web.de 5 (siehe Abbildung 5.2) oder Allesklar 6 bringt einen qualitativ guten Link aus einem themenrelevanten Bereich einer für Suchmaschinen vertrauenswürdigen Website, schlägt jedoch mit bis zu mehreren hundert Euro jährlich zu Buche. Diese Tatsache berücksichtigend stellt sich die Frage, ob eine derartige Investition sinnvoll ist und nicht besser in einem anderen Bereich sei es der Kauf eingehender Links oder eine bessere Onpage-Optimierung getätigt werden sollte

38 5. Strategien zur Offpage-Optimierung 29 Abbildung 5.2: Web.de als Beispiel für einen kostenpflichten Webkatalog. Kostenlose Webkataloge Der Großteil aller zur Verfügung stehenden Webkataloge bietet die kostenlose Eintragung der eigenen Website an. Dabei handelt es sich meist um kleinere Webkataloge, die einzeln kaum Einfluss auf das Ranking der Website haben. Mehrere Eintragungen in diesen Katalogen können jedoch auch die Link-Popularität der eigenen Website steigern und für ein gewisses Grundrauschen an eingehenden Links sorgen. Beachtet werden sollte dabei jedoch, dass die ausgehenden Links im Webkatalog dessen Link-Popularität weitergeben und nicht mit dem Attribut rel= nofollow versehen sind. Desweiteren besteht bei vielen kostenlosen Webkatalogen eine Backlink-Pflicht, welche die Freischaltung der Eintragung von einem Backlink auf der entsprechenden Website abhängig macht; Eintragungen dieser Art nutzen meist mehr dem Anbieter des Katalogs als der eingetragenen Website. Das Open Directory Project Betrachtet man alle derzeit verfügbaren Webkataloge, hat wohl das sogenannte Open Directory Project 7, auch DMOZ genannt (siehe Abbildung 7

39 5. Strategien zur Offpage-Optimierung ), den höchsten Stellenwert für das Website-Ranking. Diese Einschätzung wird zum einen von diversen Autoren von Fachliteratur wie Mario Fischer [Fis06], Sebastian Erlhofer [Erl06] oder Kristopher B. Jones [Jon08] geteilt als auch durch die Tatsache vermittelt, dass die im DMOZ kostenlos und von freiwilligen Redakteuren betreuten Inhalte auch für das Googleeigene Webverzeichnis 8 benutzt werden. Die Eintragung der eigenen Website in das DMOZ ist kostenlos und abhängig von Themenrelevanz und Qualität der jeweiligen Seite, kann jedoch nicht garantiert werden und dauert mitunter sehr lange. Abbildung 5.3: Das Open Directory Project Artikelverzeichnisse Artikelverzeichnisse sind ähnlich wie Webkataloge in verschiedene Themenbereiche unterteilt, beinhalten jedoch keine reine Liste an Links zu anderen Websites, sondern von Autoren geschriebene Artikel. Das Verzeichnis profitiert von kostenlosem und meist exklusivem Content, der Besucher anlockt 8

40 5. Strategien zur Offpage-Optimierung 31 im Gegenzug ist es Autoren gestattet, eine gewisse Anzahl an Links in die Artikel einzubauen und somit themenrelevante und direkt aus dem Textfluss kommende Links auf die eigenen Websites zu setzen. Dies klingt zuerst verlockend, es sollte jedoch bedacht werden, dass Artikel erst geschrieben werden müssen und der Zeitaufwand für einen sinnvollen Text zu einem bestimmten Thema mit 300 bis 1000 Wörtern nicht unterschätzt werden sollte. Zudem werden Artikel von Redakteuren begutachtet, bevor sie veröffentlicht werden, so dass ein gewisses Qualitätsniveau gegeben sein muss. Besitzt man jedoch ein fundiertes Wissen in einem bestimmten Bereich, über das man ohne zeitaufwändige Recherche schreiben kann, oder ist in der Lage, derartige Texte günstig erstellen zu lassen, stellen Artikelverzeichnisse wie Fabian Ziegler in seinem Artikel anmerkt [Zie09] eine sehr gute Möglichkeit dar, themenrelevante eingehende Links zu erzielen und auf diese Weise die Position der eigenen Websites in den SERPs 9 zu verbessern. Die Popularität von Artikelverzeichnissen zum Zweck der Offpage- Suchmaschinenoptimierung dürfte jedoch immer mehr abnehmen, da Google bereits damit begonnen hat, die PageRank-Werte von Artikelverzeichnissen zu reduzieren [Zie09] Social Bookmarks Social Bookmarks sind eine relativ neue Entwicklung des Web 2.0. Wie des Wort Bookmarks aus der Bezeichnung bereits andeutet handelt es sich dabei um Lesezeichen 10, die von Benutzern der Social Bookmarking Dienste eingetragen und somit online verwaltet werden können. Als Social werden die Dienste bezeichnet, da die eingetragenen Lesezeichen durch sogenannte Tags einem oder mehreren unterschiedlichen Wörtern bzw. Kategorien zugeteilt und für alle Besucher der Website öffentlich zugänglich sind. Es erfolgt zudem eine Gewichtung der einzelnen Lesezeichen anhand der Anzahl der Benutzer, welche dieses Lesezeichen gesetzt haben. Bekannte Social Bookmarking Dienste im englisch- als auch deutschsprachigen Web sind Delicious 11, StumbleUpon 12 oder Mister Wong 13 (siehe Abbildung 5.4). Bezugnehmend auf die Offpage-Suchmaschinenoptimierung erscheinen Social Bookmarks auf den ersten Blick als ein probates Mittel, kostenlos und ohne großen Aufwand eingehende Links von Websites mit hoher Popularität zu erzielen. So gut wie alle großen und auch viele kleinere Social Bookmarking Dienste sind jedoch aufgrund des Missbrauchs, der zur 9 SERPs ist die Abkürzung für Search Engine Result Pages und bezeichnet die Suchergebnis-Seiten der Suchmaschinen. 10 Lesezeichen sind in diesem Kontext als Links zu Websites zu verstehen, wie sie auch in einem Webbrowser gespeichert werden können

41 5. Strategien zur Offpage-Optimierung 32 Abbildung 5.4: Die Startseite des Social Bookmarking Dienstes Mister Wong. Suchmaschinenoptimierung mit den Social Bookmarks betrieben wurde, dazu übergegangen, ausgehende Links mit dem bereits bekannten nofollow Attribut zu versehen und somit zur Steigerung der Link-Popularität unbrauchbar zu machen. Was bleibt sind Besucher, die direkt über populäre Lesezeichen auf eine Website gelangen [Leo07]. Inwieweit Links auf Social Bookmarking Websites trotz nofollow Attribut zur Verbesserung des Rankings einer Website beitragen, ist unbekannt. Einer Antwort auf diese Frage soll durch den Versuchsaufbau zur Offpage-Suchmaschinenoptimierung, der im nachfolgenden Kapitel beschrieben wird, näher gekommen werden Social Media und Social News Parallel zu Social Bookmarks haben sich in den letzten Jahren zusätzlich viele Netzwerke wie z. B. Facebook 14, MySpace 15, Youtube 16 oder Digg 17 entwickelt, welche unter den Überbegriffen Social Media und Social News zusammengefasst werden. Eine Optimierung der eigenen Website für diese Dienste

42 5. Strategien zur Offpage-Optimierung 33 wird auch als Social Media Optimization, kurz SMO, bezeichnet [Jon08]. Diese kann zu einer Steigerung des Besucheraufkommens auf der eigenen Website führen, zusätzlich jedoch auch trotz der großen Verbreitung des nofollow Attributs den organischen Traffic18 durch eine Verbesserung des Rankings erhöhen, wie Kristopher B. Jones beschreibt [Jon08] Microblogging Microblogging reiht sich ein in die Liste der zuvor besprochenen Web 2.0 Dienste, die zu einer Erhöhung der Popularität der eigenen Website führen können. Als Microblogging wird eine neue Form des Bloggings bezeichnet, die es Benutzern von Diensten wie Twitter 19 (das wohl populärste Microblogging Netzwerk; siehe Abbildung 5.5) ermöglicht, kurze Textnachrichten zu veröffentlichen und diese allen Besuchern des Netzwerks oder nur einer ausgewählten Gruppe zugänglich zu machen [Jon08]. Auf Twitter werden diese Textnachrichten als Tweets bezeichnet und werden ebenso wie das Twitter-Profil eines Benutzers von Suchmaschinen teilweise innerhalb weniger Minuten indexiert [Upp09]. Abbildung 5.5: Microblogging mit Twitter. 18 Als organisch wird Traffic (das Besucheraufkommen einer Website) dann bezeichnet, wenn dieser durch die natürliche Indexierung einer Suchmaschine und die daraus folgende Darstellung in den Suchergebnissen erzeugt wird. 19

43 5. Strategien zur Offpage-Optimierung 34 Diese indexierten Tweets und Links von sogenannten Followers 20 führen zu einer Steigerung der Linkpopularität und folglich des PageRank des eigenen Twitter-Profils; PageRank-Werte von 5 sind für Twitter-Profile keine Seltenheit, wie Jit Uppal in seinem Artikel über Twitter und Suchmaschinenoptimierung [Upp09] ausführt. Eine hohe Link-Popularität des eigenen Twitter-Profils kombiniert mit einer großen Anzahl an Followers führt wiederum zu einem hohen Besucheraufkommen, welches über ausgehende Links auf der Profil-Seite für andere Websites genutzt werden kann. Konnte bis vor kurzem noch über Links in bestimmten Bereichen eines Twitter-Profils zusätzlich Link-Popularität weitergegeben werden, ist dies heute nicht mehr möglich, da alle ausgehenden Links einer Profil-Seite mit dem nofollow Attribut versehen sind. Der direkte Nutzen des Microblogging zur Offpage- Optimierung ist somit in Frage zu stellen RSS-Feeds RSS-Feeds, die Abkürzung für Really Simple Syndication, ermöglichen es Website-Betreibern ihren Inhalt in Form von Textauszügen im XML-Format zu verbreiten, damit dieser von Benutzern in einem anderen Format als direkt auf der eigenen Website angesehen werden kann [Squ07]. Diese Form der Content-Publizierung ermöglicht es, den eigenen Inhalt auf anderen Websites zu platzieren, diesen mit direkten Links in der Überschrift oder dem Inhalt selbst auf die eigene Website zu versehen und somit themenrelevante Backlinks zu generieren, die für einen natürlichen Linkaufbau durch Deep-Links sorgen. Blogs sollten zudem zwingend von RSS-Feeds Gebrauch machen, um in der Google Blog Suche 21 gefunden zu werden [Zag09]. Jedoch genügt alleine die Bereitstellung eines RSS-Feeds nicht, um die Link-Popularität der Quell-Website zu erhöhen angebotene RSS-Feeds sollten zudem in RSS-Feed Suchmaschinen und RSS-Verzeichnisse eingetragen werden, wobei letztere die Indexierungsgeschwindigkeit für neue Artikel erhöhen und durch Backlinks die Link-Popularität der Quell-Website erhöhen können (sofern dofollow 22 Backlinks verwendet werden) [NET09]. Diese Aussagen zusammenfassend kann wohl gesagt werden, dass RSS-Feeds eine gute Möglichkeit darstellen, die Offpage- Suchmaschinenoptimierung zu unterstützen und für Besucher darüber hinaus eine komfortable Möglichkeit zu schaffen, sich über Neuigkeiten auf der eigenen Website auf dem Laufenden zu halten. 20 Als Followers werden alle Abonnenten bzw. Empfänger der Tweets eines bestimmten Autors bezeichnet Als dofollow Links werden ausgehende Links bezeichnet, die nicht das nofollow Attribut verwenden und somit regulär Link-Popularität weitergeben.

44 5. Strategien zur Offpage-Optimierung Das Kakadu-Prinzip Beim sogenannten Kakadu-Prinzip, welches von Sebastian Erlhofer in seinem Buch Suchmaschinenoptimierung für Webentwickler [Erl06] beschrieben wird handelt es sich um eine indirekte Methode, die Link-Popularität der eigenen Website zu erhöhen. Der Grundgedanke besteht darin, die Inhalte der Website so zu gestalten, dass diese die Aufmerksamkeit anderer Website-Besitzer auf sich ziehen und freiwillig Backlinks auf die eigene Website gesetzt werden. Derartige, natürlich aufgebaute eingehende Links, die zudem in den meisten Fällen themenrelevant sind, stellen ohne Zweifel eine der besten Möglichkeiten zur Offpage-Suchmaschinenoptimierung dar, auch wenn gewisse Qualitätskriterien (welche später noch besprochen werden) nicht beeinflusst werden können. Beim Kakadu-Prinzip steht jeder Buchstabe des Wortes für einen Inhaltstyp, der das Interesse anderer Website-Besitzer wecken soll: ˆ Kostenloses Kostenlose Inhalte, seien es Texte, Bilder, Downloads etc., sind seit jeher beliebt, da sie dem Grundgedanken des Internet entsprechen. Die Popularität kostenloser Inhalte wird auch deutlich, wenn man die Zahl der Google-Suchergebnisse für das Wort kostenlos betrachtet, welche im dreistelligen Millionenbereich liegen. ˆ Aktuelles Auch aktuelle Informationen oder Inhalte sind besonders im schnelllebigen Medium Internet sehr gefragt. Die Exklusivität aktueller Informationen ist, wie Sebastian Erlhofer besonders anmerkt [Erl06], ein weiterer wichtiger Faktor. ˆ Künstlerisches Künstlerische Inhalte wie Grafiken, Fotos, Videos oder Musik sind sehr beliebt, wie der Erfolg von Websites wie Flickr 23, DeviantArt 24 oder YouTube 25 zeigt. Websites, die qualitativ hochwertige Inhalte aus diesen Bereichen anbieten, haben gute Chancen, aufgrund ihres Inhalts Empfehlungen von anderen Website-Besitzern zu bekommen, welche wiederum mit dem Link einen Mehrwert für ihre Besucher schaffen. ˆ Außergewöhnliches Außergewöhnliche Inhalte ziehen Besucherströme aufgrund ihrer Seltenheit an, wie Sebastian Erlhofer treffend beschreibt [Erl06]. Um welche Inhalte es sich hierbei handelt, ist sekundär die neuartige Idee und wenn möglich Einzigartigkeit zählt. Ein hervorragendes Beispiel

45 5. Strategien zur Offpage-Optimierung 36 hierfür ist die Website The Million Dollar Homepage 26, welche auf einer Gesamtfläche von 1 Million Pixeln jeweils mind. 10x10 Pixel zu einem Preis von 1 Dollar pro Pixel als Werbefläche zur Verfügung stellte und durch diese neuartige Idee ein enormes mediales Interesse auf sich zog, wodurch alle 1 Millionen Pixel bereits nach kurzer Zeit verkauft waren. Nachahmer konnten nur kurzfristig einen Teil dieses Erfolges wiederholen. ˆ Downloads Seit jeher sind auch Downloads, seien es Freeware- oder Demo- Versionen von Programmen und Spielen oder auch Plugins, Extensions oder Themes, sehr beliebt. Mit der steigenden Anzahl an Websites, die kostenlose Downloads anbieten, sind jedoch auch neue Ideen oder besonders interessante Inhalte gefragt, um ein solches Angebot aus der Masse hervorzuheben. ˆ Unerlaubtes Unerlaubte bzw. verbotene Inhalte sind auch im Internet reizvoll, wobei sich Website-Anbieter hier im besten Fall in einer rechtlichen Grauzone bewegen, wie dies z. B. bei Websites, welche Seriennummern und Programme zur Freischaltung kostenpflichtiger Software oder Links zu illegalen Downloads (siehe The Pirate Bay 27 ) anbieten, der Fall ist. Generell kann gesagt werden, dass das Kakadu-Prinzip eine direkte Beziehung zwischen der inhaltlichen Qualität einer Website und der Anzahl an freiwilligen Verlinkungen auf diese beschreibt, wie es auch logisch erscheint Linkbait Linkbait nennt sich eine weitere Strategie zur indirekten Erhöhung der Link- Popularität, die ähnlich dem Kakadu-Prinzip durch den Inhalt einer Website freiwillig gesetzte, eingehende Links fördern soll, dabei jedoch provokativer ist und vornehmlich in Blogs verwendet wird. Der Grundgedanke besteht wie Kristopher B. Jones beschreibt [Jon08] darin, durch sogenannte Hooks bzw. Aufhänger in Artikeln die Aufmerksamkeit der Leser auf sich zu ziehen. Beispiele für Hooks wären z. B. ein Artikel mit der Thema Wie verdient man 1 Million Euro in einem Monat? oder aber ein Artikel, der eine lustige, vielleicht erfundene Geschichte (mitunter auch als Hoax 28 bekannt) erzählt. Linkbaiting bedient sich dabei seit den Anfängen des Journalismus bekannter Elemente, die bereits seit vielen Jahren in einschlägigen Zeitungen Als Hoax wird eine (scherzhafte) Falschmeldung bezeichnet, die über moderne Medien wie das Internet verbreitet und von vielen für wahr gehalten wird (http://de.wikipedia.org/wiki/hoax).

46 5. Strategien zur Offpage-Optimierung 37 und Magazinen Verwendung finden. Die Nutzung dieser Methode im Bereich der Offpage-Suchmaschinenoptimierung ist eine logische Konsequenz, welche besonders im Blog-Bereich sinnvoll erscheint Satellitendomains Als letzte Strategie zur Steigerung der Link-Popularität sollen an dieser Stelle die sogenannten Satellitendomains besprochen werden. Der Aufbau genügend eingehender Links auf eine Website, um diese in einem schwierigen, umkämpften Bereich in den SERPs nach vorne zu bringen, ist kein leichtes Unterfangen, da die benötigten Links von anderen Websites nicht direkt gesetzt werden können und man als Website-Besitzer, wie auch Sebastian Erlhofer beschreibt [Erl06], auf die Hilfe anderer angewiesen ist. Leichter hat man es, wenn man mehrere Websites besitzt, die man untereinander je nach Bedarf verlinken kann, was im Normalfall jedoch mit relativ viel Aufwand verbunden ist. Die Lösung stellen Satellitendomains meist kleine, einfach gestaltete Microseiten, die auf ein bestimmtes Thema oder gar Keyword optimiert wurden dar, die in großer Zahl erstellt werden, um auf die Hauptseite zu verweisen und im übertragenen Sinn um diese wie Satelliten kreisen. Die Link-Popularität der Satellitendomains kann dabei durch bereits beschriebene Linkquellen wie Webkataloge oder Artikelverzeichnisse gesteigert werden, um dann im nächsten Schritt durch ausgehende Links mit effektiven Link-Texten an die Hauptseite weitergegeben zu werden. Dieses Vorgehen grenzt zwar an Suchmaschinen-Spam [Erl06], hat im schlimmsten Fall dem Ausschluss der Satelliten-Domain aus dem Google- Index jedoch weit geringere Konsequenzen, als dies beim Ausschluss der Hauptseite der Fall wäre. So können die eingesetzten Methoden zur Suchmaschinenoptimierung auf Micoseiten durchaus etwas experimentierfreudiger sein. Sebastian Erlhofer bemerkt in seinem Buch [Erl06], dass Satellitendomains offensichtlich sehr gut funktionieren, dabei jedoch darauf zu achten ist, dass diese aufgrund der IP-Popularität eine andere IP-Adresse als die Hauptseite aufweisen sollten. Das Thema IP-Popularität wird als eines der Qualitätskriterien der Offpage-Optimierung später in diesem Kapitel besprochen. 5.4 Qualitätskriterien der Offpage-Optimierung Neben den bereits besprochenen Linkquellen sind zudem Qualitätskriterien im Zuge der Offpage-Suchmaschinenoptimierung zu beachten, die über Erfolg und Misserfolg entscheiden können. Hierbei gibt es viele verschiedene Einflüsse, die die Gewichtung eines Links auf das Suchmaschinen-Ranking einer Website bestimmen. Nachfolgend sollen die einer Recherche in Fachli-

47 5. Strategien zur Offpage-Optimierung 38 teratur 29 zufolge wichtigsten dieser Kriterien besprochen werden Domainalter Das Alter der eigenen Website-Domain kann klarerweise nicht durch Link- Building-Strategien beeinflusst werden, soll an dieser Stelle aber dennoch Erwähnung finden, da es ohne Zweifel (wie später näher erläutert wird) einen großen Einfluss auf das Website-Ranking hat. Laut Aussagen eines Google-Mitarbeiters auf einer Suchmaschinen-Konferenz in San Jose werden neue Domains zu Beginn auf Probe in den Index aufgenommen, wobei in dieser Zeitspanne besonders das Benutzerverhalten auf die Domain sowie der Linkaufbau der Website beobachtet wird [Fis06]. Alle Arten des unnatürlichen Linkaufbaus, seien es sehr viele Links oder besonders PageRank starke Links innerhalb kurzer Zeit, dürften die Aufmerksamkeit von Google erregen. Mario Fischer nennt in seinem Buch Website Boosting [Fis06] hierfür vor allem den Grund, dass Google auf diese Weise Suchmaschinen-Spam reduzieren will sei es durch Spammer oder auch Firmen, welche in kürzester Zeit unzählige neue Keyword-Domains 30 anmelden, um in den Suchergebnissen möglichst gut gelistet zu sein. Die Relevanz des Domainalters auf das Ranking einer Website wird im Extremfall als Sandbox-Effekt 31 bezeichnet und wurde neben oben genannter Aussage auch von Matt Cutts, einem führenden Google-Mitarbeiter, auf der PubCon 2005 in Las Vegas indirekt bestätigt. Dieser verwies darauf, dass es zwar keine Sandbox gäbe, der Ranking-Algorithmus unter Umständen aber Effekte zeigen kann, die als Sandbox betrachtet werden können [Erl06]. Existent ist der Sandbox-Effekt je nach Quelle seit 2004 [Erl06] bzw [Fis06]. Wie deutlich wird, kann das Alter einer Domain nicht nur positive Effekte auf das Ranking haben, sondern im schlimmsten Fall, dem Sandbox-Effekt, durch unnatürlich schnellen Linkaufbau und Überoptimierung im Allgemeinen, auch zu einer massiven Abwertung einer Website führen. Auch eine Domainübernahme mit anschließendem Themenwechsel stellt wie Mario Fischer beschreibt [Fis06] ein Risiko dar, da Google neben dem Alter einer Domain auch auf plötzliche Änderungen am Grundthema einer Website achtet. 29 Zur Bestimmung der wichtigsten Kriterien wurden insbesondere die Bücher Suchmaschinenoptimierung für Webentwickler [Erl06], Search Engine Optimization: Your visual blueprint for effective Internet Marketing [Jon08], Besseres Webseiten-Ranking bei Google & Co. [Mor06], Suchmaschinen-Ranking optimieren [Mor05] sowie Website- Boosting [Fis06] herangezogen. 30 Als Keyword-Domain wird eine Domain bezeichnet, deren Name in erster Linie aus einer Aneinanderreihung von Keywords, getrennt durch Bindestriche, besteht [Erl06]. 31 Als Sandbox (zu Deutsch Sandkosten ) wird dieser Effekt bezeichnet, da junge Domains im übertragenen Sinn von Google zum Spielen in den Sandkasten geschickt werden.

48 5. Strategien zur Offpage-Optimierung Themenrelevanz eingehender Links Wie in Kapitel 2 beschrieben ist davon auszugehen, dass die Themenrelevanz eingehender Links einen großen Einfluss auf die Gewichtung eines Verweises hat. Dies erwähnt auch Sebastian Erlhofer in seinem Buch [Erl06] und empfiehlt, bei der Wahl eingehender Links besonders auf eine thematische Ähnlichkeit zu achten. Aus Sicht der Suchmaschine ist die Gewichtung der Themenrelevanz durchaus sinnvoll und nachvollziehbar Websites werden mit größerer Wahrscheinlichkeit freiwillig Empfehlungen auf thematisch ähnliche als auf themenfremde Websites setzen; zudem könnten derartige Links bzw. Empfehlungen aufgrund der Erfahrung der linkgebenden Website auch als relevanter eingestuft werden Geschwindigkeit des Linkaufbaus Aufgrund der Ranking-Algorithmen moderner Suchmaschinen wie Google hat die Anzahl und Qualität der eingehenden Links mit den größten Einfluss auf das Ranking der jeweiligen Website. Grundsätzlich gilt hier, je mehr Verweise von anderen Websites ausgesprochen werden, desto höher auch die Link-Popularität und in Folge die Platzierungen in den SERPs. Dies führte wie Mario Fischer in seinem Buch beschreibt [Fis06] dazu, dass immer mehr Links innerhalb kurzer Zeit gekauft wurden, was mit dem ursprünglichen Gedanken der Link-Popularität als Anzahl der freiwilligen Empfehlungen für eine Website nichts mehr zu hat. Dieser Entwicklung wurde seitens der Suchmaschinen mit einer Gewichtung der Geschwindigkeit des Linkaufbaus im Ranking-Algorithmus begegnet. Hierbei kann die Suchmaschine auf ihren enormen Datenbestand zurückgreifen, der auch ältere Versionen einer Website beinhaltet und somit die Entwicklung (insbesondere die Anzahl eingehender Links) dieser darstellen kann. Die Frage, welche Art des Linkaufbaus als normal zu bezeichnen ist, lässt sich wiederum anhand der Milliarden anderer Websites bestimmen, für die ebenso detaillierte Daten vorliegen. Eine einfache Suche nach Anomalien im Datenbestand, z. B. basierend auf der durchschnittlichen Anzahl an Links, die für eine Website bestimmter Größe pro Monat hinzu kommen, fördert auffällige Werte sofort zu Tage. Berücksichtigt wird zudem nicht nur die Linkzunahme, sondern auch die Linkabnahme [Fis06]. Einen Richtwert, wie viele neue eingehende Links pro Zeitspanne von Suchmaschinen noch als normal angesehen werden, gibt es nicht. Es sollte jedoch generell immer bedacht werden, dass Suchmaschinen wie Google auch in diesem Bereich größten Wert auf Natürlichkeit legen Link-Exklusivität Ein wesentliches Qualitätskriterium eines Verweises ist die Link- Exklusivität, wie sie von André Moritz [Mor05] bezeichnet wird. Damit

49 5. Strategien zur Offpage-Optimierung 40 gemeint ist schlicht die Anzahl ausgehender Links einer linkgebenden Website und ihr Einfluss auf die Weitergabe der Link-Popularität, wie bereits in Kapitel 2 im Rahmen des PageRank-Algorithmus beschrieben wurde. Je weniger ausgehende Links eine Seite einer Website aufweist, umso geringer ist die Anzahl der Links, auf welche die Link-Popularität aufgeteilt werden muss, was diese wiederum für jeden einzelnen Link erhöht. Der eingehende Link einer Website mit einem PageRank von 3 und nur einem ausgehenden Link ist so z. B. deutlich mehr Wert als der Verweis von einer Website mit einem PageRank von 5, welche jedoch noch 50 andere ausgehende Links setzt [Mor05]. Bei der Anzahl ausgehender Links sollte zudem, wie Google in den Richtlinien für Webmaster erwähnt [Goo09f], auch darauf geachtet werden, dass deren Häufigkeit in einem vernünftigen Rahmen bleibt und 100 Stück nicht übersteigt. Da die Zahl 100 in Zusammenhang mit der Anzahl ausgehender Links öfter genannt wird [Mor05] [Erl06] kann davon ausgegangen werden, dass ausgehende Links von Seiten mit mehr als 100 Verweisen anders gewichtet werden. Neben der reinen Link-Anzahl ist laut Sebastian Erlhofer [Erl06] auch deren Positionierung ausschlaggebend für die Qualität. In diesem Zusammenhang seien sogenannte Link-Farmen genannt; dabei handelt es sich um Websites, die aus Listen thematisch unsortierter Links bestehen und von Google erkannt und als Suchmaschinen-Spam betrachtet werden [Erl06] Unidirektionale und reziproke Links Die Eigenschaften unidirektional und reziprok Beschreiben die Art, wie Links (z. B. im Austausch mit einer anderen Website) gesetzt werden können. Dabei werden drei verschiedene Linktypen unterschieden [Ger08]: ˆ Unidirektionale (einseitige) Links Ein unidirektionaler Link zeigt wie aus der Bezeichnung abgeleitet werden kann nur in eine Richtung. Seite A verlinkt auf Seite B, jedoch setzt Seite B keinen Link zurück auf Seite A (siehe Abbildung 5.6). ˆ Reziproke (gegenseitige) Links Als reziprok werden Links bezeichnet, wenn diese gegenseitig gesetzt werden. Seite A setzt einen Link auf Seite B, Seite B wiederum verweist auf Seite A (siehe Abbildung 5.7). ˆ Drei-Wege-Links Drei-Wege-Links ermöglichen den Linktausch zwischen Websites, ohne auf reziproke Links zurückgreifen zu müssen. Dabei verlinkt Seite A auf Seite B, Seite B verlinkt jedoch auf Seite C (die den gleichen Besitzer hat wie Seite A). An dieser Form des Linktauschs sind mind.

50 5. Strategien zur Offpage-Optimierung 41 drei Websites beteiligt. Je weiter entfernt (im Sinne eines Verwandtschaftsverhältnisses) Seite A von Seite C ist, desto geringer ist die Wahrscheinlichkeit, dass diese Form des Linktauschs von Suchmaschinen als solcher erkannt wird (siehe Abbildung 5.8). Abbildung 5.6: Beispiel für einen unidirektionalen Link. Abbildung 5.7: Beispiel für einen reziproken Link. Abbildung 5.8: Beispiel für einen Drei-Wege-Link. Reziproke Links entsprechen der ursprünglichen Natur des Verlinkens, wie Aurel Gergey schreibt [Ger08]. Dennoch wird angenommen, dass diese Form der Verlinkung zweier Websites weniger Wirkung hat, seitens der Suchmaschinen als unnatürlich betrachtet und eine Abmachung (die in den meisten Fällen natürlich auch besteht) zwischen den beiden Website- Besitzern vermutet wird [G-L07]. Google selbst spricht sich auch offiziell in der Webmaster-Hilfe zum Thema Linktauschprogramme gegen übermäßigen Linkaustausch und übermäßige gegenseitige Vernetzung aus [Goo09e].

51 5. Strategien zur Offpage-Optimierung 42 Hierbei stellt sich wiederum die Frage, ab wann reziproke Links als übermäßig zu bezeichnen sind. Empfehlungen variieren in diesem Bereich und reichen von 25% [G-L07] bis zu in geringem Ausmaß [Ger08]. Generell stimmen alle Quellen überein, dass ein geringer Teil reziproker Links (insbesondere themenrelevant [G-L07]) durchaus seine Wirkung hat, unidirektionale Verweise, von Kristopher B. Jones auch als One-Way-Links bezeichnet [Jon08], jedoch einen größeren Effekt auf das Ranking einer Website haben. Der Einfluss unidirektionaler bzw. reziproker Links ist auch Teil des praktischen Versuchsaufbaus dieser Arbeit Link-Texte Die Link-Texte eingehender Verweise, auch als Anchor-Texte bezeichnet, haben wie in Kapitel 2 beschrieben, insbesondere bei Google, einen sehr großen Einfluss auf das Ranking einer Website für bestimmte Suchbegriffe. Jedoch sollte, wie André Moritz beschreibt [Mor06], auch bei der Wahl der Link-Texte auf ein gewisses Maß an Natürlichkeit geachtet werden. Von zu 100% identischen Link-Texten ist demnach abzuraten, da Suchmaschinen dies als Manipulationsversuch werten und die betreffende Website abwerten könnten. Auf eine möglichst natürlich wirkende Variation der für eingehende Links verwendeten Texte sollte unbedingt geachtet werden. Wie groß diese Variation sein muss, ist jedoch nicht bekannt. Auch diese Frage ist Bestandteil des Versuchsaufbaus im Rahmen dieser Arbeit Deep-Links Sogenannte Deep-Links bezeichnen eingehende Links, welche jedoch nicht wie üblich direkt auf die Startseite, sondern auf eine Unterseite einer Website, verweisen. Laut Christine Taylor [Tay08] und Shell Harris [Har07] gibt es drei gute Gründe, neben konventionellen Links auch Deep-Links zum Linkaufbau zu verwenden: ˆ Suchmaschinen sehen Deep-Links als einen Indikator für die Qualität des Inhalts einer Website. Verweist eine gewisse Anzahl an eingehenden Links direkt auf die Inhalte von Unterseiten, müssen diese relevante Informationen beinhalten. ˆ Ein kompletter Verzicht auf Deep-Links könnte für Suchmaschinen unnatürlich erscheinen und zu einer Benachteiligung der jeweiligen Website im Ranking führen, da eine gezielte Manipulation vermutet wird. ˆ Deep-Links verhelfen auch den jeweiligen Unterseiten zu besseren Positionen in den SERPs, sodass sich für potentielle Besucher mehrere Einstiegsmöglichkeiten neben der Startseite ergeben.

52 5. Strategien zur Offpage-Optimierung 43 Ebenso wie beim Qualitätskriterium Link-Texte gibt es auch für Deep- Links keine konkreten Empfehlungen, wie groß deren Anteil an der Gesamtzahl eingehender Links sein soll. Dieser Frage soll ebenso im praktischen Versuchsaufbau nachgegangen werden IP-Popularität Der Einsatz der IP-Popularität in den Ranking-Algorithmen der großen Suchmaschinen ist als gesichert anzusehen [Erl06]. André Moritz nennt hierfür als Grund, dass auf diese Weise die Eigenlinks von Besitzern mehrerer Websites (welche jedoch meist auf dem gleichen Webserver mit identischer IP-Adresse gehostet sind) verhindert werden sollen [Mor06]. Inwieweit Links aus gleichen IP-Adressbereichen wirklich von Suchmaschinen in ihrer Wirkungsweise herabgesetzt werden, ist jedoch nicht bekannt. An dieser Stelle sollte auch bedacht werden, dass in Zeiten virtueller Webserver 32 eine gleiche oder ähnliche IP-Adresse nicht zwangsläufig auch ein und den selben Website-Besitzer zur Folge hat und diese Tatsache auch seitens der Suchmaschinen berücksichtigt werden dürfte Gewichtung des PageRank eingehender Links Inwieweit der PageRank als Indikator für die Link- bzw. Domain-Popularität einer Website Einfluss auf deren Ranking hat wurde bereits in Kapitel 2 besprochen. Es stellt sich jedoch die Frage, ob wenige eingehende Links mit hohen PageRank-Werten gegenüber mehreren Links von Websites mit geringeren PageRank-Werten im Vorteil sind, wenn beide Möglichkeiten rein rechnerisch nach der von Sergey Brin und Lawrence Page aufgestellen Formen zur Berechnung des PageRank [BP98] das gleiche Ergebnis aufweisen. Ein Indiz für die Bevorzugung der geringen Anzahl an Verweisen mit hohen PageRank-Werten könnte das bereits besprochene Hilltop-Prinzip sein. Ebenso wie das Qualitätskriterium IP-Popularität ist auch die Gewichtung des PageRank eingehender Links Bestandteil des praktischen Versuchsaufbaus zur Offpage-Suchmaschinenoptimierung im nachfolgenden Kapitel. 32 Im Bereich des Website-Hosting übliche virtuelle Server sind nach außen hin als physische Server sichtbar, werden jedoch gemeinsam mit anderen virtuellen Servern auf einem Rechner mit meist identischer IP-Adresse ausgeführt (http://de.wikipedia.org/wiki/virtueller Server).

53 Kapitel 6 Praktischer Versuchsaufbau zur Offpage-Optimierung 6.1 Versuchsaufbau Das Ziel des Versuchsaufbaus, der Zusammen mit der webbasierten Analyse- Software SEA Tools v2 den praktischen Teil dieser Diplomarbeit darstellt, war es, eine Reihe von Qualitätskriterien der Offpage-Optimierung auf ihre Auswirkungen in der Praxis zu untersuchen. Dazu wurden 15 Testwebsites umgesetzt und über einen Zeitraum von 13 Wochen beobachtet, wobei jeweils zwei bzw. drei Testwebsites einem Qualitätskriterium zugeordnet waren und sich nur in diesem voneinander unterschieden, um den Einfluss des Kriteriums auf die Indexierung bzw. das Ranking der Website verfolgen zu können Auswahl der Qualitätskriterien Am Anfang der Planung des Versuchsaufbaus stand die Auswahl der in Kapitel 5 beschriebenen Qualitätskriterien der Offpage-Optimierung, welche überprüft werden sollten. Hierbei wurden besonders Kriterien gewählt, deren explizite Auswirkungen in der Fachliteratur nicht beschrieben und die darüber hinaus im Rahmen dieser Diplomarbeit für umsetzbar befunden wurden. Im praktischen Teil dieser Arbeit nicht behandelte Kriterien wie z. B. das Domainalter einer Website wären zwar von großem Interesse, jedoch mit den zur Verfügung stehenden Mitteln nicht mit dem erforderlichen Maß an Vergleichbarkeit umsetzbar gewesen. Es folgt eine kurze Beschreibung der einzelnen ausgewählten Kriterien: Indexierungsgeschwindigkeit und Indexierungsgrad Die Indexierungsgeschwindigkeit bzw. der Indexierungsgrad größerer Websites hat maßgeblichen Einfluss auf das Ranking einer Website, da je mehr 44

54 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 45 Seiten einer Website indexiert sind auch umso mehr Seiten für eine gute Position innerhalb der SERPs für bestimmte Suchbegriffe zur Verfügung stehen. Dabei sollte überprüft werden, ob dieses Qualitätskriterium durch die Anmeldung einer Website bei Google in Kombination mit der Verwendung einer XML-Sitemap beeinflusst werden kann. Unidirektionale und reziproke Links Unidirektionale (einseitige) und reziproke (gegenseitige) Links stellen zwei unterschiedliche Typen von Verweisen dar, die beim Linkaufbau einer Website zum Einsatz kommen können. Dabei wird wie in Kapitel 5 beschrieben in der Fachliteratur generell darauf hingewiesen, dass unidirektionale Links eine größere Wertigkeit zur Erhöhung der Link-Popularität haben als ihre reziproken Pendants, da Suchmaschinen auf diese Weise keine Beziehung und in weiterer Folge Abmachung zwischen zwei verlinken Websites ausmachen können. Dennoch sollen auch reziproke Links durchaus ihre Wirkung haben, wenn auch eingeschränkt. Gesicherte Aussagen, wie das Verhältnis zwischen diesen beiden Linktypen auszusehen hat, gibt es nicht. Im Rahmen dieses praktischen Versuchsaufbaus sollten die Auswirkungen unidirektionaler und reziproker Verlinkung auf das Ranking einer Website überprüft werden. Variation der Link-Texte Die Link-Texte eingehender Verweise haben einen großen Einfluss auf das Ranking einer Website zu bestimmten Suchbegriffen. Dabei sollte jedoch darauf geachtet werden, die auch Anchor-Texte genannten Textabschnitte der eingehenden Links zu variieren, um ein gewisses Maß an Natürlichkeit im Linkaufbau zu bewahren. Ähnlich bei bei anderen Qualitätskriterien der Offpage-Optimierung gibt es jedoch auch hier keine konkreten Empfehlungen, wie groß die Variation der Link-Texte ausfallen muss, um optimale Ergebnisse zu gewährleisten. Dieser Frage sollte mit Hilfe dreier Testwebsites mit jeweils unterschiedlicher Variation nachgegangen werden. Deep-Links Deep-Links, d.h. eingehende Links auf Unterseiten, nicht auf die Startseite einer Website, sollen sowohl dazu dienen, die Natürlichkeit des Linkaufbaus zu erhöhen, als auch eine größere Zahl an Seiten einer Website auf gute Positionen innerhalb der SERPs zu bringen. Im Rahmen dieses Versuchsaufbaus sollte die Auswirkung von Deep-Links auf das Ranking der Start- bzw. Hauptseite einer Website untersucht werden.

55 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 46 Gewichtung des PageRank eingehender Links Wie in Kapitel 5 besprochen stellt sich bei diesem (potentiellen) Qualitätskriterium die Frage, ob wenige eingehende Links mit hohen PageRank- Werten gegenüber mehreren Links von Websites mit geringeren PageRank- Werten im Vorteil sind, wenn beide Möglichkeiten rein rechnerisch nach der von Sergey Brin und Lawrence Page aufgestellten Formen zur Berechnung des PageRank [BP98] das gleiche Ergebnis aufweisen. Aufgrund bislang fehlender Nachweise kann diese Frage nicht eindeutig beantwortet werden und ist aus diesem Grund Inhalt des praktischen Teils dieser Arbeit. Social Bookmarks Links von Social Bookmarking Seiten weisen Großteils das nofollow Attribut auf, welches eine Weitergabe von Link-Popularität verhindert. Es gibt jedoch Meinungen, die dennoch einen Einfluss dieser Links auf das Website- Ranking vermuten. Ob und wenn ja inwieweit Social Bookmarks trotz nofollow Attribut zur Steigerung der Link-Popularität beitragen können war ein weiterer Teil des Versuchsaufbaus. IP-Popularität Die Wirksamkeit der sogenannten IP-Popularität steht aus heutiger Sicht laut Aussagen von Experten wie Sebastian Erlhofer [Erl06] außer Frage, der konkrete Einfluss von Links aus dem gleichen oder einem ähnlichen IP- Bereich versus Links aus einem unterschiedlichen IP-Bereich ist jedoch nicht geklärt. Da es sich hierbei um ein in der Praxis bedeutsames Qualitätskriterium der Offpage-Optimierung handelt (man denke an die Frage, ob es sinnvoll ist, die eigenen Websites untereinander zu verlinken), wurde es in die Reihe der zu untersuchenden Kriterien aufgenommen.

56 6. Praktischer Versuchsaufbau zur Offpage-Optimierung Auswahl der Testwebsites Die Auswahl der Testwebsites, die zur Untersuchung der oben genannten Qualitätskriterien verwendet wurden, erfolgte aufgrund mehrerer Voraussetzungen: ˆ Art des Inhalts Die Art des Inhalts der Websites musste so gestaltet sein, dass dieser ohne aufwändige Einarbeitung erstellt werden kann. Dies war notwendig, da Inhalt nicht von anderen Websites kopiert werden kann, ohne sogenannten Duplicate Content 1 zu erzeugen. Aus diesem Grund wurden mir vertraute Themen gewählt. ˆ Umfang der Website Die beiden Testwebsites, welche zur Untersuchung der Indexierungsgeschwindigkeit und des Indexierungsgrades herangezogen wurden, mussten über eine ausreichend große Anzahl an Unterseiten verfügen, um den Verlauf der Indexierung über den gesamten Testzeitraum hinweg zu ermöglichen. Die restlichen Testwebsites sollten bevorzugt über Unterseiten mit einer ausreichend großen Menge an originalem (selbst geschriebenem) Text verfügen. ˆ Keyword-Kombination der Website Der Einfluss von sechs der sieben Qualitätskriterien sollte durch eine Ranking-Analyse für eine bestimmte Keyword-Kombination, die jeweils zwei bzw. drei Testwebsites zugeordnet ist, überprüft werden. Um jedoch in das sichtbare Ranking (bei Google die Positionen 1 bis 1000 in den Suchergebnissen) aufgenommen zu werden, mussten verhältnismäßig einfache (nicht zu stark umkämpfte) Keyword-Kombinationen bzw. darauf abgestimmt die Themen der Testwebsites gewählt werden. So wäre eine Testwebsite zum Thema Versicherungen wohl eine denkbar schlechte Wahl gewesen. Nachfolgend eine tabellarische Auflistung der Testwebsites des Versuchsaufbaus: 1 Als Duplicate Content wird Inhalt einer Website bezeichnet, der in gleicher oder sehr ähnlicher Form bereits auf einer anderen Website (oder unter einer anderen URL der gleichen Website) verfügbar ist. Die Verwendung von Duplicate Content führt meist zu einer Abwertung der betroffenen Seite in den Suchergebnissen, da insbesondere Google den originalen Urheber eines Inhalts (meist die Website, welche über die größte Link- Popularität verfügt) bevorzugt berücksichtigt [Erl06].

57 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 48 Kriterium #1: Indexierungsgeschwindigkeit und Indexierungsgrad Faktor Anmeldung bei Google, Verwendung einer XML-Sitemap Domain Thema Kostenlose Desktop-Hintergründe in versch. Kategorien Umfang 1672 Seiten Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.1: Die Testwebsite

58 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 49 Faktor Keine Anmeldung bei Google, keine XML-Sitemap Domain Thema Kostenlose Desktop-Hintergründe in versch. Kategorien Umfang 1669 Seiten Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.2: Die Testwebsite

59 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 50 Kriterium #2: Unidirektionale und reziproke Links Faktor Ausschließlich reziproke Links Domain Thema Vorstellung von Scifi-Büchern Umfang 5 Seiten Keyword scifi bücher Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.3: Die Testwebsite

60 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 51 Faktor Ausschließlich unidirektionale Links Domain Thema Vorstellung von Scifi-Büchern Umfang 5 Seiten Keyword scifi bücher Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.4: Die Testwebsite

61 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 52 Kriterium #3: Variation der Link-Texte Faktor 95% Unterschiedlichkeit der Link-Texte Domain Thema Vorstellung fantastischer Filme Umfang 5 Seiten Keyword fantastische filme Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.5: Die Testwebsite

62 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 53 Faktor 50% Unterschiedlichkeit der Link-Texte Domain Thema Vorstellung fantastischer Filme Umfang 5 Seiten Keyword fantastische Filme Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.6: Die Testwebsite

63 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 54 Faktor 5% Unterschiedlichkeit der Link-Texte Domain Thema Vorstellung fantastischer Filme Umfang 5 Seiten Keyword fantastische filme Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.7: Die Testwebsite

64 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 55 Kriterium #4: Deep-Links Faktor 50% Deep-Links Domain Thema Vorstellung von Spiele-Klassikern Umfang 5 Seiten Keyword spiele klassiker (top spiele klassiker) Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.8: Die Testwebsite

65 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 56 Faktor Keine Deep-Links Domain Thema Vorstellung von Spiele-Klassikern Umfang 5 Seiten Keyword spiele klassiker (top spiele klassiker) Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.9: Die Testwebsite

66 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 57 Kriterium #5: Gewichtung des PageRank eingehender Links Faktor Wenige PR-starke Links Domain Thema Sammlung von Rock-Songtexten Umfang 5 Seiten Keyword rock songtexte Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.10: Die Testwebsite

67 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 58 Faktor Viele PR-schwache Links Domain Thema Sammlung von Rock-Songtexten Umfang 5 Seiten Keyword rock songtexte Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.11: Die Testwebsite

68 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 59 Kriterium #6: Social Bookmarks Faktor > 20 Social Bookmarks Domain Thema Sammlung von selbstgeschriebenen Testberichten Umfang 5 Seiten Keyword technik testberichte Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.12: Die Testwebsite

69 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 60 Faktor Keine Social Bookmarks Domain Thema Sammlung von selbstgeschriebenen Testberichten Umfang 5 Seiten Keyword technik testberichte Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.13: Die Testwebsite

70 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 61 Kriterium #7: IP-Popularität Faktor Ausschließlich Links aus gleichem IP-Bereich Domain Thema Chuck Norris Witze Umfang 5 Seiten Keyword chuck norris sprüche Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.14: Die Testwebsite

71 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 62 Faktor Keine Links aus gleichem IP-Bereich Domain Thema Chuck Norris Witze Umfang 5 Seiten Keyword chuck norris sprüche Hosting CYBERhouse GmbH, IP: Abbildung 6.15: Die Testwebsite

72 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 63 Wie aus der oben aufgelisteten Übersicht hervor geht wurden für Kriterium #1 die beiden Faktoren Verwendung einer XML-Sitemap und Anmeldung bei Google kombiniert, da sich diese gegenseitig nicht beeinflussen und dadurch die erforderliche Anzahl an Testwebsites so gering wie möglich gehalten werden konnte. Kriterium #4 erforderte wiederum die Erhöhung der unterschiedlichen Faktoren auf drei, da hier vermutet wurde, dass weder eine zu große als auch zu kleine Variation der Link-Texte zielführend ist Technische Voraussetzungen Für das Hosting der 15 Testwebsites wurde ein virtueller Server von Host- Europe verwendet werden, welcher bereits vor Beginn der Diplomarbeit zur Verfügung stand. Dieser ermöglicht neben der Unterstützung von Web- Technologien wie PHP5, mysql, mod rewrite, etc. auch die Verwaltung von beliebig vielen unterschiedlichen Domains und physikalischen Hostings 2. Alle erforderlichen Domains (siehe oben) wurden während der Planungsphase auf ihre Verfügbarkeit überprüft und vor Versuchsbeginn reserviert Analyse des Versuchsaufbaus Vor Beginn des Versuchsaufbaus musste spezifiziert werden, welche Eigenschaften der Testwebsites auf welche Art und zu welchen Zeitpunkten analysiert werden sollten. Während bei Kriterium #1 besonders auf die Anzahl der indexierten Seiten und auch auf den Zeitpunkt der erstmaligen Indexierung geachtet wurde, war bei allen weiteren Kriterien zusätzlich das Ranking der jeweiligen Keywords von Interesse. Einzig bei Kriterium #1 wurde auch auf die Anzahl der indexierten Bilder in der Google-Bildsuche geachtet. Der Zeitpunkt der erstmaligen Indexierung einer Testwebsite wurde sowohl durch die Abfrage site:www.domainname.de auf welche alle indexierten Seiten der eingegebenen Domain anzeigt, als auch durch die Benutzung der Google Webmaster Tools 3 ab Anmeldung der jeweiligen Testwebsite bei Google täglich überprüft. Ab der Aufnahme einer Testwebsite in den Google-Index wurde drei mal wöchentlich (jeweils Montags, Mittwochs und Samstags) die Anzahl ihrer indexierten Seiten über die bereits erwähnte Abfrage kontrolliert. Die notwendige Analyse des Keyword-Rankings, der Bildsuche, der ein- und ausgehenden Links sowie der PageRank-Werte der Testwebsites erfolgte ebenfalls drei mal wöchentlich mit der webbasierten Analyse- Software SEA Tools v2, welche als Vorprojekt zu dieser Diplomarbeit entwickelt wurde. Diese Ergebnisse wurden jeweils nach Ausführung ei- 2 Im Zusammenhang mit der Server-Administrationssoftware Plesk bezeichnet der Begriff physikalisches Hosting einen separierten Bereich auf dem Datenträger des Servers, der als Speicherplatz einer bestimmten Domain zugeordnet wurde. 3

73 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 64 ner Analyse in eine mysql-datenbank gespeichert. Der technische Hintergrund hierzu wird in Kapitel 7 beschrieben. Alle Abfragen der Keyword- Analyse wurden an gerichtet, alle Abfragen der Bildsuche- Analyse an images.google.com. Die Anzahl der indexierten Seiten wurde auf überprüft. 6.2 Durchführung Nach Abschluss der Planung des Versuchsaufbaus konnte mit dessen Durchführung begonnen werden. Die einzelnen hierzu notwendigen Schritte werden nachfolgend erläutert Umsetzung der Testwebsites Alle Testwebsites wurden unter Verwendung von XHTML 1.0 Transitional sowie CSS erstellt. Die Gestaltung ist bewusst einfach, aber ansprechend gehalten, wozu auch die Implementierung einer textbasierten Navigation in Form einer per CSS formatierten Liste zählt. Die Testwebsites und welche beide Kriterium #1 behandeln und deshalb eine große Menge an Unterseiten benötigen, machen Gebrauch von PHP5 und mysql, um dynamisch die einzelnen Seiten der Wallpaper-Kategorien zu erstellen; alle anderen Testwebsites bestehen aus fünf statischen PHP-Seiten mit zusätzlichem Impressum. Alle Textinhalte der Testwebsites wurden entweder selbst geschrieben oder (im Falle von Kriterium #5 und #7) so angeordnet, dass diese von Suchmaschinen nicht als Duplicate Content gewertet werden. Die Bildinhalte der Testwebsites und stammen von Onpage-Optimierung der Testwebsites Um die Ausgangssituation vor Beginn des Versuchs zu verbessern wurde bei der Umsetzung der Testwebsites auf die wichtigsten Kriterien zur Onpage- Suchmaschinenoptimierung geachtet. Folgende Maßnahmen wurden getroffen: ˆ Domain Bei den Domains der Testwebsites handelt es sich um Keyword- Domains. Dabei wurden die Domains so gewählt, dass sich diese zwar weit genug voneinander unterscheiden, um von Google nicht als Duplicate Content eingestuft zu werden, aber trotzdem kein Vorteil für die eine als auch für die andere Testwebsite entsteht. Dies wurde in den meisten Fällen durch die Verwendung neutraler, Keyword-fremder Zu-

74 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 65 satzwörter wie seite, zone oder info erreicht. Die TLD 4.de stimmt darüber hinaus mit dem deutschsprachigen Inhalt der Websites überein. ˆ URL-Struktur Wie in Kapitel 3 erwähnt stellt neben der Domain auch die weitere URL-Struktur ein bedeutendes Kriterium der Onpage-Optimierung dar. Aus diesem Grund wurden alle dynamisch erstellten Unterseiten mittels dem Apache-Modul mod rewrite derart umgeschrieben, damit aus diesen sowohl für den Benutzer als auch die Suchmaschine statische HTML-Seiten mit eindeutiger und sprechender URL werden. Tatsächlich statische PHP-Seiten wurden per mod rewrite als sinnvoll benannte HTML-Seiten zugänglich gemacht. ˆ Website-Titel Da der Website-Titel neben der Domain bzw. URL mit den höchsten Stellenwert für die Onpage-Optimierung einer Website hat wurde dieser bei allen Testwebsites mit den jeweiligen Keywords aufgebaut. ˆ Navigation und interne Verlinkung Um die Indexierung der Website zu erleichtern machen alle Testwebsites Gebrauch von einer textbasierten Navigation sowie einer durchdachten internen Verlinkung. So ist jede Unterseite direkt über einen Link auf dem Logo der jeweiligen Website mit der Hauptseite verbunden. ˆ Inhalt Bei Erstellung des Inhalts wurde darauf geachtet, dass dieser sowohl auf der Startseite als auch auf allen relevanten Unterseiten eine gewisse Mindestlänge hat. Zudem bewegt sich die Keyword-Dichte der jeweiligen Schlüsselwörter insbesondere auf der Startseite zwischen 3% und 7% und ist bei allen einem Kriterium zugeordneten Testwebsites gleich groß. ˆ Duplicate Content Zur Vermeidung von Duplicate Content werden Anfragen, welche ohne www in der URL gestellt werden, per mod rewrite an die korrekte URL inklusive www weitergeleitet. Ebenso erfolgt eine Weiterleitung von /index.html auf das Root-Verzeichnis der Domain. Auf diese Weise wird die Erreichbarkeit des selben Inhalts unter zwei oder mehr unterschiedlichen URLs (und somit DC) unterbunden. 4 Als TLD bzw. Top Level Domain wird der letzte Bestandteil des Domainnamens bezeichnet. Hierbei handelt es sich häufig auch um eine Landeskennung, wie z. B. de für Deutschland (http://de.wikipedia.org/wiki/top-level-domain).

75 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 66 Vergleichbarkeit Um den Einfluss anderer Faktoren auf die Analyse-Ergebnisse der einzelnen Testwebsites so gering wie möglich zu halten musste bei deren Umsetzung auf eine Vergleichbarkeit der zwei bzw. drei Websites geachtet werden, welche einem Kriterium zugeordnet sind. Insbesondere mussten die Testwebsites in Domainnamen, URL-Struktur, Website-Titel, Website-Aufbau und -Umfang sowie Inhalt samt Textlänge und Keyword-Dichte weitestgehend vergleichbar sein. Alle diese Voraussetzungen wurden im Zuge der Erstellung berücksichtigt und erfüllt Linkaufbau Mit dem Linkaufbau für die Testwebsites wurde unmittelbar nach Aufnahme in den Google-Index begonnen. Als Linkquellen dienten Webkataloge, welche jedoch aufgrund der jeweiligen Offpage-Kriterien nur für einige wenige Testwebsites als Grundrauschen herangezogen werden konnten, sowie größtenteils freiwillige direkte Links von anderen Websites. Der Kontakt zu den Website-Betreibern bestand hierbei bereits oder wurde über Suchmaschinenoptimierungs-Foren hergestellt. Alle diese eingehenden und ausgehenden Links wurden gründlich geplant, damit die Linkstruktur jeder Testwebsite ihrem jeweiligen Offpage-Kriterium entspricht, sowie in die Linkpartner-Verwaltung von SEA Tools v2 eingetragen. Beachtet werden musste neben der korrekten Linksetzung auch die Geschwindigkeit des Linkaufbaus. Um ein natürliches Wachstum der Linkstruktur der Testwebsites zu gewährleisten erstreckte sich die Phase des Linkaufbaus von der ersten Woche bis drei Wochen vor Ende des Versuchsaufbaus. Der detaillierte Verlauf des Linkaufbaus für alle Testwebsites kann dem Anhang dieser Diplomarbeit entnommen werden. Berechnung des PageRank für den Linkaufbau Um beim Linkaufbau das Offpage-Kriterium Gewichtung des PageRank eingehender Links der beiden Testwebsites und erfüllen zu können musste der theoretische Page- Rank der beiden Testwebsites basierend auf den eingehenden Links berechnet werden. Für diese Berechnung wurde mangels Alternativen im Web ein selbstentwickeltes PHP-Script 5 verwendet, welches die Berechnung des theoretischen PageRank einer Website basierend auf bis zu 20 eingehenden Links (jeweils unter Angabe des PageRank und der Gesamtanzahl an Links der linkgebenden Seite) vornimmt. Grundlage des Scripts stellt der bereits in Kapitel 2 vorgestellte PageRank-Algorithmus dar. Die Umwandlung des so berechneten PageRank in den uns bekannten PageRank, wie er u. a. in der 5

76 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 67 Google-Toolbar angezeigt wird, erfolgt mit einer logarithmischen Basis von 6. Die Ergebnisse der Berechnungen für die beiden Testwebsites und deckten sich mit dem PageRank- Wert, der beiden Testwebsites im Zuge des PageRank-Updates im Mai 2009 zugewiesen wurde. Vergleichbarkeit Ebenso wie bei der Onpage-Optimierung musste auch bei der Offpage- Optimierung der Testwebsites deren Vergleichbarkeit gewährleistet sein. Folgende Aspekte wurden dabei besonders berücksichtigt: ˆ Die Anzahl der eingehenden sowie der ausgehenden Links der einem Kriterium zugeordneten Testwebsites muss identisch sein. ˆ Die Quellen der eingehenden Links müssen pro Testwebsite und Kriterium identisch sein. ˆ Die Qualität der eingehenden Links muss für alle Testwebsites eines Kriteriums möglichst vergleichbar sein. Dies betrifft insbesondere den Link-Text sowie die Positionierung des Links auf der linkgebenden Website. Je nach Offpage-Kriterium einer Testwebsite konnten diese Aspekte jedoch nicht immer vollständig berücksichtigt werden. So sieht Kriterium #3 eine Variation der Link-Texte vor, Kriterium #4 beinhaltet einen 50%igen Anteil von Deep-Links und Kriterium #5 schließt eine Gleichheit der Linkquellen der Testwebsites vollkommen aus Zeitlicher Ablauf Die beiden Kriterium #1 zugeordneten Testwebsites wurden als am wenigsten zeitkritisch eingestuft und in KW15 bei Google angemeldet bzw. mit einem eingehenden Link versehen. Alle anderen Testwebsites wurden bereits in KW13 6 bei Google angemeldet und ab KW14 drei mal wöchentlich (jeweils Montags, Mittwochs und Samstags) analysiert. Die PageRank-Analyse fand einmal wöchentlich (Samstags) statt. Der Testzeitraum endete mit KW26 und erstreckte sich somit über 13 Wochen. 6.3 Ergebnisse und Auswertung Im Laufe des Versuchszeitraums konnten insgesamt 187 eingehende Links von größtenteils fremden, jedoch auch eigenen Websites und innerhalb der 6 Ausgenommen diese Testwebsite wurde in KW14 bei Google angemeldet.

77 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 68 Testwebsites, gesetzt werden. Nachfolgend werden die Ergebnisse aller sieben Offpage-Kriterien vorgestellt und ausgewertet. Eine tabellarische Auflistung der Ergebnisse sowie der Linkaufbau einer jeden Testwebsite befindet sich im Anhang dieser Arbeit Indexierungsgeschwindigkeit und Indexierungsgrad Die Anmeldung der Website bei Google erfolgte am ; zeitgleich wurden auf diese Website und auf zwei Links gesetzt. Bereits am darauf folgenden Tag waren beide Websites mit einer Seite im Google-Index vertreten. Zusätzlich wurde gleich zu Beginn des Testzeitraums für eine vollständige XML-Sitemap in den Google Webmaster Tools eingereicht. Die Anzahl der indexierten Seiten und Bilder in der Google-Bildsuche wurden drei mal wöchentlich überprüft. Abbildung 6.16: Die Anzahl der indexierten Seiten. Abbildung 6.17: Die Anzahl der indexierten Bilder in der Google- Bildsuche.

78 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 69 Wie aus Abbildung 6.16 ersichtlich wurden maximal 317 Seiten der Testwebsite, für die eine XML-Sitemap eingereicht wurde, indexiert. Dem gegenüber stehen maximal 187 indexierte Seiten der Testwebsite ohne XML- Sitemap, was einem Unterschied von 70% entspricht. Die Verwendung einer XML-Sitemap scheint also tatsächlich zu einer besseren Indexierungsgeschwindigkeit und einem höheren Indexierungsgrad zu führen, wobei nach wie vor die Anzahl der eingehenden Links eine Rolle spielt und im Falle der beiden Testwebsites eine weitere Aufnahme von Seiten in den Index zu begrenzen schien. Die Ergebnisse der Bildsuche-Analyse (siehe Abbildung 6.17) zeigen ein gegenteiliges Bild (maximal 71 indexierte Bilder gegenüber maximal 284 indexierte Bilder) und lassen den Schluss zu, dass die Einreichung einer XML-Sitemap und ein höherer Indexierungsgrad nicht zwangsläufig auch zu einer größeren Anzahl an Bildern in der Google-Bildsuche führen müssen. Mit dem PageRank-Update in KW14 erhielten beide Testwebsites einen PageRank von 0, mit dem Update in KW22 jeweils einen PageRank von Unidirektionale und reziproke Links Beide Testwebsites wurden am bei Google angemeldet; während erstmals am im Index vertreten war, wurde bereits vor der Anmeldung am indexiert. Zu diesem Zeitpunkt war weder ein eingehender Link auf die Testwebsite gesetzt noch wurde diese in anderer Weise bekannt gemacht. Warum die Indexierung bereits vier Tage vor der Anmeldung erfolgte konnte nicht eruiert werden. Während des Linkaufbaus wurden jeweils 14 eingehende Links platziert, die eine Variation der Link-Texte von 30% aufwiesen. Der meistgenutzte Link-Text entsprach dabei dem Keyword scifi bücher der Testwebsites. Die Backlinks von wurden dabei immer direkt auf die verweisende Seite gesetzt, um ausschließlich reziproke Links zu erzeugen. Alle Backlinks der Website welche nur unidirektionale Links enthielt, wurden hingegen auf beliebige andere Websites gesetzt. Die Gesamtzahl der ausgehenden Links beider Websites war identisch.

79 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 70 Abbildung 6.18: Die Keyword-Positionen der Testwebsites. Der Vergleich der Keyword-Positionen beider Testwebsites (siehe Abbildung 6.18) zeigt einen leichten Vorteil über den gesamten Zeitraum für welche jedoch ausschließlich reziproke Links verwendet. Die Verwendung unidirektionaler Links auf der zweiten Website scheint zumindest bei einer Anzahl von 14 eingehenden Verweisen keinen Vorteil zu haben. Beide Testwebsites erhielten zunächst einen PageRank von 0, mit dem nächsten Update eine PageRank von Variation der Link-Texte Auch für diese drei Testwebsites erfolgte die Anmeldung bei Google am ; innerhalb weniger Tage (im Zeitraum bis ) wurden diese indexiert. Insgesamt konnten 25 eingehende Links, u. a. auch aus dem gleichen IP-Bereich, jedoch immer unidirektional, gesetzt werden. Dabei wurde eine Variation der Link-Texte von 87% (www.fantastische-filme-seite.de), 44% (www.fantastische-filmezone.de) und 4% (www.fantastische-filme-info.de) erreicht. Abbildung 6.19: Die Keyword-Positionen der Testwebsites.

80 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 71 Die Ergebnisse der Ranking-Analyse für das Keyword fantastische filme fallen wie in Abbildung 6.19 ersichtlich auf den ersten Blick entsprechend der Erwartungen aus. Je häufiger eine der drei Testwebsites die Wortkombination fantastische filme als Link-Text verwendete (was einer geringeren Variation entspricht), desto besser war ihr Ranking für dieses Keyword. Die Website mit ausschließlich identischen Link- Texten konnte demzufolge über den gesamten Testzeitraum das beste Ergebnis verzeichnen. Überraschend ist dabei jedoch die Tatsache, dass selbst bei 25 eingehenden Links (inklusive einiger Sitewide-Links 7 ) ohne Variation der Link-Texte keine negativen Auswirkungen auf das Ranking feststellbar waren. Alle Testwebsites erhielten beim ersten Update einen PageRank von 0, nach acht Wochen eine PageRank von Deep-Links Beide Testwebsites wurden am bei Google angemeldet und am bzw erfolgreich indexiert. Im Laufe des Linkaufbaus wurden 13 eingehende Verweise, welche bis auf einen Link alle unidirektional waren, platziert. Während alle eingehenden Links der Testwebsite auf die Startseite verwiesen, variierte deren Ziel-URL bei zu 38%, da auch Deep-Links auf Unterseiten gesetzt wurden. Abbildung 6.20: Die Keyword-Positionen der Testwebsites. Wie aus Abbildung 6.20 hervor geht konnte für beide Testwebsites für die ursprünglich festgelegte Keyword-Kombination spiele klassiker kein Ranking erzielt werden. Aus diesem Grund wurde die Keyword-Kombination in KW22 um das neutrale Schlüsselwort top ergänzt, was zu einem verwertbaren Ranking beider Testwebsites führte. Dabei kann in dem vergleichsweise 7 Als sitewide wird ein Link bezeichnet, welcher in identischer Form nicht nur auf einer Seite einer Website, sondern auf vielen oder gar allen Unterseiten enthalten ist. [Cal05]

81 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 72 kurzen Ergebniszeitraum ein Vorteil für die Testwebsite ohne Deep-Links erkannt werden, was durch deren höhere Link-Popularität der Startseite begründet werden kann. Die Verwendung von Deep-Links scheint demnach bei kleinen Websites mit wenigen eingehenden Links keinen Vorteil zu bringen; bei größeren Websites mit vielen Unterseiten dürften Deep-Links jedoch wie in Kapitel 5 beschrieben eine probate Möglichkeit darstellen, die Link- Popularität zu verteilen und einen natürlichen Linkaufbau zu simulieren. Beide Testwebsites erhielten beim ersten PageRank-Update im Versuchszeitraum einen Wert von 0, beim zweiten Update einen Wert von 2 (www.spiele-klassiker-seite.de) bzw. 3 (www.spiele-klassiker-zone.de) Gewichtung des PageRank eingehender Links Auch diese Testwebsites wurden am bei Google angemeldet und wenige Tage später (ohne eingehende Links) am bzw indexiert. Da das zu untersuchende Offpage-Kriterium die Gewichtung des PageRank eingehender Links war konnten für beide Testwebsites wie sonst im diesem Versuchsaufbau üblich keine gleichwertigen Links gesetzt werden. Vielmehr wurden für wenige Links mit einem verhältnismäßig hohen PageRank-Wert und für mehrere Links mit niedrigeren PageRank-Werten gesetzt. Um dennoch Vorteile für eine der beiden Websites zu minimieren wurde mittels des bereits oben beschriebenen Scripts der theoretische PageRank beider Seiten berechnet, wobei bei vier eingehenden Links auf einen Wert von 2,6 kam und für bei 12 eingehenden Links ein Wert von 1,96 ermittelt wurde. Beide Werte waren ab KW22 gültig. Abbildung 6.21: Die Keyword-Positionen der Testwebsites. Zusammenfassend kann das Ergebnis der Keyword-Analyse beider Websites nach anfänglichen Schwankungen von als ausgeglichen bezeichnet werden, wobei aufgrund des etwas höheren rechnerischen PageRank-Wertes von diese am Ende des

82 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 73 Versuchszeitraums leicht im Vorteil war. Ein deutlich besseres Ergebnis aufgrund im Durchschnitt höherer PageRank-Werte eingehender Links kann jedoch nicht ausgemacht werden (siehe Abbildung 6.21). Dies lässt die Vermutung zu, dass bei einer rechnerisch gleich großen Link-Popularität weniger die Höhe des PageRanks eingehender Links sondern vielmehr der Status der linkgebenden Website (handelt es sich um eine Experten-Website oder nicht?) entscheidend ist (siehe Kapitel 2). Während beide Testwebsites beim ersten Update einen PageRank von 0 erhielten, wurde dieser bei im Mai 2009 auf 3 erhöht (per Script berechneter Wert zu diesem Zeitpunkt: 2,95). Der PageRank von blieb bei 0 (berechneter Wert: 0,32), da neue eingehende Links erst nach dem Update gesetzt wurden Social Bookmarks Wenige Tage nach der Anmeldung bei Google am waren beide Testwebsites im Index vertreten ( bzw ) und wurden mit jeweils zwei eingehenden unidirektionalen Links aus dem gleichen IP- Bereich versorgt, um die Link-Popularität auf ein solides Niveau zu bringen. Zusätzlich wurden auf über den gesamten Versuchszeitraum in zwei Intervallen insgesamt 17 Social Bookmarks mit nofollow-attribut gesetzt, die von populären und in erster Linie deutschsprachigen Diensten kamen. Abbildung 6.22: Die Keyword-Positionen der Testwebsites. Wie aus Abbildung 6.22 ersichtlich ist zeigten beide Testwebsites für die Keyword-Kombination technik testberichte über den gesamten Versuchszeitraum annähernd gleiche Ergebnisse. Auffällig ist jedoch das deutlich schlechtere Ranking von ab KW15, welches sich erst ab KW19 wieder erholte. Es liegt die Vermutung nahe, dass es sich hierbei um eine Reaktion auf das erste Intervall an Social Bookmarks für diese Testwebsite handelt, welche zu Beginn von KW15 eingetragen wur-

83 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 74 den. Wiederholt werden konnte dieser Effekt mit der zweiten Eintragung von Social Bookmarks jedoch nicht. Davon abgesehen scheinen Social Bookmarks mit nofollow-attribut wie erwartet zumindest in einem vergleichbar großen Ausmaß wie in diesem Versuchsaufbau keinen positiven Einfluss auf das Ranking einer Website zu haben. Beide Testwebsites konnten ihren PageRank-Wert von 0 auf 3 erhöhen IP-Popularität Die erste Testwebsite dieses Kriteriums, wurde am bei Google angemeldet und am erstmalig indexiert. Die zweite Testwebsite, konnte am angemeldet werden, was zu einer Aufnahme der Website in den Google-Index am führte. Während des Linkaufbaus wurden jeweils 17 eingehende, unidirektionale Links gesetzt, die aus dem gleichen IP-Bereich wie stammten. Da die Testwebsite auf einem anderen Server gehostet wurde, unterschied sich deren IP-Adresse grundlegend von den IP-Adressen der eingehenden Links. Auf diese Weise konnte das Offpage-Kriterium bei gleicher Link-Struktur beider Testwebsites erfüllt werden. Abbildung 6.23: Die Keyword-Positionen der Testwebsites. Zu Beginn der Keyword-Analyse (siehe Abbildung 6.23) zeigte sich ein Vorteil für die Testwebsite mit Links aus einem unterschiedlichen IP-Bereich. Deren Ranking verschlechterte sich jedoch schlagartig ab KW17 und verbesserte sich erst wieder gegen Ende der Versuchszeitraums. Die Testwebsite welche ausschließlich eingehende Links aus ihrem IP-Bereich aufwies, konnte hingegen über den gesamten Zeitraum des Versuchsaufbaus ein gutes Ranking erzielen, welches sich stetig verbesserte, die letzten beiden Wochen jedoch trotzdem etwas schlechter war als das Ranking von

84 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 75 Zusammenfassend kann gesagt werden, dass Links aus dem gleichen IP- Bereich scheinbar nicht so schlecht sind wie ihr Ruf und auch zu einem guten Ranking führen können. Die sogenannte IP-Popularität wie u. a. von André Moritz beschrieben [Mor06] dürfte zwar tatsächlich von Google angewendet werden, führt jedoch derzeit in keinster Weise zu einer völligen Abwertung betroffener Links.

85 Kapitel 7 Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse Die Keyword-, Bildsuche- und Link-Analyse des praktischen Versuchsaufbaus dieser Arbeit wird mit Hilfe der im Rahmen der letzten beiden Semesterprojekte entwickelten Webapplikation zur Suchmaschinen-Analyse SEA Tools v2 realisiert, welche zum Download bereit steht 1. Dieses Kapitel soll kurz den technischen Hintergrund der drei Analyse-Varianten erläutern. 7.1 Keyword-Analyse mit SEA Tools v2 Die Keyword-Analyse von SEA Tools v2 (siehe Abbildung 7.1) ermöglicht es, die Rankings bzw. Positionen von Keywords einer Website mit verschiedenen Suchoptionen wie der verwendeten TLD 2, der Option Seiten auf Deutsch oder der Suchtiefe in der Google-Suche festzustellen und diese in der Datenbank zu speichern. Zu diesem Zweck wird aus jeder eingetragenen Abfrage für eine Website mittels der PHP-Funktion fopen() die passende Suchergebnis-Seite von Google geladen und auf die URL der eingetragen Website durchsucht. Es werden Seite für Seite alle Suchergebnis-Seiten (mit max. 10 Ergebnissen pro Seite) durchsucht, bis die URL der Website gefunden wurde, die eingetragene Suchtiefe der Abfrage überschritten ist oder keine Ergebnisse mehr vorhanden sind. Wurde die URL der Website gefunden, wird für diese das Ranking bzw. die Position der Website für die Abfrage berechnet. Jedes Ergebnis wird sofort per flush() ausgegeben, so dass sofort Ergebnisse sichtbar 1 2 Die Suchergebnisse für eine Anfrage unterscheiden sich teils erheblich je nach verwendeter Google-TLD wie z. B. google.at, google.de oder google.com. 76

86 7. Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse 77 sind, auch wenn die Keyword-Analyse mitunter mehrere Minuten dauern kann. Bei der Keyword-Analyse ist zu beachten, dass diese Funktion nicht ganz unproblematisch ist, da je nach Anzahl an eingetragenen Websites und Abfragen und dementsprechend benötigten Anfragen an Google es durchaus vorkommen kann, dass Google weitere Anfragen vom Webserver, auf dem SEA Tools v2 installiert ist, als Spam wertet und für eine bestimmte Zeit (mehrere Stunden, einen Tag) sperrt. In praktischen Tests hat sich gezeigt, dass die maximale Anzahl an Anfragen in kurzer Zeit bei ca liegt. Abbildung 7.1: Das Ergebnis einer Keyword-Analyse mit SEA Tools v Bildsuche-Analyse mit SEA Tools v2 Bei der Bildsuche-Analyse (siehe Abbildung 7.2) werden mittels der PHP- Funktion fopen() vier Abfragen an images.google.com gestellt, in denen nach extra großen, großen, mittelgroßen und kleinen Bildern für die URL der entsprechenden Website gesucht wird. Die Anzahl der eingetragenen Bilder für jede der vier Größen wird ausgegeben und in der Datenbank gespeichert. Darüber hinaus wird aus den vier Werten auch die Gesamtanzahl an Bildern der Website, welche sich in der Google-Bildsuche befinden, ausgegeben und in die Datenbank eingetragen.

87 7. Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse 78 Wie sich bei Kombination der Bildsuche- mit einer Besucher-Analyse 3 gezeigt hat sind besonders sehr große und große Bilder für den überwiegenden Teil der über die Bildsuche generierten Besucher von Bedeutung. Abbildung 7.2: Das Ergebnis einer Bildsuche-Analyse mit SEA Tools v Link-Analyse mit SEA Tools v2 Die Link-Analyse stellt eine Erweiterung des Linkpartner-Managements (siehe Abbildung 7.3) von SEA Tools v2 dar und ist in vier Bereiche unterteilt: ˆ Verhältnis reziproker zu nicht reziproken Links ˆ Link-Texte ˆ PageRank-Werte der Linkpartner ˆ Links zu Alle vier Kriterien der Link-Analyse werden wie auch die Ergebnisse der Ranking- und Bildsuche-Analyse mit Flash-basierten Diagrammen dargestellt und beinhalten darüber hinaus einen über mehrere Websites hinweg vergleichbaren Zahlenwert. Während das Verhältnis der reziproken zu den nicht reziproken Links im Format n:1 bzw. 1:n dargestellt wird, wird der 3 Eine Bildsuche- und Besucher-Analyse wurde über mehrere Monate für die Websites und durchgeführt.

88 7. Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse 79 prozentuale Wert der Kriterien Link-Texte und Links zu (Deep-Links) über folgende Formel (am Beispiel des Kriteriums Link-Texte ) berechnet: Summe der Linktexte V orkommnisse 100/ (7.1) Anzahl der unterschiedlichen Linktexte Welchen Einfluss einige dieser Kriterien letztlich auf den Erfolg der Offpage-Suchmaschinenoptimierung haben sollte mit Hilfe des praktischen Versuchsaufbaus in Kapitel 6 dargelegt werden. Abbildung 7.3: Das Linkpartner-Management von SEA Tools v2 mit Link- Analyse.

Tipps und Tricks der Suchmaschinenoptimierung

Tipps und Tricks der Suchmaschinenoptimierung Tipps und Tricks der Suchmaschinenoptimierung Thomas Kleinert Institut für Wirtschaftsinformatik (IWi) im DFKI 16. Juli 2014 Agenda Was ist Suchmaschinenmarketing? Wie arbeiten Suchmaschinen? On-Page Optimierung

Mehr

Darstellung der Maßnahmen zur Suchmaschinenoptimierung

Darstellung der Maßnahmen zur Suchmaschinenoptimierung Darstellung der Maßnahmen zur Suchmaschinenoptimierung Ob und an welcher Position eine Seite zu einem bestimmten Suchbegriff in den organischen Suchergebnissen einer Suchmaschine erscheint hängt von sehr

Mehr

Grundlagen der Suchmaschinenoptimierung (SEO)

Grundlagen der Suchmaschinenoptimierung (SEO) Grundlagen der Suchmaschinenoptimierung (SEO) rankingcheck GmbH Inhabergeführte Online Marketing Agentur Fullservice: SEA, Display, Webanalyse, Affiliate, Social Media Gegründet 2005 in Köln CEO Thorsten

Mehr

IHK regional Suchmaschinenoptimierung und -marketing

IHK regional Suchmaschinenoptimierung und -marketing IHK regional Suchmaschinenoptimierung und -marketing Thomas Kleinert Institut für Wirtschaftsinformatik (IWi) im DFKI 27. August 2013 ebusiness-lotse Saar KEG-Saar Projekt ist beendet ebusiness-lotse Saar

Mehr

Black-Hat Search Engine Optimization (SEO) Practices for Websites

Black-Hat Search Engine Optimization (SEO) Practices for Websites Beispielbild Black-Hat Search Engine Optimization (SEO) Practices for Websites Damla Durmaz - 29. Januar. 2009 Proseminar Technisch Informatik Leitung: Georg Wittenburg Betreuer: Norman Dziengel Fachbereich

Mehr

ecommerce Hands On SEO

ecommerce Hands On SEO ecommerce Hands On SEO 15. März 2012 netzblicke Dirk Fuhlhage Agenda 1 Basics 2 Keywords 3 OnPage OpKmierung 4 OffPage OpKmierung 5 SEO Monitoring 6 SEO Trends 7 Hands On SEO 1 Basics Warum SEO und was

Mehr

medani webdesign Webagentur in Wien Gründung: 1998 Suchmaschinenoptimierung: seit 2004

medani webdesign Webagentur in Wien Gründung: 1998 Suchmaschinenoptimierung: seit 2004 medani webdesign Webagentur in Wien Gründung: 1998 Suchmaschinenoptimierung: seit 2004 Weitere Dienstleistungen: Webdesign, Online-Shops, Google AdWords Mitarbeiter: 5 Internet: www.medani.at email: office@medani.at

Mehr

Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe

Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe Inhalt 1. Was ist Suchmaschinenoptimierung? - Definition - Zielsetzung 2. Funktionsweise - Inhalt und Struktur - Eingehende Links 3. Case Studies

Mehr

Industrie- und Handelskammer Stuttgart

Industrie- und Handelskammer Stuttgart Industrie- und Handelskammer Stuttgart SUCHMASCHINEN-OPTIMIERUNG die vorderen Plätze bei Google, Yahoo & Co 1. Über Beyond Media 2. Erste Schritte 3. freundliche 4. Arbeitsweise 5. Bewertungsmethoden 6.

Mehr

Google Wie komme ich nach oben? Bonn, den 08.09.2015 Sabina Bravo Sanchez

Google Wie komme ich nach oben? Bonn, den 08.09.2015 Sabina Bravo Sanchez Google Wie komme ich nach oben? Bonn, den 08.09.2015 Sabina Bravo Sanchez 5.3 Milliarden Suchanfragen in Deutschland pro Monat (lt. Sistrix 2012 geschätzt) Europa ist Googleland Google ist eine Diva! SEM

Mehr

Ebook zur XT:Commerce Onpage Suchmaschinenoptimierung Version 1.1 Autor: Tobias Braun WebTec Braun www.webtec-braun.com

Ebook zur XT:Commerce Onpage Suchmaschinenoptimierung Version 1.1 Autor: Tobias Braun WebTec Braun www.webtec-braun.com Ebook zur XT:Commerce Onpage Suchmaschinenoptimierung Version 1.1 Autor: Tobias Braun WebTec Braun www.webtec-braun.com Inhaltsverzeichnis: 1.0 Einleitung 2.0 Die URLs (mod_rewrite) 3.0 Die Startseite

Mehr

SEO SEARCH ENGINE OPTIMIZATION

SEO SEARCH ENGINE OPTIMIZATION SEO SEARCH ENGINE OPTIMIZATION Warum Suchmaschinenoptimierung? Mehr als 80% der Nutzer kommen über Suchmaschinen und Web-Verzeichnisse zu neuen Websites 33% aller Suchmaschinen User glauben, dass die zuerst

Mehr

Grundlagen und die größten Irrtümer.

Grundlagen und die größten Irrtümer. Nr. SEO für jedermann. Grundlagen und die größten Irrtümer. Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEM) werden immer wieder verwechselt: Doch SEO beschäftigt sich mit der Optimierung

Mehr

SEO Erfolg mit themenrelevanten Links

SEO Erfolg mit themenrelevanten Links Hinweis für Leser Dieser Leitfaden soll Ihnen einen Überblick über wichtige Faktoren beim Ranking und Linkaufbau liefern. Die Informationen richten sich insbesondere an Website-Betreiber, die noch keine

Mehr

Suchmaschinenoptimierung. Grundlagen zur Optimierung der eigenen Internetseite

Suchmaschinenoptimierung. Grundlagen zur Optimierung der eigenen Internetseite Suchmaschinenoptimierung Grundlagen zur Optimierung der eigenen Internetseite Gliederung Überblick Arbeitsweise von Suchmaschinen Internetseiten optimieren No-Gos Praxis Ein Überblick Suchmaschinen Google

Mehr

Bilder SEO. WebMontag 18.06.2012. Thomas Wagner mi-service.de. Mitglied Kreatives Leipzig e.v.

Bilder SEO. WebMontag 18.06.2012. Thomas Wagner mi-service.de. Mitglied Kreatives Leipzig e.v. Bilder SEO Thomas Wagner mi-service.de WebMontag 18.06.2012 Thomas Wagner Diplom-Wirtschaftsingenieur (FH) Womit beschäftige ich mich den ganzen Tag? Konzeptionelles Marketing / Online Marketing Webentwicklung

Mehr

Wer sucht wie nach was?

Wer sucht wie nach was? Wer sucht wie nach was? SEO-Optimierungsvorschläge für Websites auf der Basis von Keyword-Recherche Hamburg, 16.10.2012 Christine Wolgarten. Wer spricht da? Christine Wolgarten 2000-2002 allesklar.de Lektorin

Mehr

Aspekte zur Optimierung Ihrer Webseite für Suchmaschinen

Aspekte zur Optimierung Ihrer Webseite für Suchmaschinen Mai 2009 Sedanstaße 55 30161 Hannover Tel. 0511 982 45 35 Fax 0511 982 45 36 info@smit-und-partner.de www.smit-und-partner.de Partnerschaftsregister 0058 Amtsgericht Hannover Inhalt SUCHMASCHINENOPTIMIERUNG

Mehr

Recommended Search Engine Optimization

Recommended Search Engine Optimization Beispielbild Recommended Search Engine Optimization by Ralf Kuschel Student, Freie Universität Berlin Directory 2 Architektur 3 Architektur Document Index übernimmt die Datenverwaltung teilt Dokumenten

Mehr

Contao SEO: 7 Experten-Tipps

Contao SEO: 7 Experten-Tipps Contao SEO: 7 Experten-Tipps Contao SEO: 7 Experten-Tipps Contao, ehemals bekannt unter dem Namen TYPOlight, ist ein kostenloses Content Management System (CMS) zum Verwalten und Pflegen einer Webpräsenz.

Mehr

Bilder-SEO Tipps. Optimierung von Bildinhalten für Suchmaschinen. Suchmaschinenoptimierung von Bildern

Bilder-SEO Tipps. Optimierung von Bildinhalten für Suchmaschinen. Suchmaschinenoptimierung von Bildern Bilder-SEO Tipps Suchmaschinenoptimierung von Bildern Optimierung von Bildinhalten für Suchmaschinen. System-Voraussetzungen: WebSite mit TYPO3 ab Version 4.2 BlueChip Software GmbH Business Software Web

Mehr

Erfolgreich durch SEO

Erfolgreich durch SEO Erfolgreich durch SEO Release 1.0 Dokumentversion V1.40 Autor Thomas Gorjup INHALTSVERZEICHNIS 1 Einführung... 5 2 Urheberrecht... 6 3 Erfahrungsbericht und Feldstudie... 7 4 Der Anfang... 8 4.1 Suchbegriffe

Mehr

SEO Handbuch. Inhaltsverzeichnis. Redaktionelle Onpageoptimierung... 2 Der rote Faden... 3 Die Stellschrauben im Detail... 4. Die Description...

SEO Handbuch. Inhaltsverzeichnis. Redaktionelle Onpageoptimierung... 2 Der rote Faden... 3 Die Stellschrauben im Detail... 4. Die Description... SEO Handbuch Inhaltsverzeichnis Redaktionelle Onpageoptimierung... 2 Der rote Faden... 3 Die Stellschrauben im Detail... 4 Der Title... 4 Die Description... 4 Content... 4 Überschriften... 4 Anker... 5

Mehr

Onsite-Optimierung. Gibt es keinen doppelten Content auf der eigenen Seite oder Tochterseiten?

Onsite-Optimierung. Gibt es keinen doppelten Content auf der eigenen Seite oder Tochterseiten? Passen Ihre Inhalte zur Thematik/Titel zur Webseite? Gibt es regelmäßig aktuelle Inhalte (Content)? Sind Zielgruppen und Keywords klar definiert? Enthält die Webseite einmalige für die Zielgruppe interessante

Mehr

Herzlich Willkommen zum Workshop Suchmaschinenoptimierung!

Herzlich Willkommen zum Workshop Suchmaschinenoptimierung! Herzlich Willkommen zum Workshop Suchmaschinenoptimierung! Definition: Search Engine Optimization (SEO) ist eine Maßnahme, die dazu dient, Webseiten im Suchmaschinenranking in den unbezahlten Suchergebnissen

Mehr

Content ist King Mit Webseiteninhalt und SEO eine bessere Platzierung erreichen

Content ist King Mit Webseiteninhalt und SEO eine bessere Platzierung erreichen Content ist King Mit Webseiteninhalt und SEO eine bessere Platzierung erreichen Hagen, 14.11.2013 Norbert Speier ebusiness-lotse Münster Agenda Funktionsprinzip Suchmaschine Was kann ich auf der eigenen

Mehr

Suchmaschinenoptimierung 2011. Referent: Dennis Sohm weit gestreut Internet Marketing

Suchmaschinenoptimierung 2011. Referent: Dennis Sohm weit gestreut Internet Marketing Suchmaschinenoptimierung 2011 Referent: Dennis Sohm weit gestreut Internet Marketing Wer steht vor Ihnen? Dennis Sohm + 26 Jahre alt + Seit 2007 im Online Marketing tätig + Seit 2009 Selbständig in den

Mehr

Herzlich willkommen zur Vortragsveranstaltung. Erfolgreich im Meer der Internetseiten

Herzlich willkommen zur Vortragsveranstaltung. Erfolgreich im Meer der Internetseiten Herzlich willkommen zur Vortragsveranstaltung Erfolgreich im Meer der Internetseiten Wer wir sind Gemeinschaftsprojekt von: saarland.innovation&standort e. V. (saar.is) Institut für Wirtschaftsinformatik

Mehr

To be in Google or not to be. Suchmaschinenoptimierung und Suchmaschinenmarketing

To be in Google or not to be. Suchmaschinenoptimierung und Suchmaschinenmarketing To be in Google or not to be Suchmaschinenoptimierung und Suchmaschinenmarketing Das kommt auf Sie zu. Inhaltsverzeichnis. Einleitung Seite 3 Möglichkeiten der Optimierung Seite 5 Ablauf Seite 11 Suchmaschinenmarketing

Mehr

BILDUNG. FREUDE INKLUSIVE. Webkonzeption III - Der Internetauftritt. Suchmaschinenoptimierung. BFI Wien, 03.06.2014

BILDUNG. FREUDE INKLUSIVE. Webkonzeption III - Der Internetauftritt. Suchmaschinenoptimierung. BFI Wien, 03.06.2014 BILDUNG. FREUDE INKLUSIVE. Webkonzeption III - Der Internetauftritt Suchmaschinenoptimierung BFI Wien, 03.06.2014 1 Zeitplan Das haben wir heute vor 08:30h bis 9:45h Grundlagen der Suchmaschinenoptimierung

Mehr

O n l i n e - M a r k e t i n g :

O n l i n e - M a r k e t i n g : O n l i n e - M a r k e t i n g : W i e S i e b e s s e r i m w w w g e f u n d e n w e r d e n k ö n n e n! In Kooperation mit: 04.09.07 / Seite 1 Über uns Gegründet 1999, GmbH seit 2005 Firmensitz: Neuss

Mehr

Einfluss von Social Media auf die Suchmaschinenoptimierung mit spezieller Betrachtung von Google+

Einfluss von Social Media auf die Suchmaschinenoptimierung mit spezieller Betrachtung von Google+ Wirtschaft Lukas Peherstorfer Einfluss von Social Media auf die Suchmaschinenoptimierung mit spezieller Betrachtung von Google+ Bachelorarbeit Peherstorfer, Lukas: Einfluss von Social Media auf die Suchmaschinenoptimierung

Mehr

Inhalt. 1. Einleitung... 3 2. Onpage-Optimierung... 5 3. Offpage-Optimierung... 7 4. Fazit... 11

Inhalt. 1. Einleitung... 3 2. Onpage-Optimierung... 5 3. Offpage-Optimierung... 7 4. Fazit... 11 Inhalt 1. Einleitung... 3 2. Onpage-Optimierung... 5 3. Offpage-Optimierung... 7 4. Fazit... 11 1. Einleitung Hi, mein Name ist Severin Schweiger! Vielen Dank und herzlichen Glückwunsch, dass du dir dieses

Mehr

Checkliste SEO-freundliches Shopsystem. Inhaltsverzeichnis

Checkliste SEO-freundliches Shopsystem. Inhaltsverzeichnis Checkliste SEO-freundliches Shopsystem Für Betreiber eines Onlineshops gibt es viele Dinge zu beachten. Ein wichtiger Besucherkanal sind Suchmaschinen. Auf die folgenden Dinge sollten Sie achten, wenn

Mehr

SEO. Geheimnis PRAXIS. bhv. Tipps, Tricks und Know-how aus der Praxis eines erfahrenen SEO-Experten

SEO. Geheimnis PRAXIS. bhv. Tipps, Tricks und Know-how aus der Praxis eines erfahrenen SEO-Experten bhv PRAXIS Dirk Schiff 2. Auflage Geheimnis SEO Der Turbo für Ihre Webseite: Wie Sie bei Google gefunden werden Neue Kunden und mehr Besucher: Soziale Netzwerke machen s möglich Backlinks, das SEO-Gold:

Mehr

Erfolgreiche Suchmaschinenoptimierung. Christoph Runkel

Erfolgreiche Suchmaschinenoptimierung. Christoph Runkel Erfolgreiche Suchmaschinenoptimierung Christoph Runkel 1 Agenda 2 Bewertungsfaktoren - ONSITE URL Seitentitel HTML-Tags (Überschriften, Aufzählungen) Linktexte Korrektheit des Quelltexts Metatags Dateinamen

Mehr

Maßnahmen zur Verbesserung der Position in Suchmaschinenergebnissen

Maßnahmen zur Verbesserung der Position in Suchmaschinenergebnissen Maßnahmen zur Verbesserung der Position in Suchmaschinenergebnissen Suchmaschinenoptimierung, Eintragen in Suchmaschinen, Suchmaschinenmarketing 1 Inhalt 1. Einführung 2. Optimierung der Webseite 3. Eintragen

Mehr

Tipps rund um die Suchmaschinen- Optimierung

Tipps rund um die Suchmaschinen- Optimierung Tipps rund um die Suchmaschinen- Optimierung Jimdo hat einige praktische Tipps und Wissenswertes rund um das Thema Suchmaschinenoptimierung zusammengestellt. Jeder kann jederzeit einsteigen und seine Seite

Mehr

Alan Webb CEO, ABAKUS Internet Marketing

Alan Webb CEO, ABAKUS Internet Marketing Suchmaschinenoptimierung - aktuelle Trends und Erfolgsfaktoren E-Business-Tag: Online-Marketing - neue Wege zum Kunden Alan Webb CEO, ABAKUS Internet Marketing ABAKUS Internet Marketing > Über 5 Jahre

Mehr

Suchmaschinenoptimierung SEO

Suchmaschinenoptimierung SEO Mai 2013 Bei der Suchmaschinenoptimierung (search engine optimization SEO) wird der Internetauftritt im Hinblick auf Suchmaschinen optimiert. Im Folgenden geben wir Ihnen einige Tipps, die Sie bei der

Mehr

Suchmaschinenoptimierung (SEO) Know-How

Suchmaschinenoptimierung (SEO) Know-How Suchmaschinenoptimierung (SEO) Know-How Zunächst einmal für welche Suchmaschine sollte optimiert werden? Google. Warum? Im deutschen Bereich hat Google bereits einen Marktanteil von 80-93 Prozent. Einer

Mehr

INHALT WEBSEITEN, SOCIAL MEDIA, SUCHMASCHINEN & CO. CAPINIO.DE WARUM INTERNET & ONLINE MARKETING?

INHALT WEBSEITEN, SOCIAL MEDIA, SUCHMASCHINEN & CO. CAPINIO.DE WARUM INTERNET & ONLINE MARKETING? WEBSEITEN, SOCIAL MEDIA, SUCHMASCHINEN & CO. INHALT TIPPS UND TRICKS FÜR DEN ERFOLGREICHEN ONLINE-AUFTRITT Über capinio Internet & Online Marketing Basisarbeit: die eigene Webseite Suchmaschinen Social

Mehr

Suchmaschinen- Optimierung Gestern heute - morgen

Suchmaschinen- Optimierung Gestern heute - morgen Internet-Stammtisch Suchmaschinen- Optimierung Gestern heute - morgen Uwe Stache http://www.ecomm-berlin.de/ Die Themen Warum SEO? Ziel-Definition Verbesserung des Ranking und der Wahrnehmbarkeit in Suchmaschinen

Mehr

Onpage optimierung. Die Inhaltliche Suchmaschinenoptimierung jeder Website!

Onpage optimierung. Die Inhaltliche Suchmaschinenoptimierung jeder Website! Seite 1 von 5 Onpage optimierung Die Inhaltliche Suchmaschinenoptimierung jeder Website! TEIL II Wir beschäftigen uns in diesem Workshop damit, die ausgesuchten Keywords von TEIL I richtig im Inhalt Ihrer

Mehr

IHK24 - Hamburg. SEO Workshop. Uwe Tippmann, Geschäftsführer

IHK24 - Hamburg. SEO Workshop. Uwe Tippmann, Geschäftsführer IHK24 - Hamburg SEO Workshop Uwe Tippmann, Geschäftsführer ABAKUS Internet Marketing GmbH Blumenauer Str. 1 30449 Hannover Tel. +49 (0)511 5 439 43 7 25 Fax +49 (0)511 21 35 96 84 www.abakus-internet-marketing.de

Mehr

Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten

Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten 1. Einleitung Im täglichen Gespräch mit Unternehmen stellen wir als Suchmaschinen-Marketing- Agentur immer häufiger fest, dass Unternehmen

Mehr

Optimieren Sie Ihre n2n Webseite

Optimieren Sie Ihre n2n Webseite N2N Autor: Bert Hofmänner 5.10.2011 Optimieren Sie Ihre n2n Webseite Einer der wichtigsten Faktoren für den Erfolg Ihrer Webseite in Suchmaschinen sind deren Inhalte. Diese können Sie mit einem Content

Mehr

Wie Suchmaschinen von Social Software profitieren

Wie Suchmaschinen von Social Software profitieren Wie Suchmaschinen von Social Software profitieren Dirk Lewandowski Hochschule für Angewandte Wissenschaften Hamburg Fakultät DMI, Department Information Berliner Tor 5, 20249 Hamburg dirk.lewandowski@haw-hamburg.de

Mehr

SEO Workshop. @Uni Köln

SEO Workshop. @Uni Köln SEO Workshop @Uni Köln Über uns gegründet 2004 25 Mitarbeiter Full Service Internetmarketing Suchmaschinenmarketing (SEO, SEA) Social Media Marketing Affiliate Marketing Display Engine Marketing 2 Agenda

Mehr

Suchmaschinen I Suchmaschinenoptimierung I Besucher werden Kunden. Wie werde ich im Internet gefunden!

Suchmaschinen I Suchmaschinenoptimierung I Besucher werden Kunden. Wie werde ich im Internet gefunden! Wie werde ich im Internet gefunden! Funktionsweise von Suchmaschinen? Informationen automatisch sammeln (robots, crawler, spider...) Informationen speichern und bewerten ( Datenbanken) Ergebnisausgabe

Mehr

Suchmaschinenmarketing

Suchmaschinenmarketing 13 Suchmaschinenmarketing 13 Suchmaschinenmarketing Suchmaschinenmarketing oder kurz SEM (als Abkürzung für Search Engine Marketing) ist ein umfangreiches Marketingthema mit vielen Besonderheiten. Zum

Mehr

E-Marketing Day für Hoteliers & Touristiker

E-Marketing Day für Hoteliers & Touristiker E-Marketing Day für Hoteliers & Touristiker Die Hotel-Homepage als Werkzeug für Kundenbindung und Neukundengewinnung - Wertvolle Tipps 1 2 netwerk Firmenprofil Firmengründung 1999 Sitz in Stumm im Zillertal

Mehr

Wie werde ich im Internet gefunden?

Wie werde ich im Internet gefunden? Wie werde ich im Internet gefunden? Wie Sie die Zugriffszahlen auf Ihrer Website erhöhen Bremen - 16. September 2014 Julius Hoyer ebusiness Lotse Osnabrück Ihr Zentrum in der Region Träger: Science to

Mehr

Homepage-Optimierung. Mit der Homepage Kunden gewinnen!

Homepage-Optimierung. Mit der Homepage Kunden gewinnen! Homepage-Optimierung Mit der Homepage Kunden gewinnen! Der heutige Abend... Suchmaschinen Was, Wer, Wie, Warum?!? Was hat das mit mir zu tun? Die eigene Homepage Grundlagen, Aufbau, Struktur, Zielausrichtung

Mehr

SUMAX Search Engine Marketing. Vortrag zum Thema Online Marketing: Chancen und Risiken bei Google & Co.

SUMAX Search Engine Marketing. Vortrag zum Thema Online Marketing: Chancen und Risiken bei Google & Co. SUMAX Search Engine Marketing Vortrag zum Thema Online Marketing: Chancen und Risiken bei Google & Co. Veranstaltung: So verkaufen Sie im Internet: Online-Shops und Bezahlsysteme am 24. November 2011 in

Mehr

SEO Checkliste. 20 wichtige Basispunkte für eine saubere Suchmaschinenoptimierung. Meta Content Technik Struktur Keywords Erreichbarkeit Style Mobil

SEO Checkliste. 20 wichtige Basispunkte für eine saubere Suchmaschinenoptimierung. Meta Content Technik Struktur Keywords Erreichbarkeit Style Mobil SEO Checkliste 20 wichtige Basispunkte für eine saubere Suchmaschinenoptimierung Meta Content Technik Struktur Keywords Erreichbarkeit Style Mobil Seite 1 von 22 1. Ladezeit Eine schnelle Ladezeit ist

Mehr

Suchmaschinenoptimierung und - marketing. Einführung

Suchmaschinenoptimierung und - marketing. Einführung Suchmaschinenoptimierung und - marketing Einführung Wer wir sind Gemeinschaftsprojekt von: Zentrale für Produktivität und Technologie Saar e. V. Institut für Wirtschaftsinformatik (IWi) im Deutschen Forschungszentrum

Mehr

Suchmaschinenoptimierung

Suchmaschinenoptimierung BDS Unternehmerfrühstück PLUS* Köngen - Dienstag, 17. Juni 2014 Johannes C. Laxander Suchmaschinenoptimierung SEO für Kleinunternehmen, Freiberufler und Selbständige -Ansatzpunkte für ein besseres Ranking-

Mehr

Vortrag. Zur Bedeutung des Linkaufbaus bei der Suchmaschinenoptimierung. Stuttgart, den 18.06.2012

Vortrag. Zur Bedeutung des Linkaufbaus bei der Suchmaschinenoptimierung. Stuttgart, den 18.06.2012 Vortrag Zur Bedeutung des Linkaufbaus bei der Suchmaschinenoptimierung Stuttgart, den 18.06.2012 1 Vorstellung: Christian Seifert Alter: 35 Beruf: Vorstandsvorsitzender avenit AG Geschäftsführer MSD GmbH

Mehr

Die Agentur für moderne Öffentlichkeitsarbeit

Die Agentur für moderne Öffentlichkeitsarbeit Die Agentur für moderne Öffentlichkeitsarbeit Alexander Monnerjahn prxpert GmbH INHALT 1. Die eigene Website mehr als nur eine digitale Visitenkarte 2. Gewusst wie Aufbau, Gestaltung, Texte & Bilder 3.

Mehr

Organic Listing. Möglichkeiten und gängige Methoden mit Organic Listing eine hohe Position im Suchmaschinen-Ranking zu erreichen

Organic Listing. Möglichkeiten und gängige Methoden mit Organic Listing eine hohe Position im Suchmaschinen-Ranking zu erreichen Organic Listing Top Position ohne Gegenleistung Möglichkeiten und gängige Methoden mit Organic Listing eine hohe Position im Suchmaschinen-Ranking zu erreichen Übersicht Was bringt die schönste Seite,

Mehr

Suchmaschinen und ihre Architektur. Seminar: Angewandtes Information Retrieval Referat von Michael Wirz

Suchmaschinen und ihre Architektur. Seminar: Angewandtes Information Retrieval Referat von Michael Wirz Suchmaschinen und ihre Architektur Seminar: Angewandtes Information Retrieval Referat von Michael Wirz Ziel Rudimentäre Grundkenntnisse über die Funktionsweise von Suchmaschinen und Trends Einführung in

Mehr

Checkliste SEO-Onpage Optimierung

Checkliste SEO-Onpage Optimierung Checkliste SEO-Onpage Optimierung Vorwort Die Wichtigkeit von Suchmaschinen-Sichtbarkeit für die Generierung von Traffic, Leads und Kunden ist unbestritten. Anders verhält es sich jedoch mit den Faktoren,

Mehr

Ihr Weg in die Suchmaschinen

Ihr Weg in die Suchmaschinen Ihr Weg in die Suchmaschinen Suchmaschinenoptimierung Durch Suchmaschinenoptimierung kann man eine höhere Platzierung von Homepages in den Ergebnislisten von Suchmaschinen erreichen und somit mehr Besucher

Mehr

SEO - Optimierung von Websites für Suchmaschinen

SEO - Optimierung von Websites für Suchmaschinen WWW-Workshop 2005: Suchtechnologien & Web-CD SEO - Optimierung von Websites für Suchmaschinen Universität Zürich, 18.10.2005 Sandra Gubler, unicommunication Agenda 1. Einleitung 2. Verbindliche Regeln

Mehr

Suchmaschinen-Optimierung. SEO-Praxistipps für bessere Rankings

Suchmaschinen-Optimierung. SEO-Praxistipps für bessere Rankings Suchmaschinen-Optimierung SEO-Praxistipps für bessere Rankings SEO-Praxistipps Crawlbarkeit & Indexierung pistoor@mindshape.de 2 #1 Crawler-Steuerung durch robots.txt Crawler schaut in robots.txt-datei,

Mehr

Gesucht und gefunden wie geht s?

Gesucht und gefunden wie geht s? Gesucht und gefunden wie geht s? Osnabrück, den 31. März 2014 Falk Neubert, M.Sc. Wissenschaftlicher Mitarbeiter im Fach BWL/Management Support und Wirtschaftsinformatik / Universität Osnabrück Mitglied

Mehr

SEO - Suchmaschinenoptimierung

SEO - Suchmaschinenoptimierung SEO - Suchmaschinenoptimierung 2-tägiges SEO-Intensiv-Seminar: Mit Suchmaschinenoptimierung (SEO) zum Erfolg im Web! Beschreibung SEO (Suchmaschinenoptimierung) ist ein kritischer Erfolgsfaktor für Websites

Mehr

Im Web gefunden werden

Im Web gefunden werden Existenz 2013 Bad Tölz Im Web gefunden werden Suchmaschinen-Marketing von SEA bis SEO Franz-Rudolf Borsch 1 Die kommenden 45min 1. 2. Sie sind nicht alleine Herkunft der Besucher 3. Suchmaschinen locken

Mehr

Inhalt. First. Max. Linie. Max. Linie. 1 Einführung... 1

Inhalt. First. Max. Linie. Max. Linie. 1 Einführung... 1 First Inhalt Hier Mini IVZ eingeben! Erstellen auf den Arbeitsseiten Abstand untere Tabellenlinie zu Textanfang 1,8 cm 1 Einführung......................................................... 1 (siehe Muster)

Mehr

eco Kompetenzgruppe Online Marketing SEO nach Panda, Penguin & Co.: Warum Social Search die Lösung sein muss Michael Fritz, 18.06.

eco Kompetenzgruppe Online Marketing SEO nach Panda, Penguin & Co.: Warum Social Search die Lösung sein muss Michael Fritz, 18.06. eco Kompetenzgruppe Online Marketing SEO nach Panda, Penguin & Co.: Warum Social Search die Lösung sein muss Michael Fritz, 18.06.2012 Searchmetrics GmbH 2012 Über mich Michael Fritz Online Marketing /

Mehr

Grundlagen Suchmaschinenoptimierung

Grundlagen Suchmaschinenoptimierung Grundlagen Suchmaschinenoptimierung Dülmen, 17.11.2014 Norbert Speier Agenda Funktionsprinzip Suchmaschine OnPage Optimierung OffPage Optimierung Was sollte ich auf gar keinen Fall tun! Fazit 2 Mittelstand-Digital

Mehr

Mobile SEO. Pelle Boese

Mobile SEO. Pelle Boese Mobile SEO Pelle Boese 1. Mobile SEO Eine Definition 2. Das Mobile Internet in Deutschland 3. Mobile Google Suchen 4. Der Mobile Google Index 5. Wie funktioniert Mobile SEO? 2 Mobile SEO Eine Definition

Mehr

Uwe Stache: Suchmaschinenoptimierung. Werkzeuge Methoden - Erfahrungen

Uwe Stache: Suchmaschinenoptimierung. Werkzeuge Methoden - Erfahrungen Uwe Stache: Suchmaschinenoptimierung Werkzeuge Methoden - Erfahrungen Es passt... Ihr Business Unser Beitrag was zusammen gehört! Medien Wirtschaftskompetenz Bewährte Technik Neue Gedanken Wir bauen Portale...

Mehr

Besuchergewinnung über generische Suchergebnisse

Besuchergewinnung über generische Suchergebnisse 1 Besuchergewinnung über generische Suchergebnisse Ziele und Nebenbedingungen Janus Strategie Relevanz Prinzip Potenzial Ermittlung Sofortfrage? Sofortantwort. Search Engine Optimization (SEO) 2 Die Suche

Mehr

Mobile SEO Online-Umsätze vervielfachen MOBILE-SEO. Online-Umsätze vervielfachen. Dr. Jama Nateqi. www.globalseo.pro

Mobile SEO Online-Umsätze vervielfachen MOBILE-SEO. Online-Umsätze vervielfachen. Dr. Jama Nateqi. www.globalseo.pro MOBILE-SEO Online-Umsätze vervielfachen Dr. Jama Nateqi INHALT Überblick Mobile Search Mobile SEO On-Page SEO Off-Page SEO SEO Tools Analyse 20% der Internetnutzung = mobil INFORMATIONS-WEBSEITEN ein Drittel

Mehr

Suchmaschinenoptimierung

Suchmaschinenoptimierung Suchmaschinenoptimierung Wie Sie die Zugriffszahlen auf Ihrer Website erhöhen Bremen, den 16. Januar 2014 Julius Hoyer ebusiness Lotse Osnabrück Ihr Zentrum in der Region Träger: Science to Business GmbH

Mehr

Uwe Stache: Suchmaschinenoptimierung. Werkzeuge Methoden - Erfahrungen

Uwe Stache: Suchmaschinenoptimierung. Werkzeuge Methoden - Erfahrungen Uwe Stache: Suchmaschinenoptimierung Werkzeuge Methoden - Erfahrungen Es passt... Ihr Business Unser Beitrag was zusammen gehört! Medien Wirtschaftskompetenz Bewährte Technik Neue Gedanken Wir bauen Portale...

Mehr

cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 2010 cometis AG

cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 2010 cometis AG cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 Agenda Schritte bei der Suchmaschinenoptimierung 1. Unternehmensanalyse 2. Keyword-Analyse 3. On-Site Optimierung 4. Off-Site

Mehr

Verlinkung von Webseiten

Verlinkung von Webseiten Verlinkung von Webseiten Search Engine Strategies Conference & Expo, München 2007 Alan Webb CEO, ABAKUS Internet Marketing Warum ist Linkaufbau so wichtig? > Folgende Suchmaschinen bewerten Linkpopularität

Mehr

Kurz-Info zum Thema Online-Marketing

Kurz-Info zum Thema Online-Marketing Seite 1 von 7 Kurz-Info zum Thema Online-Marketing Seite 2 von 7 AIDA im Internet Sie kennen AIDA? Attraction (Anziehung), Interest (Interesse wecken), Desire (Wünsche wecken) und Action (Handlung) sind

Mehr

Suchmaschinenoptimierung in Typo 3

Suchmaschinenoptimierung in Typo 3 Suchmaschinenoptimierung in Typo 3 1. Definition Suchmaschinenoptimierung Maßnahmen der Suchmaschinenoptimierung (Search Engine Optimization, SEO ) dienen dazu, dass Webseiten im Suchmaschinenranking auf

Mehr

Effektive Suchmaschinenoptimierung für ein besseres Google-Ranking

Effektive Suchmaschinenoptimierung für ein besseres Google-Ranking Effektive Suchmaschinenoptimierung für ein besseres Google-Ranking Lassen Sie sich von Ihren Kunden finden! Kathrin Schubert M.A. Texterin und Freie Lektorin ADM Metzstr. 35 81667 München Tel. 089 54 80

Mehr

Wie wir d man zu einem Br and?

Wie wir d man zu einem Br and? Wie wir d man zu einem Br and? Gefällt mir SEO Gretus am 7. Januar 2011 10:00 34 Kommentare» Das Thema dieses Jahres scheint `Wie wird man für Google zu einem Brand? zu werden. Im Folgenden eine kurze

Mehr

Suchmaschinenoptimierung. Dr. Lars Göhler

Suchmaschinenoptimierung. Dr. Lars Göhler Suchmaschinenoptimierung Dr. Lars Göhler Suchmaschinenoptimierung search engine optimization (seo) optimiert Websites so, dass sie mit Suchmaschinen gefunden werden erhöht den Wert einer Website ist überlebenswichtig

Mehr

T3 SEO Tipps. On-Page Optimierung für Webtexte, Metatags, URLs und Bilder - direkt in TYPO3. Suchmaschinenoptimierung für TYPO3

T3 SEO Tipps. On-Page Optimierung für Webtexte, Metatags, URLs und Bilder - direkt in TYPO3. Suchmaschinenoptimierung für TYPO3 T3 SEO Tipps Suchmaschinenoptimierung für TYPO3 On-Page Optimierung für Webtexte, Metatags, URLs und Bilder - direkt in TYPO3. System-Voraussetzungen: Website mit TYPO3 BlueChip Software GmbH Business

Mehr

Im Internet gefunden werden

Im Internet gefunden werden Im Internet gefunden werden Wie Ihre Webseite bei Suchmaschinen Eindruck macht Vortrag bei der Wirtschaftsförderung Rüsselsheim 01. Oktober 2014 Dr. Sabine Holicki, cki.kommunikationsmanagement Ihre Webseite

Mehr

Die wich)gsten SEO Ranking Faktoren bei Google. A;erbuy BBQ 2014 Dominik Wojcik

Die wich)gsten SEO Ranking Faktoren bei Google. A;erbuy BBQ 2014 Dominik Wojcik Die wich)gsten SEO Ranking Faktoren bei Google A;erbuy BBQ 2014 Dominik Wojcik Krefeld, den 20.09.2014 1 Intro: Dominik Wojcik Dominik Wojcik Geschä;sführer bei Trust Agents Ex- Head of SEO bei Zalando.de

Mehr

Suchmaschinenoptimierung - 16 Tuning-Tipps wie Sie Ihre Website selber auf Platz 1 in allen Suchmaschinen katapultieren

Suchmaschinenoptimierung - 16 Tuning-Tipps wie Sie Ihre Website selber auf Platz 1 in allen Suchmaschinen katapultieren Suchmaschinenoptimierung - 16 Tuning-Tipps wie Sie Ihre Website selber auf Platz 1 in allen Suchmaschinen katapultieren Sie möchten die Positionierung Ihrer Internetseiten verbessern? Dann sollten Sie

Mehr

Informationsbroschüre Eintragsservice / Webseitenoptimierung

Informationsbroschüre Eintragsservice / Webseitenoptimierung Informationsbroschüre Eintragsservice / Webseitenoptimierung Das Einmaleins der Suchmaschinenoptimierung Wer erfolgreich sein möchte, muss in den bekannten Suchmaschinen eine gute Position haben. Langfristig

Mehr

ROSIK Mittelstandsforum

ROSIK Mittelstandsforum ROSIK Mittelstandsforum Von Google profitieren und Chance nutzen 9. Oktober 2008 Über TechDivision TechDivision ist eine Full Service Agentur aus Rosenheim mit dem Schwerpunkt Kommunikation im Bereich

Mehr

Vom Kunden gefunden werden: Internet-Marketing für Online-Shops. Eine gute Adresse: Den richtigen Domain-Namen wählen

Vom Kunden gefunden werden: Internet-Marketing für Online-Shops. Eine gute Adresse: Den richtigen Domain-Namen wählen Vom Kunden gefunden werden: Internet-Marketing für Online-Shops Dieser kleine Leitfaden soll Ihnen aufzeigen, dass man bei einem Online-Shop nicht nur am Design und an den Artikeln arbeiten muss, sondern

Mehr

REGIONALES SUCHMASCHINENMARKETING. Juri Rupp 4market GmbH & Co. KG

REGIONALES SUCHMASCHINENMARKETING. Juri Rupp 4market GmbH & Co. KG REGIONALES SUCHMASCHINENMARKETING Juri Rupp 4market GmbH & Co. KG JURI RUPP Geschäftsführer 4market GmbH & Co. KG Seit 2001 in der IT-Branche tätig Seit 2004 Schwerpunkt Internet Webdesign E-Commerce Online

Mehr

Wissensarmut trotz (oder gar durch) Nutzung von Suchmaschinen?

Wissensarmut trotz (oder gar durch) Nutzung von Suchmaschinen? Wissensarmut trotz (oder gar durch) Nutzung von Suchmaschinen? Prof. Dr. Dirk Lewandowski dirk.lewandowski@haw-hamburg.de http://www.bui.haw-hamburg.de/lewandowski.html @Dirk_Lew Universität Rostock, 13.

Mehr

SEO Standards im ecommerce Ist Ihr Shop wirklich up-to-date? ecommerce conference 2013 / Hamburg Tobias Jungcurt / SoQuero GmbH

SEO Standards im ecommerce Ist Ihr Shop wirklich up-to-date? ecommerce conference 2013 / Hamburg Tobias Jungcurt / SoQuero GmbH SEO Standards im ecommerce Ist Ihr Shop wirklich up-to-date? ecommerce conference 2013 / Hamburg Tobias Jungcurt / SoQuero GmbH Über SoQuero SoQuero Online Marketing performanceorientierte Online-Marketing-Agentur

Mehr

Seonaptics ist ein online Marketing Unternehmen mit dem Kerngeschäft Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEA bzw. SEM).

Seonaptics ist ein online Marketing Unternehmen mit dem Kerngeschäft Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEA bzw. SEM). Willkommen! Seonaptics ist ein online Marketing Unternehmen mit dem Kerngeschäft Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEA bzw. SEM). Auf den nachfolgenden Seiten wollen wir Ihnen

Mehr

Zur Person. Alexander Balow. Branchenschwerpunkt Tourismus Spezialthema Onlinemarketing. PLANET IC GmbH Alexander Balow

Zur Person. Alexander Balow. Branchenschwerpunkt Tourismus Spezialthema Onlinemarketing. PLANET IC GmbH Alexander Balow Zur Person Alexander Balow Branchenschwerpunkt Tourismus Spezialthema Onlinemarketing 10 Mythen über SEO Wie Sie Ihre Webseite für Google (& Co.) gut aufbereiten www.planet-ic.de PLANET IC GmbH Mythos

Mehr

Joomla SEO: 7 Experten-Tipps

Joomla SEO: 7 Experten-Tipps Joomla SEO: 7 Experten-Tipps Joomla SEO: 7 Experten-Tipps Joomla ist eines der am meist genutzten Content Management Systeme (CMS) auf der Welt. Wir erläutern Ihnen in diesem ebook anhand von 7 Punkten,

Mehr

SEO BASICS IM B2B-BEREICH

SEO BASICS IM B2B-BEREICH SEO BASICS IM B2B-BEREICH Suchmaschinenoptimierung für Unternehmer ohne Schnickschnack Internet World, München 24. März 2015 ZIEL WAS SIE ERWARTET Ich zeige Ihnen heute die Grundlagen der On-Page Optimierung

Mehr

ONPAGE-SEO OFFPAGE-SEO WIE BEUTREILT GOOGLE DIE QUALITÄT IHRER PAGE?

ONPAGE-SEO OFFPAGE-SEO WIE BEUTREILT GOOGLE DIE QUALITÄT IHRER PAGE? WORKID SEARCH ENGINE OPTIMIZATION GUIDE ONPAGE-SEO OFFPAGE-SEO WIE BEUTREILT GOOGLE DIE QUALITÄT IHRER PAGE? SEARCH ENGINE OPTIMIZATION GUIDE WORKID INHALT Nach dem Mobilegeddon im April wurde uns wieder

Mehr