Strategien zur Offpage-Suchmaschinenoptimierung

Größe: px
Ab Seite anzeigen:

Download "Strategien zur Offpage-Suchmaschinenoptimierung"

Transkript

1 Strategien zur Offpage-Suchmaschinenoptimierung Daniel Mühlbacher D I P L O M A R B E I T eingereicht am Fachhochschul-Masterstudiengang Digitale Medien in Hagenberg im Juni 2009

2 Copyright 2009 Daniel Mühlbacher Alle Rechte vorbehalten ii

3 Erklärung Hiermit erkläre ich an Eides statt, dass ich die vorliegende Arbeit selbstständig und ohne fremde Hilfe verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt und die aus anderen Quellen entnommenen Stellen als solche gekennzeichnet habe. Hagenberg, am 13. Juli 2009 Daniel Mühlbacher iii

4 Inhaltsverzeichnis Erklärung Danksagung Kurzfassung Abstract iii vii viii ix 1 Einleitung Problemstellung Zielsetzung Aufbau dieser Arbeit Vergleichbare Arbeiten Suchmaschinennutzung Ranking-Algorithmen Der Ranking-Algorithmus von Google Das PageRank-Konzept Link-, Domain- und IP-Popularität Themenrelevanz Link-Texte Das Hilltop-Prinzip Personalisierte Rankings: SearchWiki Alternative Ranking-Systeme Ask (Teoma) Wikia Search Wolfram Alpha Bing Grundlagen der Suchmaschinenoptimierung Onpage-Optimierung Begriffserklärung Allgemeiner Website-Aufbau iv

5 Inhaltsverzeichnis v Die URL: Domainname, Verzeichnisstruktur und Dateinamen Title-Tag Meta-Tags Inhalt und Keyword-Dichte Überschriften und Textauszeichnungen Links und Link-Texte Bilder Offpage-Optimierung Begriffserklärung Bestandteile der Offpage-Optimierung Spam Optimierung für die Google-Bildsuche Allgemeines Funktionsweise der Indexierung Ranking-Kriterien Onpage-Optimierung Dateiname Alt- und Title-Tag Umgebender Text Einsatz eines Framebreakers Offpage-Optimierung Strategien zur Offpage-Optimierung Allgemeines Indexierung der Website Anmeldung bei Suchmaschinen am Beispiel Google XML-Sitemaps Linkquellen Webkataloge Artikelverzeichnisse Social Bookmarks Social Media und Social News Microblogging RSS-Feeds Das Kakadu-Prinzip Linkbait Satellitendomains Qualitätskriterien der Offpage-Optimierung Domainalter Themenrelevanz eingehender Links Geschwindigkeit des Linkaufbaus Link-Exklusivität

6 Inhaltsverzeichnis vi Unidirektionale und reziproke Links Link-Texte Deep-Links IP-Popularität Gewichtung des PageRank eingehender Links Praktischer Versuchsaufbau zur Offpage-Optimierung Versuchsaufbau Auswahl der Qualitätskriterien Auswahl der Testwebsites Technische Voraussetzungen Analyse des Versuchsaufbaus Durchführung Umsetzung der Testwebsites Linkaufbau Zeitlicher Ablauf Ergebnisse und Auswertung Indexierungsgeschwindigkeit und Indexierungsgrad Unidirektionale und reziproke Links Variation der Link-Texte Deep-Links Gewichtung des PageRank eingehender Links Social Bookmarks IP-Popularität Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse Keyword-Analyse mit SEA Tools v Bildsuche-Analyse mit SEA Tools v Link-Analyse mit SEA Tools v Schlussbemerkung und Ausblick 80 A Ergebnisse des Versuchsaufbaus 82 B Linkaufbau der Testwebsites 98 C Inhalt der CD-ROM 114 C.1 PDF-Dateien C.2 Literaturquellen C.3 Scripts C.4 Versuchsaufbau Literaturverzeichnis 117

7 Danksagung Ich möchte diese Arbeit meiner im Jahr 2008 verstorbenen Mutter Birgit Mühlbacher widmen, welche 25 Jahre immer für mich da war und mich in allen Dingen besonders auch im Studium unterstützt hat. Danke. Mein besonderer Dank gilt meiner Freundin Christina (für mehr, als ich an dieser Stelle aufzählen könnte) und auch ihrer Familie, meinem Vater Josef Mühlbacher und meiner Schwester Kerstin. Abschließend möchte ich meinem Betreuer Mag. DI Dr. Andreas Stöckl für seine kompetente und verlässliche Unterstützung im Zuge der Erstellung dieser Arbeit danken. vii

8 Kurzfassung Die Nutzung von Suchmaschinen, allen voran Google, hat in den letzten Jahren stark zugenommen und dazu geführt, dass eine Suchmaschine für den Großteil der Internetnutzer zu der Einstiegsseite ins World Wide Web geworden ist, um andere Websites und Produkte zu finden. Umso wichtiger ist es für den Erfolg einer Website, diese für eine möglichst gute Position in den Suchergebnissen zu optimieren. Dieser Suchmaschinenoptimierung genannte Bereich ist Thema dieser Arbeit. Unterschieden wird hierbei zwischen der Onpage- (alle Maßnahmen, welche direkt auf der jeweiligen Website getroffen werden können) und Offpage- Optimierung (Linkaufbau), wobei die Auswirkungen einzelner Kriterien der Offpage-Optimierung aufgrund fehlender Informationen von offizieller Seite der Suchmaschinen-Betreiber häufig auf praktischen Erfahrungen und Spekulationen beruhen. In dieser Arbeit sollen deshalb insbesondere erfolgversprechende Strategien zur Offpage-Suchmaschinenoptimierung sowie deren Auswirkungen durch den Aufbau eines praktischen Versuchsaufbaus, der über 13 Wochen durchgeführt wurde, behandelt werden. Zusätzlich werden Grundlagen der Suchmaschinenoptimierung vorgestellt und Optimierungsmöglichkeiten für die Google-Bildsuche, einen häufig vernachlässigten Bereich mit großem Potential, besprochen. Als Ergänzung wird desweiteren der technische Hintergrund der Keyword-, Bildsuche- und Link-Analyse, welche mit der als Vorprojekt zu dieser Arbeit entstandenen Webapplikation SEA Tools v2 durchgeführt wurde, erklärt. viii

9 Abstract The usage of search engines, especially Google, has increased rapidly within the last years and made search engines the number one entry point to the World Wide Web for the better part of internet users in order to find other websites and products. All the more important the optimisation of a website for a better position on the search engine result pages has become for its success. This field called Search Engine Optimisation is the topic of this thesis. Commonly Search Engine Optimisation is separated into two parts: onpage (all changes done directly on the particular website) and offpage optimisation (link building), whereas the knowledge about the effects of single offpage criteria is often based on practical experience and speculations due to missing official information from the search engines. Therefore this thesis deals, above all else, with promising strategies for offpage search engine optimisation as well as their effects evaluated by a practical test set-up which has been run for several months. Additionally search engine optimisation essentials and optimisation possibilities for Google Image Search, an often neglected field with high potential, are presented. Complementary the technical background of the keyword, image search and link analysis realised with the self-made web application SEA Tools v2 is explained. ix

10 Kapitel 1 Einleitung In den vergangenen Jahren nahm die Nutzung von Suchmaschinen kontinuierlich zu, so dass diese auf dem besten Weg sind, als meistgenutzte Applikation im Internet abzulösen [Fal08]. Knapp 50% der Internetnutzer verwenden Suchmaschinen wie z. B. Google, Yahoo! oder Live Search (Bing) täglich, um Websites und Produkte zu finden. Berücksichtigt man diese Tatsache steht fest, dass Suchmaschinen zu einem wesentlichen Erfolgsfaktor für Websites geworden sind, auf deren Besucher nicht verzichtet werden kann. Umso mehr Bedeutung erlangt in diesem Zusammenhang die Platzierung einer Website für bestimmte Suchbegriffe innerhalb der Suchergebnisse, weisen Experten doch darauf hin, dass mehr als die Hälfte aller Benutzer die ersten drei Ergebnisse einer Suchanfrage anklicken und die Klickraten für alle nachfolgenden Ergebnisse rapide abnehmen [Beu07]. Diese Arbeit beschäftigt sich mit Suchmaschinenoptimierung (kurz: SEO), deren Ziel es ist, Websites für eine bestmögliche Platzierung innerhalb der Suchergebnisse, auch Ranking genannt, zu optimieren. 1.1 Problemstellung Das Thema Suchmaschinenoptimierung ist sehr komplex und vielschichtig und besteht aus den beiden Bereichen Onpage- und Offpage-Optimierung. Während die Onpage-Optimierung, welche Änderungen auf der jeweiligen Website an sich beschreibt, in einschlägiger Literatur bereits sehr gut behandelt wird, steht im Vergleich dazu der Bereich der Offpage-Optimierung, welche vornehmlich den Linkaufbau einer Website bezeichnet, eher im Hintergrund, obwohl dieser einen maßgeblichen Einfluss auf das Ranking einer Website hat. Zusätzlich werden nur wenige Optimierungsmaßnahmen von offizieller Seite der Suchmaschinen-Betreiber bekannt gegeben, so dass viele Informationen auf Spekulationen zurückzuführen sind. 1

11 1. Einleitung Zielsetzung Das Ziel dieser Arbeit soll insbesondere die Vorstellung von erfolgversprechenden Strategien zur Offpage-Suchmaschinenoptimierung sein sowie der Aufbau und die Durchführung eines Versuchsaufbaus zur empirischen Evaluierung des tatsächlichen Einflusses ausgewählter Ranking-Kriterien aus dem genannten Bereich. In der Literatur und im Internet publizierte Informationen zur Wirkungsweise diverser Maßnahmen der Offpage-Optimierung sollen auf diese Weise mittels Reverse Engineering 1 untersucht werden. 1.3 Aufbau dieser Arbeit Basis dieser Arbeit bildet die Vorstellung der Ranking-Algorithmen populärer Suchmaschinen am Beispiel des Marktführers Google sowie alternativer Ranking-Systeme. Darauf aufbauend sollen Grundlagen der Suchmaschinenoptimierung vermittelt sowie das oft vernachlässigte Thema der Optimierung für die Google-Bildsuche beschrieben werden, welche zunehmend an Bedeutung gewinnt. Den Hauptteil dieser Arbeit bildet die theoretische Vorstellung erfolgversprechender Strategien zur Offpage-Suchmaschinenoptimierung sowie die Dokumentation des praktischen Versuchsaufbaus sowie dessen Auswertung. Im Anschluss soll kurz der technische Hintergrund diverser Analyse-Verfahren erklärt als auch eine Schlussbemerkung samt Ausblick abgegeben werden. 1.4 Vergleichbare Arbeiten Im Zuge der Recherche zu dieser Arbeit konnten keine vergleichbaren Arbeiten, welche die empirische Evaluierung des Einflusses von Ranking-Kriterien aus dem Bereich der Offpage-Optimierung untersuchen, gefunden werden. Einzig der Abschlussbericht von Christoph Neuberger und Stefan Karzauninkat zum Test der Effektivität von Optimierungsverfahren zur externen Manipulation von Suchmaschinen [NK03] aus dem Jahr 2003 beinhaltet einen ähnlichen Versuchsaufbau, welcher sich jedoch in erster Linie auf die Auswirkungen von unterschiedlichen Spam-Methoden bei verschiedenen Suchmaschinen konzentriert. 1.5 Suchmaschinennutzung Die drei großen Suchmaschinen Google, Yahoo! und Live Search (Bing) decken einen Großteil der weltweiten Suchanfragen ab, wobei sowohl Ask auf 1 Reverse Engineering bezeichnet den Vorgang, aus einem bestehenden System durch Untersuchung von Strukturen und Verhaltensweisen dessen Konstruktionselemente zu extrahieren ( Engineering).

12 1. Einleitung 3 dem amerikanischen als auch Baidu auf dem chinesischen Markt eine Rolle spielen. Wie aktuelle Erhebungen von comscore [com09a] [com09b] belegen ist jedoch Google mit einer Nutzung von 64% in den U.S.A. (Stand: April 2009) sowie einer Nutzung von 80% in Deutschland (Stand: Juli 2008) unangefochtener Marktführer. Diese Arbeit und insbesondere die vorgestellten Strategien zur Offpage-Suchmaschinenoptimierung und der praktische Versuchsaufbau beschränken sich demzufolge auf die Google-Suche und Google- Bildsuche.

13 Kapitel 2 Ranking-Algorithmen Die wichtigste Komponente einer jeden Suchmaschine ist neben dem Index, in dem alle erfassten Websites gespeichert sind, der Ranking-Algorithmus. Dieser entscheidet über die Relevanz einer Website für eine bestimmte Suchanfrage und bestimmt, ob und an welcher Position die indexierte Seite auf der Suchergebnis-Seite, auch als Ranking bezeichnet, zu finden ist. Nachfolgend möchte ich insbesondere auf den Ranking-Algorithmus von Google, der in vielen Bereichen auch von den anderen beiden großen Suchmaschinen Live Search (bzw. seit Juni 2009 Bing) und Yahoo! in dieser Weise verwendet wird, eingehen als auch alternative Ansätze zur Ranking-Erstellung vorstellen. Bei der Betrachtung der unterschiedlichen Ranking-Algorithmen werden desweiteren Onpage-Faktoren wie URL- oder Website-Titel, Keyword- Dichte, interne Verlinkung etc. außen vor gelassen. Diese werden in Kapitel 3 erörtert. 2.1 Der Ranking-Algorithmus von Google Der ursprüngliche Ranking-Algorithmus von Google wurde von den beiden Stanford-Studenten Sergey Brin und Lawrence Page 1998 entwickelt und geht auch mit der Gründung von Google im selben Jahr einher. Erstmals beschrieben sie diesen in der Veröffentlichung The Anatomy of a Large- Scale Hypertextual Web Search Engine. Seit damals wurde der Algorithmus stetig angepasst, basiert in seinen Grundzügen jedoch immer noch auf den selben Konzepten wie Das PageRank-Konzept Das PageRank-Konzept basiert auf der Idee eines sogenannten Random Surfers, welcher sich von einer Seite zur nächsten bewegt und auf einen beliebigen Link auf diesen Seiten klickt unabhängig von dessen Text, Gestaltung oder Ziel. In die Berechnung des PageRank einer Website fließen 4

14 2. Ranking-Algorithmen 5 somit alle ausgehenden Links (also auch die Website-interne Verlinkung) mit ein. Mit einer gewissen Wahrscheinlichkeit (vertreten durch den Dämpfungsfaktor d; dazu später mehr) verfolgt der Random Surfer willkürlich die Links im World Wide Web, ruft jedoch von Zeit zu Zeit auch eine beliebige andere Website auf. Aus einem anderen Blickwinkel betrachtet entspricht der Google Page- Rank einer Empfehlung für eine Website. Je mehr eingehende Links eine Website besitzt, um so mehr Empfehlungen werden für diese im übertragenen Sinn ausgesprochen. Dabei ist jedoch nicht nur die reine Anzahl an Empfehlungen von Bedeutung; ebenso wichtig sind deren Urheber. Um wieder zu Websites zurück zu kehren: Der Link einer bedeutenden Website, welche selbst einen hohen PageRank besitzt, ist wesentlich mehr wert bzw. gibt mehr PageRank weiter, als der Link einer kleinen Website, welche einen geringen PageRank hat. Die Berechnung des PageRank einer Website erfolgt durch folgende Formel [BP98]: P R(A) = (1 d) + d P R(N) C(N) (2.1) PR(A) stellt hierbei die Website dar, für welche der PageRank berechnet werden soll, PR(N) sind wiederum die PageRank-Werte der Websites, welche auf Website A verlinken. Dividiert werden diese durch die Anzahl der ausgehenden Links C(N) pro Website. Die Variable d bezeichnet einen Dämpfungsfaktor, welcher zwischen 0 und 1 liegen kann, üblicherweise jedoch mit 0,85 angenommen wird und die Wahrscheinlichkeit definiert, mit welcher der Random Surfer die Links auf den Websites weiterverfolgt. Je kleiner der Dämpfungsfaktor, umso größer ist wiederum die Wahrscheinlichkeit, dass nicht die Links weiterverfolgt, sondern eine komplett neue Website aufgerufen wird [BP98]. Berechnet wird der PageRank für alle indexierten Dokumente im Google- Index durch einen iterativen, nicht rekursiven, Algorithmus, welcher als Startwert für alle Websites einen PageRank von 1 annimmt und in mehreren Iterationsschritten die PageRank-Werte für alle Websites möglichst genau annähert. Die Anzeige des PageRank in der Google Toolbar für Internet Explorer und Mozilla Firefox sowie im Google Verzeichnis 1 erfolgt mit Werten zwischen 0 (Minimum) und 10 (Maximum), wobei es sich hier um logarithmisch skalierte Werte des tatsächlichen PageRank aus oben dargestellter Formel handelt [Sob03]. 1

15 2. Ranking-Algorithmen 6 Das in Abbildung 2.1 von Sebastian Erlhofer [Erl06] beschriebene Beispiel soll die Berechnung des PageRank in einem Beispielweb mit drei Websites demonstrieren: Abbildung 2.1: Die Ausgangssituation vor der ersten Iteration; nachgezeichnet aus [Erl06]. Für noch nicht berechnete Dokumente wird ein Startwert von 1 für den PageRank vergeben. Daraus ergibt sich nach oben dargestellter Formel und einem Dämpfungsfaktor d von 0.85 folgende Berechnung im ersten Iterationsschritt: P R(A) = (1 0.85) ( 1 1 ) = 1 (2.2) Der soeben berechnete vorläufige Wert für die Seite A wird für die Berechnung der Werte für die Seiten B, C und D benutzt: P R(B) = (1 0.85) ( 1 ) = (2.3) P R(C) = (1 0.85) ( ) = (2.4) P R(D) = (1 0.85) = 0.15 (2.5)

16 2. Ranking-Algorithmen 7 In den weiteren Iterationsschritten werden die in einem Schritt zuvor berechneten Werte eingesetzt, so dass sich nach etwa 20 Schritten das in Abbildung 2.2 dargestellte Ergebnis ergibt: Abbildung 2.2: Das Ergebnis der PageRank-Berechnung nach etwa 20 Iterationen; nachgezeichnet aus [Erl06]. Wie aus der Grafik ersichtlich besitzt Seite C mit den meisten eingehenden Links den höchsten PageRank, gefolgt von Seite A, die wiederum PageRank von Seite C zurück bekommt. Der Wert von Seite D verändert sich da keine eingehenden Links vorhanden sind nicht und bleibt auf dem Minimum von Link-, Domain- und IP-Popularität Die Link-Popularität kann als zugrunde liegende Idee hinter dem PageRank- Algorithmus von Google gesehen werden. Sebastian Erlhofer beschreibt diese in [Erl06] so: Link-Popularität bezeichnet die Anzahl und Qualität der eingehenden Links auf eine Seite und wird als Einschätzung von anderen Webautoren im Sinne einer objektiven Empfehlung angesehen. Der bekannteste Algorithmus zur Berechnung der Link-Popularität stammt von Google (PageRank). Das Gewicht einer Empfehlung über die Link-Popularität ist umso größer, je höher die Popularität der verweisenden Seite und je größer die thematische Nähe ist. Die reine Link-Popularität an sich berechnet sich dabei aus der Summe aller eingehenden Links auf eine Website auch von mehreren eingehenden

17 2. Ranking-Algorithmen 8 Links, welche von ein und der selben Website stammen. In der Praxis bedeutender ist jedoch die Domain-Popularität, welche alle eingehenden Links auf eine Website nicht einzeln, sondern nach Domains gruppiert, wertet. Viele eingehende Links von der gleichen Domain haben dementsprechend kaum einen Vorteil gegenüber einem oder nur wenigen eingehenden Links von der gleichen Domain, da nicht die Anzahl der unterschiedlichen Links, sondern die Anzahl der unterschiedlichen Domains, berücksichtigt wird [Beu07]. Den gleichen Ansatz verfolgt die sogenannte IP-Popularität, welche analog zur Link- und Domain-Popularität Links nur pro IP-Adresse in die Bewertung miteinbezieht [Beu07]. Der Einsatz der IP-Popularität innerhalb des Google Ranking-Algorithmus ist zwar zum aktuellen Zeitpunkt unumstritten, im Gegensatz zu den anderen beiden Verfahren jedoch hinsichtlich der Relevanz nicht eindeutig geklärt. Der praktische Teil dieser Diplomarbeit ab Kapitel 5 wird sich u. a. näher mit dem Thema IP-Popularität befassen Themenrelevanz Ein nicht zu unterschätzender Faktor im Ranking-Algorithmus ist die Themenrelevanz eingehender und auch ausgehender Links. Bis heute gibt es keine konkreten Informationen von Google, in wie weit dieser Faktor das Ranking beeinflusst, jedoch ist davon auszugehen, dass der ursprünglich von Sergey Brin und Lawrence Page beschriebene Algorithmus von Google inzwischen weiterentwickelt wurde und auch die Themenrelevanz Einfluss auf das Gewicht eines Links hat. Gefestigt wird diese Annahme durch die Publikation Topic-Sensitive PageRank von Taher H. Haveliwala [Hav02], welcher seit einigen Jahren für Google arbeitet Link-Texte Eine Erweiterung der Link-Popularität bzw. des PageRank-Konzeptes stellt die Berücksichtigung von Link-Texten (engl. anchor texts) dar. Beim Link- Text handelt es sich um den Text, welcher mit dem Link auf die jeweilige Website verknüpft ist. Dieser Faktor hat eine große Bedeutung für das Ranking, wie auch schon in der ersten Veröffentlichung der beiden Google Gründer [BP98] erwähnt wird. Der Link-Text wird dabei als Beschreibung des Inhalts einer Website betrachtet und beeinflusst auf diese Weise die Position für verschiedene Keywords innerhalb der Suchergebnisse. Wird eine Website z. B. genügend oft mit dem Link-Text Gartenbau Mühlviertel verlinkt, assoziiert Google diese Keyword-Kombination mit dem Inhalt der Website, was eine bessere Position für diesen Suchbegriff für die betroffene Website zur Folge hat. Wie gut diese Eigenschaft des Google Ranking-Algorithmus funktioniert bzw. zur Offpage-Optimierung von Websites beiträgt wird anhand folgenden Negativ-Beispiels deutlich: Im Jahr 2003 setzten tausende Gegner des

18 2. Ranking-Algorithmen 9 damaligen US-Präsidenten George W. Bush einen Link auf dessen offizielle Website mit dem Link-Text miserable failure (jämmerlicher Versager). Nur wenige Zeit später war die Website des Präsidenten auf der ersten Position in den Google Suchergebnissen für diesen Suchbegriff zu finden. Diese Art der Manipulation der Link-Popularität bzw. der Suchergebnisse ist seit dem als Google Bombing bekannt [Erl06] Das Hilltop-Prinzip Das Hilltop-Prinzip bzw. der Hilltop-Algorithmus wurde im Jahr 2000 von Krishna Bharat (einem heutigen Google-Mitarbeiter) und George A. Mihaila beschrieben. Dabei werden Websites als Experten bzw. Autoritäten für bestimmte Themenbereiche definiert, was zur Folge hat, dass ausgehende Links von diesen ganz oben auf der Bergspitze (engl. hilltop) stehenden Websites für eine themenrelevante Website deutlich mehr Gewicht haben als andere Links. Die Art und Weise, wie diese Autoritäten für einzelne Suchbegriffe vergeben werden, ist unklar, jedoch ist eine Kombination verschiedener Faktoren wie die manuelle Vergabe des Status, eine Eintragung im Open Directory (einem von Google angesehen Webkatalog), die Höhe des PageRank und weitere Ranking-Faktoren am wahrscheinlichsten [Erl06]. Abbildung 2.3: Die Experten-Seite samt Sitelinks als Beispiel für das Hilltop-Prinzip. Sebastian Erlhofer erwähnt in seinem Buch Suchmaschinenoptimierung für Webentwickler [Erl06] zudem, dass Hilltop-Seiten durch sogenannte Sitelinks (zusätzliche Links unterhalb eines meist ganz oben positionierten Suchergebnisses) gekennzeichnet sind. Der in Abbildung 2.3 dargestellte Screenshot zeigt eine solche Experten-Website samt Sitelinks auf einer Suchergebnis-Seite Personalisierte Rankings: SearchWiki Einen sehr neuen Bestandteil des Google Ranking-Algorithmus stellen die personalisierten Rankings, von Google SearchWiki genannt, dar. Das Search- Wiki (siehe Abbildung 2.4) wurde auf google.com im November 2008 und auf

19 2. Ranking-Algorithmen 10 google.de im April 2009 eingeführt und ermöglicht eingeloggten Benutzern mit einem Google-Account, Websites auf jeder Suchergebnis-Seite in ihrer Reihenfolge zu verschieben und zu löschen, um auf diese Weise eine persönliche Anpassung des Rankings hinsichtlich der Relevanz zum gesuchten Begriff vorzunehmen. Google betont jedoch ausdrücklich, dass die vorgenommen Änderungen nur Einfluss auf die persönlichen Suchergebnisse haben und nicht in das Ranking für andere Benutzer einfließen [Goo09d]. Zusätzlich haben Benutzer durch SearchWiki jedoch auch die Möglichkeit, Kommentare zu einzelnen Websites innerhalb der Suchergebnisse abzugeben, welche auch für andere Benutzer sichtbar sind. Zudem stellt sich die Frage, ob und inwieweit Google die über SearchWiki generierten Daten mittelfristig als einen generellen für alle Benutzer gültigen Ranking-Faktor verwenden wird. Abbildung 2.4: Das Google SearchWiki-System im Einsatz. 2.2 Alternative Ranking-Systeme Ask (Teoma) Ask.com verwendet seit dem Jahr 2001 die Suchtechnologie von Teoma (gälisch Experte ), welche kurze Zeit zuvor von einem kleinen Team an der Rutgers Universität in New Jersey entwickelt wurde und auf dem Prinzip der themenspezifischen Popularität beruht. Bei diesem von Ask.com als ExpertRank bezeichneten Ranking-Algorithmus werden Themen, auch Cluster genannt, identifiziert und für jedes Thema Experten-Websites definiert, deren ausgehende Links als besonders aussagekräftig gelten. Darüber hinaus verwendet die Ask.com Suchtechnologie das Verfahren der Klick-Popularität, welches von der 1999 übernommenen Firma Direct Hit entwickelt wurde und die Anzahl der tatsächlichen Klicks auf die einzelnen Suchergebnisse in das Ranking mit einberechnet [Ask09]. Teoma wurde 2006 vollständig in Ask.com überführt und existiert seitdem nicht mehr als eigenständige Suchmaschine.

20 2. Ranking-Algorithmen Wikia Search Bei Wikia Search handelte es sich um eine im Januar 2008 erstmals online verfügbare Suchmaschine, welche vom Wikipedia Gründer Jimmy Wales entwickelt wurde, bei der es sich anders als bei Wikipedia jedoch um ein kommerzielles Projekt handelte. Während der Dokumenten-Index von Wikia Search zu Beginn von der Open-Source-Suchmaschine Nutch stammte, wurde die Index-Quelle aufgrund der weit größeren Aktualität später auf Yahoo umgestellt [Lew09]. Die Yahoo-Suchergebnisse wurden bei Wikia Search jedoch um drei wesentliche Bestandteile, die dem Community-Gedanken der Suchmaschine entstammen, erweitert: So war zum einen eine direkte Bewertung der einzelnen Suchergebnisse durch Benutzer möglich, zum anderen konnten Benutzer analog zu Wikipedia Mini-Artikel zu einzelnen Websites schreiben. Wie Dirk Lewandowski von der Online-Zeitschrift Password beschreibt bot Wikia Search zudem die Möglichkeit einer Personensuche, um Experten zu einem bestimmten Thema ausfindig zu machen [Lew08]. Legte Wikia Search zu Beginn im Gegensatz zu Konkurrenten wie Google, Yahoo! oder Live Search (bzw. Bing) noch höchsten Wert auf die Transparenz der Suchergebnisse, in dem die Berechnung eines jeden Rankings angezeigt werden konnte (siehe [Lew08]), war dies mit der Verwendung des Yahoo-Index nicht mehr möglich. Im April 2009, etwas mehr als ein Jahr nach dem Start von Wikia Search, kündigte Jimmy Wales bereits das Ende der neuen Suchmaschine an [Fri09]. Als Gründe hierfür nannte er u. a. den geringen kommerziellen Erfolg von Wikia Search, welcher wohl auch durch die mangelnde Qualität der Suchergebnisse, wie bereits in Ausgabe 03/2009 von Password bemerkt [Lew09], begründet war Wolfram Alpha Wolfram Alpha 2 nennt sich das neuste Projekt der US-Amerikanischen Firma Wolfram Research Inc., welches im Mai 2009 offiziell gestartet wurde. Dabei handelt es sich weniger um eine Such- als um eine Antwortmaschine, die in der Lage sein soll, anhand mathematischer Berechnungen und Algorithmen zur Spracherkennung Antworten auf beliebig formulierte Fragen basierend auf gesicherten Informationsquellen im Internet (d.h. nicht jeder beliebigen Website) liefern zu können. In direkter Konkurrenz zu Google steht Wolfram Alpha somit nicht. Stephen Wolfram, der Entwickler von Wolfram Alpha, erklärt in seinem Blog den grundlegenden Unterschied zu derzeit gebräuchlichen Suchmaschinen im Web dadurch, dass nicht nur bereits vorhandene Inhalte durchsucht, sondern Antworten auf komplexe Fragen berechnet werden können [Wol09]. Mit einer klassischen Suchmaschine kann Wolfram Alpha nicht verglichen werden; so werden z. B. bei der Suche nach New York keine Websites angezeigt, die sich mit der Stadt beschäf- 2

21 2. Ranking-Algorithmen 12 tigen, sondern eine Reihe von zusammengestellten Fakten wie die Bevölkerungszahl oder die geographische Position ausgegeben. Zusammenfassend kann gesagt werden, dass Wolfram Alpha einen sehr interessanten neuen Ansatz verfolgt, Wissen im Internet zugänglich zu machen. Die Zukunft wird zeigen, wie sich diese Antwortmaschine entwickelt und ob Wolfram Alpha (siehe Abbildung 2.5) zu einer Ergänzung zu klassischen Suchmaschinen wird. Abbildung 2.5: Eine Suche auf Wolfram Alpha Bing Seit Juni 2009 ersetzt Microsofts neue Suchmaschine Bing 3 die bisherige Live Search des Unternehmens. Microsoft verwendet dabei den Begriff der Entscheidungsmaschine und will damit hervorheben, dass Bing nach eigenen Angaben [Mic09] bessere Ergebnisse in einer übersichtlicheren Form als bisher liefert und somit den Entscheidungsprozess des Benutzers deutlich erleichtert. Objektiv betrachtet unterscheiden sich die Suchergebnisse kaum von denen der bisherigen Live Search, allerdings wurde deren Präsentation teilwei- 3

22 2. Ranking-Algorithmen 13 se verbessert. Zusätzlich werden die Suchergebnisse je nach Anfrage durch erweiterte Funktionen wie z. B. die Integration der Ciao! Produktsuche ergänzt. Es bleibt abzuwarten, ob Microsoft in Zukunft mit Bing (siehe Abbildung 2.6) Marktführer Google Konkurrenz machen kann. Abbildung 2.6: Microsofts neue Suchmaschine Bing.

23 Kapitel 3 Grundlagen der Suchmaschinenoptimierung 3.1 Onpage-Optimierung Begriffserklärung Das Ziel der Suchmaschinenoptimierung einer Website wurde bereits in der Einleitung dieser Arbeit erläutert. Die Optimierung wird dabei in zwei Bereiche, Onpage-Optimierung und Offpage-Optimierung, unterteilt. Wie der Name bereits vermuten lässt handelt es sich bei der Onpage-Optimierung um alle Maßnahmen, welche direkt auf der zu optimierenden Website getroffen werden können. Bei der Erstellung eines neuen Webprojektes sollte darauf geachtet werden, dass zuerst die Website selbst (Onpage) optimiert wird, bevor man sich der weiteren Suchmaschinenoptimierung (Offpage) widmet. Eine Onpage-Optimierung ist in der Regel auch deutlich Zeit- und Ressourcenschonender durchzuführen Allgemeiner Website-Aufbau Am Anfang steht der allgemeine Aufbau der Website. Hierbei sind in Hinblick auf die Suchmaschinenoptimierung mehrere Punkte zu beachten. So ist es von Vorteil zu wissen, dass die Crawler der Suchmaschinen den Inhalt einer Seite vom HTML-Code trennen müssen, um diesen korrekt erfassen und indexieren zu können. Um dem Crawler diese Trennung möglichst leicht zu machen erscheint es logisch, bei der Umsetzung der Website darauf zu achten, dass diese unter Verwendung von XHTML und CSS realisiert wurde, da auf diese Weise der Inhalt einer Seite so weit wie möglich von dessen Gestaltung (ausgelagert in die CSS) getrennt werden kann. Darüber hinaus sollte der HTML-Code der Website weitestgehend valide, d.h. syntaktisch korrekt, sein. In einem der schlimmsten Fälle wäre z. B. der Titel einer Seite wie später noch beschrieben wird ein sehr wichtiges Kriterium durch 14

24 3. Grundlagen der Suchmaschinenoptimierung 15 die Suchmaschine nicht auslesbar, wenn der Title-Tag (<title>...</title>) falsch verwendet wird. Überprüft werden kann die Validität einer Seite u. a. mit Hilfe des W3C Validators 1. Auf die Verwendung von Frames sollte wenn schon nicht aus Usability- Gründen auch im Sinne der Suchmaschinenoptimierung verzichtet werden, da Frame-Seiten wie von Sebastian Erlhofer beschrieben [Erl06] von Google (und wahrscheinlich auch anderen Suchmaschinen) mitunter nicht korrekt erfasst werden können. Als Konsequenz des in Kapitel 2 beschrieben Ranking-Algorithmus von Google beinhaltet ein suchmaschinenfreundlicher Website-Aufbau zudem eine durchdachte interne Linkstruktur; jede Unterseite sollte auf die Startseite (z. B. durch ein verlinktes Website-Logo [Erl06]) verweisen, zu optimierende Unterseiten sollten von allen anderen Seiten aus gut über im besten Fall Text- anstelle von Grafiklinks miteinander verknüpft sein Die URL: Domainname, Verzeichnisstruktur und Dateinamen Die URL stellt einen der wohl wichtigsten Onpage-Ranking-Faktoren dar, weshalb ihr besondere Beachtung geschenkt werden sollte. Sofern möglich ist es von Vorteil, im Domainnamen bereits die Keywords zu verwenden, für welche die Website optimiert werden soll. Soll z. B. auf Scifi Bücher optimiert werden, wäre die Domain am besten geeignet. Es wird von einer sogenannten Keyword-Domain gesprochen. Dieses Prinzip sollte auch bei der Verzeichnisstruktur einer Website und den verwendeten Dateinamen angewendet werden, um möglichst viele aussagekräftige Keywords für die entsprechenden Unterseiten in der URL unter zu bringen. Handelt es sich bei dem zu optimierenden Projekt um eine Website mit dynamisch generierten Inhalten können z. B. die PHP-Dateien mit Hilfe des Apache-Moduls mod rewrite derart umgeschrieben werden, dass auch diese unter einer sprechenden URL, z. B. wolken-fotos-1.html anstatt category.php?id=1, erreichbar sind. Generell muss in der URL auf die korrekte Trennung der Keywords geachtet werden. Werden zwei oder mehrere Keywords zusammen geschrieben, können diese in der Regel von Suchmaschinen nicht mehr auseinander gehalten werden, so dass für die Suchmaschine aus den beiden Wörtern scifi und buecher das Wort scifibuecher wird. Das gleiche gilt für den beliebten Unterstrich, welcher eine Verbindung zwischen Wörtern signalisiert. Da Leerzeichen in URLs nicht möglich sind ist einzig und allein der Bindestrich zur korrekten Trennung von (Schlüssel-)Wörtern geeignet [Erl06]. 1

25 3. Grundlagen der Suchmaschinenoptimierung Title-Tag Neben einer sprechenden und in Bezug auf die Keywords relevanten URL sollte vor allem der Title-Tag einer Seite beachtet werden. Dieser dient nicht nur dem Benutzer als Auskunft über den Inhalt einer Seite sondern auch den Suchmaschinen. Aus diesem Grund gilt hier das gleiche wie bei der URL: Der Titel einer Seite sollte deren Inhalt beschreiben und die Keywords für die entsprechende Seite enthalten. Es gilt jedoch nicht das Prinzip je länger desto besser, da der Title-Tag von Suchmaschinen nur bis zu einer Länge von 250 Zeichen indexiert wird. Darüber hinaus berücksichtigt Google auch die relative Nähe zweier Wörter zueinander [Erl06]. Unterschiedliche Seiten sollten zudem unterschiedliche Website-Titel haben, um von Suchmaschinen nicht als ein und die selbe Seite angesehen zu werden. Sebastian Erlhofer erwähnt jedoch auch zurecht in seinem Buch Suchmaschinenoptimierung für Webentwickler [Erl06], dass der am besten für Suchmaschinen optimierte Website-Titel sinnlos ist, wenn dieser einen potentiellen Besucher, welcher den Titel in den Suchergebnissen angezeigt bekommt, nicht anspricht und zum darauf Klicken veranlasst. Wie oft in der Suchmaschinenoptimierung ist an dieser Stelle die richtige Mischung gefragt Meta-Tags Waren Meta-Tags zu Zeiten von AltaVista noch eines der wichtigsten Kriterien zur Optimierung einer Website für Suchmaschinen hat sich dies seit der Entwicklung moderner Suchmaschinen wie Google, Yahoo! oder Live Search (bzw. Bing) grundlegend geändert. Meta-Tags haben zwar keinen Einfluss mehr auf die Ranking-Algorithmen, machen teilweise aber dennoch Sinn, um z. B. die verwendete Sprache, den Content-Type oder die Kurzbeschreibung einer Seite anzugeben. Der Tag <meta name= description content= > zur Angabe einer Beschreibung ist dabei besonders interessant, da der dort angegebene Text von einigen Suchmaschinen wie z. B. Google sofern vorhanden unter dem Website-Titel in den Suchergebnissen angezeigt wird [Erl06]. Auf diese Weise ist es mit einer interessanten Beschreibung möglich, das Klickverhalten potentieller Besucher positiv zu beeinflussen Inhalt und Keyword-Dichte Es ist kaum verwunderlich, dass der Inhalt einer Website von modernen Suchmaschinen zur Beurteilung der Relevanz für eine bestimmte Suchanfrage in besonderem Ausmaß heran gezogen wird. Die Bezeichnung Inhalt steht hierbei für reinen Text, da Grafiken (abgesehen von deren Alternativtexten) nicht zur Inhaltsbestimmung benutzt werden. Neben einer ausreichenden Textlänge von mindestens mehreren hundert Wörtern ist beim Inhalt vor allem auf die Keyword-Dichte für die zu opti-

26 3. Grundlagen der Suchmaschinenoptimierung 17 mierenden Keywords zu achten. Die Keyword-Dichte bezeichnet dabei den prozentualen Anteil eines Wortes am Gesamtinhalt und sollte wie von Sebastian Erlhofer beschrieben [Erl06] für die Schlüsselwörter zwischen fünf und sieben Prozent liegen Überschriften und Textauszeichnungen Überschriften und logische (z. B. <strong> oder <emph>) sowie physische (z. B. <b> oder <i>) Textauszeichnungen in HTML wurden eingeführt, um eine bessere Strukturierung des Website-Inhalts zu ermöglichen und wichtige Textpassagen hervorzuheben. Diesen Grundgedanken machen sich auch Suchmaschinen zu Nutze und gewichten Text aus Überschriften oder durch Textauszeichnungen hervorgehobenen Text mehr als normalen Fließtext. Die Verwendung von Überschriften und Textauszeichnungen in einem normalen Ausmaß gehört demzufolge zu einer erfolgreichen Onpage-Optimierung. Inwieweit Text innerhalb dieser Elemente mehr gewichtet wird ist jedoch offiziell nicht angegeben Links und Link-Texte Wie in Kapitel 2 beschrieben messen Google und die anderen großen Suchmaschinen in ihren Ranking-Algorithmen Links eine große Bedeutung zu. Davon abgesehen, dass nur durch eine durchdachte Linkstruktur die Indexierung aller Seiten einer Website ermöglicht wird, ist es mit internen Links zudem möglich, auch den Fluss des Linkjuice 2 zu steuern. Hierzu wird das erst seit wenigen Jahren existente Attribut rel= nofollow verwendet, das die Weitergabe von Link-Popularität verhindert. Auf diese Weise können z. B. für das Ranking irrelevante Seiten wie das Impressum einer Website von der Weitergabe des Linkjuice ausgeschlossen werden, wodurch für das Ranking wichtige Seiten mehr Link-Popularität behalten. Zusätzlich sollte auch bei internen Links auf einen Keyword-optimierten Link-Text geachtet werden Bilder Da der Inhalt von Bildern derzeit von Suchmaschinen nur sehr begrenzt erfasst werden kann ist es wichtig, diese mit einem aussagekräftigen Alternativtext und Titeltext, realisiert über die beiden Attribute alt= und title=, zu versehen. Auch bei Bildern sollte zudem auf einen optimierten Dateinamen, bei dem einzelne Wörter durch Bindestriche getrennt sind, geachtet werden. Die Onpage- als auch Offpage-Optimierung von Bildern wird in Kapitel 4 detailliert beschrieben. 2 Als Linkjuice wird die Link-Popularität einer Seite bezeichnet, welche durch eingehende Links entsteht und ausgehende Links wieder abfliesst.

27 3. Grundlagen der Suchmaschinenoptimierung Offpage-Optimierung Begriffserklärung Im Gegensatz zur Onpage-Optimierung unterliegt die Offpage-Optimierung Faktoren, die nicht direkt auf der betroffenen Website zu finden sind. Dies ist der Aufbau eingehender Links von anderen Websites. Es kann gesagt werden, dass eine Website ohne explizite Onpage-Optimierung dennoch auch zu umkämpften Keywords eine gute Position im Ranking erreichen kann, sofern die Offpage-Optimierung dementsprechend gut ist. Umgekehrt ist dies nicht der Fall die beste Optimierung von Onpage-Faktoren hat bei populären Keywords keinen Erfolg ohne den Aufbau einer hinreichenden Struktur an eingehenden Links. Jedoch ist der Aufwand einer guten Offpage-Optimierung um ein vielfaches höher Bestandteile der Offpage-Optimierung Wie bereits erwähnt handelt es sich bei der Offpage-Optimierung von Websites um den Aufbau eingehender Links von anderen Seiten. Welchen Faktoren der erfolgreiche Aufbau einer Linkstruktur unterliegt ist der Hauptteil dieser Arbeit und wird in Kapitel 5 theoretisch besprochen. 3.3 Spam Unter Spam werden in Zusammenhang mit der Suchmaschinenoptimierung von Websites alle Methoden verstanden, welche das Ranking einer Website unnatürlich verbessern also im Grunde viele Elemente der Optimierung der Website an sich. Dazu gehören z. B. das Keyword-Stuffing 3, versteckte Links oder Cloaking 4. 3 Unter Keyword-Stuffing wird die unnatürlich häufige Verwendung von Keywords verstanden, um das Ranking einer Website für diese Wörter zu optimieren. [Erl06] 4 Cloaking bezeichnet das Verstecken von für Suchmaschinen optimierten Website- Elementen vor Besuchern der Website und umgekehrt. [Erl06]

28 Kapitel 4 Optimierung für die Google-Bildsuche 4.1 Allgemeines Die Google-Bildsuche stellt neben der klassischen Websuche wohl die bedeutendste Form der Google-Suche dar. Eingeführt im Dezember enthält der Index der Bildsuche mittlerweile laut eigenen Angaben mehr als 880 Millionen Bilder [Goo09c] unterschiedlichster Art, Herkunft und Größe. Dabei ist die Bedeutung der Google-Bildsuche heute sowohl auf das Suchverhalten der Benutzer als auch analog auf die indexierten Websites sehr groß und weiter steigend. So ist ein Besucheranteil von über 50%, welcher direkt über die Google-Bildsuche zugreift, bei bildlastigen Websites keine Seltenheit 2. Ein derartiges Potential sollte wie es auf vielen Websites noch der Fall ist nicht ungenutzt bleiben, jedoch sind detaillierte Informationen über die Funktionsweise der Google-Bildsuche und Optimierungsmöglichkeiten im Vergleich zu anderen Bereichen der Suchmaschinenoptimierung wenig bekannt. Der nachfolgende Exkurs dieser Diplomarbeit soll demnach relevante Informationen zu diesem unverzichtbaren Bereich der Suchmaschinenoptimierung bereit stellen. 1 Image Search 2 Der angegebene Prozentsatz wurde durch die Erfahrungen mehrjähriger Besucheranalysen mit Google-Analytics auf den Websites und ermittelt. 19

29 4. Optimierung für die Google-Bildsuche 20 Abbildung 4.1: Eine Ergebnisseite der Google-Bildsuche mit ausgewählter Kategorie und aktivem Farbfilter. 4.2 Funktionsweise der Indexierung Die Funktionsweise der Google-Bildsuche (siehe Abbildung 4.1) entspricht in ihren Grundzügen der klassischen Websuche. Wie der Google-Mitarbeiter Peter Linsley in einem Video im Rahmen der SMX West 3 im Februar 2009 erklärte [Lin09] erkennt der Google-Crawler Inline-Bilder (als Bestandteil des Inhalts einer Website) oder Bilder, auf die direkt per Link verwiesen wird, bereits in der Websuche indexierter Seiten. Gefundene Bilder werden klassifiziert und je nach Größe und Art (Fotografie, Gesichter, gezeichnete Bilder, schwarz-weiß, etc.) in Kategorien eingeteilt. Bevor ein Bild in den Bildsuche-Index aufgenommen wird, müssen desweiteren mögliche Duplikate identifiziert werden, wobei hier das qualitativ beste Bild bevorzugt wird. Soweit die Theorie. Es stellt sich jedoch die Frage, wieso auf diese Weise nicht alle Bilder einer Website (was in der Tat kaum der Fall ist) indexiert werden. Ein Google-Mitarbeiter [Goo08] nennt in den offiziellen Diskussionsforen der Suchmaschine für die Indexierung eines Bildes zwei Voraussetzungen: 3 Die SMX (Search Marketing Expo) ist eine Konferenz zum Thema Suchmaschinenmarketing und wird weltweit abgehalten (

30 4. Optimierung für die Google-Bildsuche 21 ˆ Wie bereits oben erwähnt muss sich das Bild auf einer Seite befinden, die bereits bekannt und indexiert ist. ˆ Die Seite, auf der sich das Bild befindet, muss ein gewisses Ranking und demzufolge eine entsprechende Link-Popularität besitzen. Nur dadurch kann für Google das Vertrauen entstehen, ein Bild von der jeweiligen Seite als Ergebnis in der Bildsuche anzuzeigen. Für eine möglichst vollständige Aufnahme der Bilder einer Website in die Google-Bildsuche ist somit eine gute Verteilung der Link-Popularität innerhalb der Website notwendig. Desweiteren versucht der Crawler wie Colin Georg Müller in seinem Blog beschreibt [Mül08] zwischen Content- (nur ein mal vorhanden) und Layout-Bildern (auf jeder Unterseite vorhanden) zu unterscheiden. In Bezug auf die Dateiformate werden alle gängigen Formate für Bilder im Web (JPEG, GIF, PNG, aber auch Bitmaps) unterstützt und indexiert. Hinsichtlich der Geschwindigkeit der Indexierung gab es bis vor kurzem noch deutliche Unterschiede zwischen der Google-Bildsuche und der klassischen Websuche. Während einzelne neue Seiten mitunter innerhalb weniger Tage (oder gar Stunden) in den Index der Websuche aufgenommen werden, erfolgte ein Update der Bildsuche meist in deutlich größeren Abständen, so dass die Indexierung eines Bildes mehrere Monate dauern konnte [Miß09d]. Inzwischen nimmt jedoch auch die Google-Bildsuche kontinuierlich neue Bilder auf, wie Martin Mißfeldt beschreibt [Miß09c] und wie die Ergebnisse des Versuchsaufbaus dieser Arbeit belegen. 4.3 Ranking-Kriterien Im Gegensatz zur Websuche ist über die Ranking-Kriterien der Google- Bildsuche noch wenig bekannt. Zwar legen wie Peter Linsley erklärt [Lin09] Benutzer der Bildsuche ein anderes Verhalten an den Tag als bei der Websuche und sehen sich deutlich mehr Suchergebnisse an, was zur Folge hat, dass auch Bilder am Ende einer Ergebnisseite oder auf der zweiten Ergebnisseite relativ gute Klickraten aufweisen, jedoch bleibt das Ranking eines Bildes ein wesentlicher Erfolgsfaktor. Folgende Ranking-Kriterien der Google-Bildsuche, wie sie u. a. offiziell auf der Google-Website [Goo09c] oder in einem Beitrag eines Google- Mitarbeiters [Goo08] zu finden sind, sind bekannt: ˆ Der Dateiname eines Bildes wird beim Ranking berücksichtigt. Dieser sollte sinnvoll sein und die für das Bild relevanten Keywords enthalten. ˆ Der Alt- und Title-Tag eines Bildes ist nicht nur aus Usability- Gründen, sondern auch in Hinblick auf die Verbesserung des Rankings

31 4. Optimierung für die Google-Bildsuche 22 eines Bildes empfehlenswert. Insbesondere mit dem Alt-Tag können der Bildsuche weitere Informationen zum Bild mitgeteilt werden. ˆ Um den Inhalt eines Bildes zu bestimmen und dieses thematisch zuordnen zu können bedient sich die Bildsuche zusätzlich dem Text, der sich in direkter Umgebung des Bildes befindet. ˆ Ein wesentliches Ranking-Kriterium scheint zudem die Popularität der Seite zu sein, auf welcher das Bild eingebettet ist. Je größer die Popularität der jeweiligen Seite, desto mehr Vertrauen hat Google in die Anzeige des Bildes als Suchergebnis. 4.4 Onpage-Optimierung Analog zur Optimierung von HTML-Seiten für die klassische Websuche können auch Bilder als Bestandteil einer Website sowohl Onpage- als auf Offpage-optimiert werden. Hierzu sollen nachfolgend Methoden vorgestellt werden Dateiname Wie bereits im Zuge der Ranking-Kriterien der Google-Bildsuche erwähnt ist auch der Dateiname eines Bildes von Bedeutung. Dieser sollte sinnvoll gewählt sein und für das jeweilige Bild relevante Keywords enthalten [Goo08]. Zur Trennung von Wörtern sollte wie auch bei der Onpage-Optimierung der URL-Struktur (siehe Kapitel 3) unbedingt ein Bindestrich, auf keinen Fall ein Unterstrich (dieser verbindet zwei Wörter zu einem) [Erl06], verwendet werden Alt- und Title-Tag Die Verwendung des Alt-Tags für Bilder wird u. a. in den W3C Web Content Accessibility Guidelines [W3C99] vorgeschlagen, um ein Text-Äquivalent des Bildes für Benutzer, welche das Bild nicht anzeigen oder sehen können, bereit zu stellen. Neben dieser Verbesserung der Usability ermöglicht es der Alt- Tag jedoch auch Suchmaschinen-Crawlern, welche den Inhalt eines Bildes nicht oder nur sehr begrenzt auslesen können, Informationen zu diesem zu erhalten. Ohne die Verwendung dieses Tags wird die Indexierung eines Bildes in der Bildsuche deutlich unwahrscheinlicher [Gui08]. Der verwendete Text innerhalb des Alt-Tags sollte dabei wie in den Google Webmaster Guidelines beschrieben [Goo09g] den Inhalt des Bildes mit einigen wenigen Wörtern beschreiben. In Hinblick auf die Optimierung des Bildes für die Bildsuche bietet es sich an, in die Beschreibung die relevanten Keywords einzubauen.

32 4. Optimierung für die Google-Bildsuche 23 Aus Usability-Gründen ist desweiteren auch die Verwendung des Title- Tags, welcher Benutzern als Tooltip angezeigt wird, sobald diese den Mauszeiger über das Bild bewegen, sinnvoll. Nebenbei können so der Suchmaschine weitere Informationen zum Bild gegeben werden Umgebender Text Da auch der umgebende Text eines Bildes Einfluss auf dessen Ranking in der Bildsuche hat [Goo08] sollte dieser optimiert werden. Hierbei ist generell darauf zu achten, dass sich in unmittelbarer Nähe des Bildes (bezogen auf den Quelltext der jeweiligen Seite) ausreichend Text befindet, welcher den Inhalt des Bildes beschreibt und relevante Keywords zu diesem enthält. Neben dem Alt- und Title-Tag stellt dieser Text die einzige Möglichkeit für die Suchmaschinen-Crawler dar, den Inhalt eines Bildes zu bestimmen und dieses thematisch einzuordnen Einsatz eines Framebreakers Klickt ein Benutzer auf ein Bild innerhalb der Google-Bildsuche öffnet sich die Seite, auf der Bild eingebettet ist, innerhalb eines Frames, so dass der Benutzer jederzeit zur Bildsuche zurückkehren kann; die Verweildauer auf der jeweiligen Website und die Anzahl der Seitenaufrufe ist demnach bei Besuchern, welche über die Bildsuche auf eine Website gelangen, deutlich geringer als bei anderen über eine Suchmaschine generierten Besuchern [Miß09b]. Eine Möglichkeit dies zu ändern stellt der Einsatz eines Framebreakers dar. Bei einem Framebreaker handelt es sich um wenige Zeilen JavaScript- Code, welche vorhandene Framesets auflösen und im Falle der Google- Bildsuche das Frame der Bildsuche entfernen. Wie Untersuchungen von Martin Mißfeldt [Miß09b] belegen lässt sich dadurch die Anzahl der Seitenaufrufe eines Besuchers, der über die Bildsuche auf eine Website gelangt, deutlich steigern, da dieser ohne das Google-Frame eher dazu neigt, auf der jeweiligen Website zu verweilen. Negative Auswirkungen auf die Indexierung bzw. das Ranking konnten im mehrmonatigen Test von Martin Mißfeldt nicht festgestellt werden [Miß09a]. Das Framebreaker-Script, wie es von Martin Mißfeldt [Miß09e] verwendet wurde, kann an beliebiger Stelle im Quelltext (z. B. dem Head-Bereich) einer Website eingebaut werden und ist wie folgt aufgebaut: 1 <script language="javascript" type="text/javascript"> 2 if (top.location!= self.location) 3 { 4 top.location = self.location; 5 } 6 </script>

33 4. Optimierung für die Google-Bildsuche Offpage-Optimierung Da auch die Popularität und das Ranking einer Seite, auf der sich ein Bild befindet, zu dessen Positionierung innerhalb der Google-Bildsuche beitragen [Goo08], empfiehlt sich zusätzlich zur Onpage- auch eine Offpage- Optimierung der entsprechenden Seite auf die für das Bild relevanten Keywords. Hierzu können alle Maßnahmen zur Offpage-Optimierung wie in Kapitel 5 beschrieben verwendet werden.

34 Kapitel 5 Strategien zur Offpage-Optimierung 5.1 Allgemeines Die Offpage-Optimierung einer Website inkludiert alle Maßnahmen zur Suchmaschinenoptimierung, welche nicht direkt im Inhalt der Website vorgenommen werden. Hier ist in erster Linie der Aufbau eingehender Links zu nennen. In diesem Kapitel sollen die wichtigsten theoretischen Strategien zur Offpage-Optimierung vorgestellt und miteinander verglichen werden, bevor einige davon im nachfolgenden Kapitel in einem praktischen Versuchsaufbau evaluiert werden. 5.2 Indexierung der Website Am Anfang einer jeden Offpage-Optimierung steht die Indexierung der Website. Dies erscheint auch logisch, denn ohne Seiten, die sich im Suchmaschinen-Index befinden, ist die beste Optimierung nutzlos. Aus diesem Grund sollte versucht werden, auch bei umfangreichen Websites mit wenn möglich allen Seiten einer Webpräsenz in den Index der Suchmaschinen zu gelangen denn jede indexierte Seite könnte potentielle Besucher anziehen. Neben abwarten, bis der Crawler von selbst auf die eigene Website kommt und diese nach und nach indexiert, gibt es auch Möglichkeiten, diesen Vorgang aktiv zu beeinflussen Anmeldung bei Suchmaschinen am Beispiel Google Suchmaschinen-Crawler durchsuchen bereits indexierte Websites regelmäßig nach neuen Inhalten sowie Links zu bisher noch unbekannten Websites [Erl06]. Sollte die eigene Website noch nicht in den Suchmaschinen-Index aufgenommen worden sein, kann hier entweder ein Link von einer regelmäßig 25

35 5. Strategien zur Offpage-Optimierung 26 vom Crawler besuchten Website oder aber eine direkte Anmeldung bei der Suchmaschine Abhilfe schaffen. So bietet z. B. Google Website-Betreibern die Möglichkeit, ihre Website-URL zum Index hinzuzufügen 1. Hierbei handelt es sich zwar nicht um ein wirkliches Hinzufügen sondern vielmehr um eine Bekanntmachung bzw. einen Vorschlag (siehe Abbildung 5.1); dennoch kann die Erstindexierung einer Website dadurch mitunter je nach bereits vorhandenem Linkaufbau beschleunigt werden. Genauere Informationen hierzu finden sich im nachfolgenden Kapitel. Abbildung 5.1: Die Anmeldung einer URL bzw. Website bei Google XML-Sitemaps Neben herkömmlichen HTML-Sitemaps, die sich auf einer Website befinden und in erster Linie dem Besucher (aber auch dem Suchmaschinen-Crawler) die Navigation auf der Seite erleichtern sollen, werden von den großen drei Suchmaschinen Google, Yahoo! und Live Search (bzw. Bing) seit einiger Zeit auch XML-Sitemaps unterstützt. Dabei handelt es sich in der einfachsten Form um eine Liste von URLs der Website innerhalb eines standardisierten XML-Dokumentes 2, welche wie in der Google Webmaster-Hilfe [Goo09a] beschrieben dazu dienen soll, der Suchmaschine alle Seiten auf der Website Der Standard für XML-Sitemaps wurde von sitemaps.org spezifiziert. Zur Zeit ist die Protokoll-Version 0.9 aktuell, welche unter eingesehen werden kann.

36 5. Strategien zur Offpage-Optimierung 27 bekannt zu machen; einschließlich der Seiten, die beim Crawling mitunter unentdeckt bleiben. Laut Google [Goo09a] sind XML-Sitemaps, die für Google z. B. in den Webmaster Tools 3 hinzugefügt werden können, insbesondere für Websites mit dynamischem Content, AJAX- oder Flash-Inhalten, vielen untereinander nur spärlich verlinkten Content-Seiten oder sehr neuen Websites mit wenig eingehenden Links von Vorteil. Zudem können Informationen wie die Änderungshäufigkeit oder die relative Wichtigkeit der Seiten zueinander (definiert durch einen Dezimalwert zwischen 0 und 1) angegeben werden. Ein Beispiel für eine XML-Sitemap bestehend aus einem Eintrag könnte so aussehen: 1 <?xml version="1.0" encoding="utf-8"?> 2 <urlset xmlns=" 3 <url> 4 <loc> 5 <lastmod> </lastmod> 6 <changefreq>daily</changefreq> 7 <priority>0.5</priority> 8 </url> 9 </urlset> Auf diese Weise können alle URLs einer Website (bis zu URLs pro XML-Dokument [Goo09h]) in die Sitemap aufgenommen werden. Welche Auswirkungen die Einreichung einer XML-Sitemap auf das Crawling und den Indexierungsvorgang für eine Website hat, ist nicht ohne weiteres zu beantworten. Google verweist darauf, dass die in einer Sitemap enthaltenen URLs nicht automatisch auch in den Index übernommen werden, eine Sitemap jedoch generell Vorteile mit sich bringt [Goo09b]. Die tatsächlichen Auswirkungen einer XML-Sitemap sind ein Teil des praktischen Versuchsaufbaus zur Offpage-Optimierung im nächsten Kapitel. 5.3 Linkquellen Ein unverzichtbarer Teil der Offpage-Optimierung besteht in der Erschließung von Linkquellen, wobei es mittlerweile deutlich mehr Möglichkeiten als den abgesprochenen Linktausch mit anderen Websites gibt. Hierbei gilt jedoch zu beachten, dass Linkquelle nicht gleich Linkquelle ist und sich diese in der Qualität der möglichen Links auf die eigene Website teilweise deutlich unterscheiden sei es durch Faktoren auf der Website, von welcher der Link ausgeht oder bedingt durch die Ranking-Algorithmen der Suchmaschinen. Nachfolgend werden einige der populärsten Möglichkeiten, eingehende Links aufzubauen, vorgestellt. 3

37 5. Strategien zur Offpage-Optimierung Webkataloge Webkataloge, welche meist aus einer mehr oder weniger umfangreichen thematisch sortieren Liste von Links zu anderen Websites bestehen, gehören zu einer der ältesten Möglichkeiten, eingehende Links für eine Website aufzubauen. Wie Kristopher B. Jones beschreibt [Jon08] haben Links aus Webkatalogen in den letzten Jahren zwar deutlich an Einfluss auf das Suchmaschinen-Ranking verloren, können jedoch immer noch besonders bei Links aus den großen Verzeichnissen eine entscheidende Rolle spielen. Mario Fischer begründet in seinem Buch Website-Boosting [Fis06] den Einfluss auf dreierlei Art: ˆ Einträge in Webkataloge werden in der Regel manuell hinzugefügt, was die Begutachtung der Website durch einen Redakteur nötig macht. Dies reduziert für die Suchmaschine das Risiko, dass es sich bei der Website um eine für einen anderen Zweck manipulierte Seite ohne für das Thema relevanten Inhalt handelt. ˆ Da die Eintragung in einige Webkataloge kostenpflichtig ist, kann die Suchmaschinen davon ausgehen, dass es sich um eine ernsthaftere Website handelt, die bedingt durch die finanzielle Investition im Rahmen der Eintragung eine gewisse Qualität aufweisen müsste. ˆ Die Einteilung der jeweiligen Website in einen bestimmten Themenbereich erlaubt es der Suchmaschine, das tatsächliche Thema einer Seite abzuschätzen bzw. mit den eigenen Auswertungen abzugleichen. Kostenpflichtige Webkataloge Die Eintragung in kostenpflichtige Webkataloge wie Yahoo 4, Web.de 5 (siehe Abbildung 5.2) oder Allesklar 6 bringt einen qualitativ guten Link aus einem themenrelevanten Bereich einer für Suchmaschinen vertrauenswürdigen Website, schlägt jedoch mit bis zu mehreren hundert Euro jährlich zu Buche. Diese Tatsache berücksichtigend stellt sich die Frage, ob eine derartige Investition sinnvoll ist und nicht besser in einem anderen Bereich sei es der Kauf eingehender Links oder eine bessere Onpage-Optimierung getätigt werden sollte

38 5. Strategien zur Offpage-Optimierung 29 Abbildung 5.2: Web.de als Beispiel für einen kostenpflichten Webkatalog. Kostenlose Webkataloge Der Großteil aller zur Verfügung stehenden Webkataloge bietet die kostenlose Eintragung der eigenen Website an. Dabei handelt es sich meist um kleinere Webkataloge, die einzeln kaum Einfluss auf das Ranking der Website haben. Mehrere Eintragungen in diesen Katalogen können jedoch auch die Link-Popularität der eigenen Website steigern und für ein gewisses Grundrauschen an eingehenden Links sorgen. Beachtet werden sollte dabei jedoch, dass die ausgehenden Links im Webkatalog dessen Link-Popularität weitergeben und nicht mit dem Attribut rel= nofollow versehen sind. Desweiteren besteht bei vielen kostenlosen Webkatalogen eine Backlink-Pflicht, welche die Freischaltung der Eintragung von einem Backlink auf der entsprechenden Website abhängig macht; Eintragungen dieser Art nutzen meist mehr dem Anbieter des Katalogs als der eingetragenen Website. Das Open Directory Project Betrachtet man alle derzeit verfügbaren Webkataloge, hat wohl das sogenannte Open Directory Project 7, auch DMOZ genannt (siehe Abbildung 7

39 5. Strategien zur Offpage-Optimierung ), den höchsten Stellenwert für das Website-Ranking. Diese Einschätzung wird zum einen von diversen Autoren von Fachliteratur wie Mario Fischer [Fis06], Sebastian Erlhofer [Erl06] oder Kristopher B. Jones [Jon08] geteilt als auch durch die Tatsache vermittelt, dass die im DMOZ kostenlos und von freiwilligen Redakteuren betreuten Inhalte auch für das Googleeigene Webverzeichnis 8 benutzt werden. Die Eintragung der eigenen Website in das DMOZ ist kostenlos und abhängig von Themenrelevanz und Qualität der jeweiligen Seite, kann jedoch nicht garantiert werden und dauert mitunter sehr lange. Abbildung 5.3: Das Open Directory Project Artikelverzeichnisse Artikelverzeichnisse sind ähnlich wie Webkataloge in verschiedene Themenbereiche unterteilt, beinhalten jedoch keine reine Liste an Links zu anderen Websites, sondern von Autoren geschriebene Artikel. Das Verzeichnis profitiert von kostenlosem und meist exklusivem Content, der Besucher anlockt 8

40 5. Strategien zur Offpage-Optimierung 31 im Gegenzug ist es Autoren gestattet, eine gewisse Anzahl an Links in die Artikel einzubauen und somit themenrelevante und direkt aus dem Textfluss kommende Links auf die eigenen Websites zu setzen. Dies klingt zuerst verlockend, es sollte jedoch bedacht werden, dass Artikel erst geschrieben werden müssen und der Zeitaufwand für einen sinnvollen Text zu einem bestimmten Thema mit 300 bis 1000 Wörtern nicht unterschätzt werden sollte. Zudem werden Artikel von Redakteuren begutachtet, bevor sie veröffentlicht werden, so dass ein gewisses Qualitätsniveau gegeben sein muss. Besitzt man jedoch ein fundiertes Wissen in einem bestimmten Bereich, über das man ohne zeitaufwändige Recherche schreiben kann, oder ist in der Lage, derartige Texte günstig erstellen zu lassen, stellen Artikelverzeichnisse wie Fabian Ziegler in seinem Artikel anmerkt [Zie09] eine sehr gute Möglichkeit dar, themenrelevante eingehende Links zu erzielen und auf diese Weise die Position der eigenen Websites in den SERPs 9 zu verbessern. Die Popularität von Artikelverzeichnissen zum Zweck der Offpage- Suchmaschinenoptimierung dürfte jedoch immer mehr abnehmen, da Google bereits damit begonnen hat, die PageRank-Werte von Artikelverzeichnissen zu reduzieren [Zie09] Social Bookmarks Social Bookmarks sind eine relativ neue Entwicklung des Web 2.0. Wie des Wort Bookmarks aus der Bezeichnung bereits andeutet handelt es sich dabei um Lesezeichen 10, die von Benutzern der Social Bookmarking Dienste eingetragen und somit online verwaltet werden können. Als Social werden die Dienste bezeichnet, da die eingetragenen Lesezeichen durch sogenannte Tags einem oder mehreren unterschiedlichen Wörtern bzw. Kategorien zugeteilt und für alle Besucher der Website öffentlich zugänglich sind. Es erfolgt zudem eine Gewichtung der einzelnen Lesezeichen anhand der Anzahl der Benutzer, welche dieses Lesezeichen gesetzt haben. Bekannte Social Bookmarking Dienste im englisch- als auch deutschsprachigen Web sind Delicious 11, StumbleUpon 12 oder Mister Wong 13 (siehe Abbildung 5.4). Bezugnehmend auf die Offpage-Suchmaschinenoptimierung erscheinen Social Bookmarks auf den ersten Blick als ein probates Mittel, kostenlos und ohne großen Aufwand eingehende Links von Websites mit hoher Popularität zu erzielen. So gut wie alle großen und auch viele kleinere Social Bookmarking Dienste sind jedoch aufgrund des Missbrauchs, der zur 9 SERPs ist die Abkürzung für Search Engine Result Pages und bezeichnet die Suchergebnis-Seiten der Suchmaschinen. 10 Lesezeichen sind in diesem Kontext als Links zu Websites zu verstehen, wie sie auch in einem Webbrowser gespeichert werden können

41 5. Strategien zur Offpage-Optimierung 32 Abbildung 5.4: Die Startseite des Social Bookmarking Dienstes Mister Wong. Suchmaschinenoptimierung mit den Social Bookmarks betrieben wurde, dazu übergegangen, ausgehende Links mit dem bereits bekannten nofollow Attribut zu versehen und somit zur Steigerung der Link-Popularität unbrauchbar zu machen. Was bleibt sind Besucher, die direkt über populäre Lesezeichen auf eine Website gelangen [Leo07]. Inwieweit Links auf Social Bookmarking Websites trotz nofollow Attribut zur Verbesserung des Rankings einer Website beitragen, ist unbekannt. Einer Antwort auf diese Frage soll durch den Versuchsaufbau zur Offpage-Suchmaschinenoptimierung, der im nachfolgenden Kapitel beschrieben wird, näher gekommen werden Social Media und Social News Parallel zu Social Bookmarks haben sich in den letzten Jahren zusätzlich viele Netzwerke wie z. B. Facebook 14, MySpace 15, Youtube 16 oder Digg 17 entwickelt, welche unter den Überbegriffen Social Media und Social News zusammengefasst werden. Eine Optimierung der eigenen Website für diese Dienste

42 5. Strategien zur Offpage-Optimierung 33 wird auch als Social Media Optimization, kurz SMO, bezeichnet [Jon08]. Diese kann zu einer Steigerung des Besucheraufkommens auf der eigenen Website führen, zusätzlich jedoch auch trotz der großen Verbreitung des nofollow Attributs den organischen Traffic18 durch eine Verbesserung des Rankings erhöhen, wie Kristopher B. Jones beschreibt [Jon08] Microblogging Microblogging reiht sich ein in die Liste der zuvor besprochenen Web 2.0 Dienste, die zu einer Erhöhung der Popularität der eigenen Website führen können. Als Microblogging wird eine neue Form des Bloggings bezeichnet, die es Benutzern von Diensten wie Twitter 19 (das wohl populärste Microblogging Netzwerk; siehe Abbildung 5.5) ermöglicht, kurze Textnachrichten zu veröffentlichen und diese allen Besuchern des Netzwerks oder nur einer ausgewählten Gruppe zugänglich zu machen [Jon08]. Auf Twitter werden diese Textnachrichten als Tweets bezeichnet und werden ebenso wie das Twitter-Profil eines Benutzers von Suchmaschinen teilweise innerhalb weniger Minuten indexiert [Upp09]. Abbildung 5.5: Microblogging mit Twitter. 18 Als organisch wird Traffic (das Besucheraufkommen einer Website) dann bezeichnet, wenn dieser durch die natürliche Indexierung einer Suchmaschine und die daraus folgende Darstellung in den Suchergebnissen erzeugt wird. 19

43 5. Strategien zur Offpage-Optimierung 34 Diese indexierten Tweets und Links von sogenannten Followers 20 führen zu einer Steigerung der Linkpopularität und folglich des PageRank des eigenen Twitter-Profils; PageRank-Werte von 5 sind für Twitter-Profile keine Seltenheit, wie Jit Uppal in seinem Artikel über Twitter und Suchmaschinenoptimierung [Upp09] ausführt. Eine hohe Link-Popularität des eigenen Twitter-Profils kombiniert mit einer großen Anzahl an Followers führt wiederum zu einem hohen Besucheraufkommen, welches über ausgehende Links auf der Profil-Seite für andere Websites genutzt werden kann. Konnte bis vor kurzem noch über Links in bestimmten Bereichen eines Twitter-Profils zusätzlich Link-Popularität weitergegeben werden, ist dies heute nicht mehr möglich, da alle ausgehenden Links einer Profil-Seite mit dem nofollow Attribut versehen sind. Der direkte Nutzen des Microblogging zur Offpage- Optimierung ist somit in Frage zu stellen RSS-Feeds RSS-Feeds, die Abkürzung für Really Simple Syndication, ermöglichen es Website-Betreibern ihren Inhalt in Form von Textauszügen im XML-Format zu verbreiten, damit dieser von Benutzern in einem anderen Format als direkt auf der eigenen Website angesehen werden kann [Squ07]. Diese Form der Content-Publizierung ermöglicht es, den eigenen Inhalt auf anderen Websites zu platzieren, diesen mit direkten Links in der Überschrift oder dem Inhalt selbst auf die eigene Website zu versehen und somit themenrelevante Backlinks zu generieren, die für einen natürlichen Linkaufbau durch Deep-Links sorgen. Blogs sollten zudem zwingend von RSS-Feeds Gebrauch machen, um in der Google Blog Suche 21 gefunden zu werden [Zag09]. Jedoch genügt alleine die Bereitstellung eines RSS-Feeds nicht, um die Link-Popularität der Quell-Website zu erhöhen angebotene RSS-Feeds sollten zudem in RSS-Feed Suchmaschinen und RSS-Verzeichnisse eingetragen werden, wobei letztere die Indexierungsgeschwindigkeit für neue Artikel erhöhen und durch Backlinks die Link-Popularität der Quell-Website erhöhen können (sofern dofollow 22 Backlinks verwendet werden) [NET09]. Diese Aussagen zusammenfassend kann wohl gesagt werden, dass RSS-Feeds eine gute Möglichkeit darstellen, die Offpage- Suchmaschinenoptimierung zu unterstützen und für Besucher darüber hinaus eine komfortable Möglichkeit zu schaffen, sich über Neuigkeiten auf der eigenen Website auf dem Laufenden zu halten. 20 Als Followers werden alle Abonnenten bzw. Empfänger der Tweets eines bestimmten Autors bezeichnet Als dofollow Links werden ausgehende Links bezeichnet, die nicht das nofollow Attribut verwenden und somit regulär Link-Popularität weitergeben.

44 5. Strategien zur Offpage-Optimierung Das Kakadu-Prinzip Beim sogenannten Kakadu-Prinzip, welches von Sebastian Erlhofer in seinem Buch Suchmaschinenoptimierung für Webentwickler [Erl06] beschrieben wird handelt es sich um eine indirekte Methode, die Link-Popularität der eigenen Website zu erhöhen. Der Grundgedanke besteht darin, die Inhalte der Website so zu gestalten, dass diese die Aufmerksamkeit anderer Website-Besitzer auf sich ziehen und freiwillig Backlinks auf die eigene Website gesetzt werden. Derartige, natürlich aufgebaute eingehende Links, die zudem in den meisten Fällen themenrelevant sind, stellen ohne Zweifel eine der besten Möglichkeiten zur Offpage-Suchmaschinenoptimierung dar, auch wenn gewisse Qualitätskriterien (welche später noch besprochen werden) nicht beeinflusst werden können. Beim Kakadu-Prinzip steht jeder Buchstabe des Wortes für einen Inhaltstyp, der das Interesse anderer Website-Besitzer wecken soll: ˆ Kostenloses Kostenlose Inhalte, seien es Texte, Bilder, Downloads etc., sind seit jeher beliebt, da sie dem Grundgedanken des Internet entsprechen. Die Popularität kostenloser Inhalte wird auch deutlich, wenn man die Zahl der Google-Suchergebnisse für das Wort kostenlos betrachtet, welche im dreistelligen Millionenbereich liegen. ˆ Aktuelles Auch aktuelle Informationen oder Inhalte sind besonders im schnelllebigen Medium Internet sehr gefragt. Die Exklusivität aktueller Informationen ist, wie Sebastian Erlhofer besonders anmerkt [Erl06], ein weiterer wichtiger Faktor. ˆ Künstlerisches Künstlerische Inhalte wie Grafiken, Fotos, Videos oder Musik sind sehr beliebt, wie der Erfolg von Websites wie Flickr 23, DeviantArt 24 oder YouTube 25 zeigt. Websites, die qualitativ hochwertige Inhalte aus diesen Bereichen anbieten, haben gute Chancen, aufgrund ihres Inhalts Empfehlungen von anderen Website-Besitzern zu bekommen, welche wiederum mit dem Link einen Mehrwert für ihre Besucher schaffen. ˆ Außergewöhnliches Außergewöhnliche Inhalte ziehen Besucherströme aufgrund ihrer Seltenheit an, wie Sebastian Erlhofer treffend beschreibt [Erl06]. Um welche Inhalte es sich hierbei handelt, ist sekundär die neuartige Idee und wenn möglich Einzigartigkeit zählt. Ein hervorragendes Beispiel

45 5. Strategien zur Offpage-Optimierung 36 hierfür ist die Website The Million Dollar Homepage 26, welche auf einer Gesamtfläche von 1 Million Pixeln jeweils mind. 10x10 Pixel zu einem Preis von 1 Dollar pro Pixel als Werbefläche zur Verfügung stellte und durch diese neuartige Idee ein enormes mediales Interesse auf sich zog, wodurch alle 1 Millionen Pixel bereits nach kurzer Zeit verkauft waren. Nachahmer konnten nur kurzfristig einen Teil dieses Erfolges wiederholen. ˆ Downloads Seit jeher sind auch Downloads, seien es Freeware- oder Demo- Versionen von Programmen und Spielen oder auch Plugins, Extensions oder Themes, sehr beliebt. Mit der steigenden Anzahl an Websites, die kostenlose Downloads anbieten, sind jedoch auch neue Ideen oder besonders interessante Inhalte gefragt, um ein solches Angebot aus der Masse hervorzuheben. ˆ Unerlaubtes Unerlaubte bzw. verbotene Inhalte sind auch im Internet reizvoll, wobei sich Website-Anbieter hier im besten Fall in einer rechtlichen Grauzone bewegen, wie dies z. B. bei Websites, welche Seriennummern und Programme zur Freischaltung kostenpflichtiger Software oder Links zu illegalen Downloads (siehe The Pirate Bay 27 ) anbieten, der Fall ist. Generell kann gesagt werden, dass das Kakadu-Prinzip eine direkte Beziehung zwischen der inhaltlichen Qualität einer Website und der Anzahl an freiwilligen Verlinkungen auf diese beschreibt, wie es auch logisch erscheint Linkbait Linkbait nennt sich eine weitere Strategie zur indirekten Erhöhung der Link- Popularität, die ähnlich dem Kakadu-Prinzip durch den Inhalt einer Website freiwillig gesetzte, eingehende Links fördern soll, dabei jedoch provokativer ist und vornehmlich in Blogs verwendet wird. Der Grundgedanke besteht wie Kristopher B. Jones beschreibt [Jon08] darin, durch sogenannte Hooks bzw. Aufhänger in Artikeln die Aufmerksamkeit der Leser auf sich zu ziehen. Beispiele für Hooks wären z. B. ein Artikel mit der Thema Wie verdient man 1 Million Euro in einem Monat? oder aber ein Artikel, der eine lustige, vielleicht erfundene Geschichte (mitunter auch als Hoax 28 bekannt) erzählt. Linkbaiting bedient sich dabei seit den Anfängen des Journalismus bekannter Elemente, die bereits seit vielen Jahren in einschlägigen Zeitungen Als Hoax wird eine (scherzhafte) Falschmeldung bezeichnet, die über moderne Medien wie das Internet verbreitet und von vielen für wahr gehalten wird (

46 5. Strategien zur Offpage-Optimierung 37 und Magazinen Verwendung finden. Die Nutzung dieser Methode im Bereich der Offpage-Suchmaschinenoptimierung ist eine logische Konsequenz, welche besonders im Blog-Bereich sinnvoll erscheint Satellitendomains Als letzte Strategie zur Steigerung der Link-Popularität sollen an dieser Stelle die sogenannten Satellitendomains besprochen werden. Der Aufbau genügend eingehender Links auf eine Website, um diese in einem schwierigen, umkämpften Bereich in den SERPs nach vorne zu bringen, ist kein leichtes Unterfangen, da die benötigten Links von anderen Websites nicht direkt gesetzt werden können und man als Website-Besitzer, wie auch Sebastian Erlhofer beschreibt [Erl06], auf die Hilfe anderer angewiesen ist. Leichter hat man es, wenn man mehrere Websites besitzt, die man untereinander je nach Bedarf verlinken kann, was im Normalfall jedoch mit relativ viel Aufwand verbunden ist. Die Lösung stellen Satellitendomains meist kleine, einfach gestaltete Microseiten, die auf ein bestimmtes Thema oder gar Keyword optimiert wurden dar, die in großer Zahl erstellt werden, um auf die Hauptseite zu verweisen und im übertragenen Sinn um diese wie Satelliten kreisen. Die Link-Popularität der Satellitendomains kann dabei durch bereits beschriebene Linkquellen wie Webkataloge oder Artikelverzeichnisse gesteigert werden, um dann im nächsten Schritt durch ausgehende Links mit effektiven Link-Texten an die Hauptseite weitergegeben zu werden. Dieses Vorgehen grenzt zwar an Suchmaschinen-Spam [Erl06], hat im schlimmsten Fall dem Ausschluss der Satelliten-Domain aus dem Google- Index jedoch weit geringere Konsequenzen, als dies beim Ausschluss der Hauptseite der Fall wäre. So können die eingesetzten Methoden zur Suchmaschinenoptimierung auf Micoseiten durchaus etwas experimentierfreudiger sein. Sebastian Erlhofer bemerkt in seinem Buch [Erl06], dass Satellitendomains offensichtlich sehr gut funktionieren, dabei jedoch darauf zu achten ist, dass diese aufgrund der IP-Popularität eine andere IP-Adresse als die Hauptseite aufweisen sollten. Das Thema IP-Popularität wird als eines der Qualitätskriterien der Offpage-Optimierung später in diesem Kapitel besprochen. 5.4 Qualitätskriterien der Offpage-Optimierung Neben den bereits besprochenen Linkquellen sind zudem Qualitätskriterien im Zuge der Offpage-Suchmaschinenoptimierung zu beachten, die über Erfolg und Misserfolg entscheiden können. Hierbei gibt es viele verschiedene Einflüsse, die die Gewichtung eines Links auf das Suchmaschinen-Ranking einer Website bestimmen. Nachfolgend sollen die einer Recherche in Fachli-

47 5. Strategien zur Offpage-Optimierung 38 teratur 29 zufolge wichtigsten dieser Kriterien besprochen werden Domainalter Das Alter der eigenen Website-Domain kann klarerweise nicht durch Link- Building-Strategien beeinflusst werden, soll an dieser Stelle aber dennoch Erwähnung finden, da es ohne Zweifel (wie später näher erläutert wird) einen großen Einfluss auf das Website-Ranking hat. Laut Aussagen eines Google-Mitarbeiters auf einer Suchmaschinen-Konferenz in San Jose werden neue Domains zu Beginn auf Probe in den Index aufgenommen, wobei in dieser Zeitspanne besonders das Benutzerverhalten auf die Domain sowie der Linkaufbau der Website beobachtet wird [Fis06]. Alle Arten des unnatürlichen Linkaufbaus, seien es sehr viele Links oder besonders PageRank starke Links innerhalb kurzer Zeit, dürften die Aufmerksamkeit von Google erregen. Mario Fischer nennt in seinem Buch Website Boosting [Fis06] hierfür vor allem den Grund, dass Google auf diese Weise Suchmaschinen-Spam reduzieren will sei es durch Spammer oder auch Firmen, welche in kürzester Zeit unzählige neue Keyword-Domains 30 anmelden, um in den Suchergebnissen möglichst gut gelistet zu sein. Die Relevanz des Domainalters auf das Ranking einer Website wird im Extremfall als Sandbox-Effekt 31 bezeichnet und wurde neben oben genannter Aussage auch von Matt Cutts, einem führenden Google-Mitarbeiter, auf der PubCon 2005 in Las Vegas indirekt bestätigt. Dieser verwies darauf, dass es zwar keine Sandbox gäbe, der Ranking-Algorithmus unter Umständen aber Effekte zeigen kann, die als Sandbox betrachtet werden können [Erl06]. Existent ist der Sandbox-Effekt je nach Quelle seit 2004 [Erl06] bzw [Fis06]. Wie deutlich wird, kann das Alter einer Domain nicht nur positive Effekte auf das Ranking haben, sondern im schlimmsten Fall, dem Sandbox-Effekt, durch unnatürlich schnellen Linkaufbau und Überoptimierung im Allgemeinen, auch zu einer massiven Abwertung einer Website führen. Auch eine Domainübernahme mit anschließendem Themenwechsel stellt wie Mario Fischer beschreibt [Fis06] ein Risiko dar, da Google neben dem Alter einer Domain auch auf plötzliche Änderungen am Grundthema einer Website achtet. 29 Zur Bestimmung der wichtigsten Kriterien wurden insbesondere die Bücher Suchmaschinenoptimierung für Webentwickler [Erl06], Search Engine Optimization: Your visual blueprint for effective Internet Marketing [Jon08], Besseres Webseiten-Ranking bei Google & Co. [Mor06], Suchmaschinen-Ranking optimieren [Mor05] sowie Website- Boosting [Fis06] herangezogen. 30 Als Keyword-Domain wird eine Domain bezeichnet, deren Name in erster Linie aus einer Aneinanderreihung von Keywords, getrennt durch Bindestriche, besteht [Erl06]. 31 Als Sandbox (zu Deutsch Sandkosten ) wird dieser Effekt bezeichnet, da junge Domains im übertragenen Sinn von Google zum Spielen in den Sandkasten geschickt werden.

48 5. Strategien zur Offpage-Optimierung Themenrelevanz eingehender Links Wie in Kapitel 2 beschrieben ist davon auszugehen, dass die Themenrelevanz eingehender Links einen großen Einfluss auf die Gewichtung eines Verweises hat. Dies erwähnt auch Sebastian Erlhofer in seinem Buch [Erl06] und empfiehlt, bei der Wahl eingehender Links besonders auf eine thematische Ähnlichkeit zu achten. Aus Sicht der Suchmaschine ist die Gewichtung der Themenrelevanz durchaus sinnvoll und nachvollziehbar Websites werden mit größerer Wahrscheinlichkeit freiwillig Empfehlungen auf thematisch ähnliche als auf themenfremde Websites setzen; zudem könnten derartige Links bzw. Empfehlungen aufgrund der Erfahrung der linkgebenden Website auch als relevanter eingestuft werden Geschwindigkeit des Linkaufbaus Aufgrund der Ranking-Algorithmen moderner Suchmaschinen wie Google hat die Anzahl und Qualität der eingehenden Links mit den größten Einfluss auf das Ranking der jeweiligen Website. Grundsätzlich gilt hier, je mehr Verweise von anderen Websites ausgesprochen werden, desto höher auch die Link-Popularität und in Folge die Platzierungen in den SERPs. Dies führte wie Mario Fischer in seinem Buch beschreibt [Fis06] dazu, dass immer mehr Links innerhalb kurzer Zeit gekauft wurden, was mit dem ursprünglichen Gedanken der Link-Popularität als Anzahl der freiwilligen Empfehlungen für eine Website nichts mehr zu hat. Dieser Entwicklung wurde seitens der Suchmaschinen mit einer Gewichtung der Geschwindigkeit des Linkaufbaus im Ranking-Algorithmus begegnet. Hierbei kann die Suchmaschine auf ihren enormen Datenbestand zurückgreifen, der auch ältere Versionen einer Website beinhaltet und somit die Entwicklung (insbesondere die Anzahl eingehender Links) dieser darstellen kann. Die Frage, welche Art des Linkaufbaus als normal zu bezeichnen ist, lässt sich wiederum anhand der Milliarden anderer Websites bestimmen, für die ebenso detaillierte Daten vorliegen. Eine einfache Suche nach Anomalien im Datenbestand, z. B. basierend auf der durchschnittlichen Anzahl an Links, die für eine Website bestimmter Größe pro Monat hinzu kommen, fördert auffällige Werte sofort zu Tage. Berücksichtigt wird zudem nicht nur die Linkzunahme, sondern auch die Linkabnahme [Fis06]. Einen Richtwert, wie viele neue eingehende Links pro Zeitspanne von Suchmaschinen noch als normal angesehen werden, gibt es nicht. Es sollte jedoch generell immer bedacht werden, dass Suchmaschinen wie Google auch in diesem Bereich größten Wert auf Natürlichkeit legen Link-Exklusivität Ein wesentliches Qualitätskriterium eines Verweises ist die Link- Exklusivität, wie sie von André Moritz [Mor05] bezeichnet wird. Damit

49 5. Strategien zur Offpage-Optimierung 40 gemeint ist schlicht die Anzahl ausgehender Links einer linkgebenden Website und ihr Einfluss auf die Weitergabe der Link-Popularität, wie bereits in Kapitel 2 im Rahmen des PageRank-Algorithmus beschrieben wurde. Je weniger ausgehende Links eine Seite einer Website aufweist, umso geringer ist die Anzahl der Links, auf welche die Link-Popularität aufgeteilt werden muss, was diese wiederum für jeden einzelnen Link erhöht. Der eingehende Link einer Website mit einem PageRank von 3 und nur einem ausgehenden Link ist so z. B. deutlich mehr Wert als der Verweis von einer Website mit einem PageRank von 5, welche jedoch noch 50 andere ausgehende Links setzt [Mor05]. Bei der Anzahl ausgehender Links sollte zudem, wie Google in den Richtlinien für Webmaster erwähnt [Goo09f], auch darauf geachtet werden, dass deren Häufigkeit in einem vernünftigen Rahmen bleibt und 100 Stück nicht übersteigt. Da die Zahl 100 in Zusammenhang mit der Anzahl ausgehender Links öfter genannt wird [Mor05] [Erl06] kann davon ausgegangen werden, dass ausgehende Links von Seiten mit mehr als 100 Verweisen anders gewichtet werden. Neben der reinen Link-Anzahl ist laut Sebastian Erlhofer [Erl06] auch deren Positionierung ausschlaggebend für die Qualität. In diesem Zusammenhang seien sogenannte Link-Farmen genannt; dabei handelt es sich um Websites, die aus Listen thematisch unsortierter Links bestehen und von Google erkannt und als Suchmaschinen-Spam betrachtet werden [Erl06] Unidirektionale und reziproke Links Die Eigenschaften unidirektional und reziprok Beschreiben die Art, wie Links (z. B. im Austausch mit einer anderen Website) gesetzt werden können. Dabei werden drei verschiedene Linktypen unterschieden [Ger08]: ˆ Unidirektionale (einseitige) Links Ein unidirektionaler Link zeigt wie aus der Bezeichnung abgeleitet werden kann nur in eine Richtung. Seite A verlinkt auf Seite B, jedoch setzt Seite B keinen Link zurück auf Seite A (siehe Abbildung 5.6). ˆ Reziproke (gegenseitige) Links Als reziprok werden Links bezeichnet, wenn diese gegenseitig gesetzt werden. Seite A setzt einen Link auf Seite B, Seite B wiederum verweist auf Seite A (siehe Abbildung 5.7). ˆ Drei-Wege-Links Drei-Wege-Links ermöglichen den Linktausch zwischen Websites, ohne auf reziproke Links zurückgreifen zu müssen. Dabei verlinkt Seite A auf Seite B, Seite B verlinkt jedoch auf Seite C (die den gleichen Besitzer hat wie Seite A). An dieser Form des Linktauschs sind mind.

50 5. Strategien zur Offpage-Optimierung 41 drei Websites beteiligt. Je weiter entfernt (im Sinne eines Verwandtschaftsverhältnisses) Seite A von Seite C ist, desto geringer ist die Wahrscheinlichkeit, dass diese Form des Linktauschs von Suchmaschinen als solcher erkannt wird (siehe Abbildung 5.8). Abbildung 5.6: Beispiel für einen unidirektionalen Link. Abbildung 5.7: Beispiel für einen reziproken Link. Abbildung 5.8: Beispiel für einen Drei-Wege-Link. Reziproke Links entsprechen der ursprünglichen Natur des Verlinkens, wie Aurel Gergey schreibt [Ger08]. Dennoch wird angenommen, dass diese Form der Verlinkung zweier Websites weniger Wirkung hat, seitens der Suchmaschinen als unnatürlich betrachtet und eine Abmachung (die in den meisten Fällen natürlich auch besteht) zwischen den beiden Website- Besitzern vermutet wird [G-L07]. Google selbst spricht sich auch offiziell in der Webmaster-Hilfe zum Thema Linktauschprogramme gegen übermäßigen Linkaustausch und übermäßige gegenseitige Vernetzung aus [Goo09e].

51 5. Strategien zur Offpage-Optimierung 42 Hierbei stellt sich wiederum die Frage, ab wann reziproke Links als übermäßig zu bezeichnen sind. Empfehlungen variieren in diesem Bereich und reichen von 25% [G-L07] bis zu in geringem Ausmaß [Ger08]. Generell stimmen alle Quellen überein, dass ein geringer Teil reziproker Links (insbesondere themenrelevant [G-L07]) durchaus seine Wirkung hat, unidirektionale Verweise, von Kristopher B. Jones auch als One-Way-Links bezeichnet [Jon08], jedoch einen größeren Effekt auf das Ranking einer Website haben. Der Einfluss unidirektionaler bzw. reziproker Links ist auch Teil des praktischen Versuchsaufbaus dieser Arbeit Link-Texte Die Link-Texte eingehender Verweise, auch als Anchor-Texte bezeichnet, haben wie in Kapitel 2 beschrieben, insbesondere bei Google, einen sehr großen Einfluss auf das Ranking einer Website für bestimmte Suchbegriffe. Jedoch sollte, wie André Moritz beschreibt [Mor06], auch bei der Wahl der Link-Texte auf ein gewisses Maß an Natürlichkeit geachtet werden. Von zu 100% identischen Link-Texten ist demnach abzuraten, da Suchmaschinen dies als Manipulationsversuch werten und die betreffende Website abwerten könnten. Auf eine möglichst natürlich wirkende Variation der für eingehende Links verwendeten Texte sollte unbedingt geachtet werden. Wie groß diese Variation sein muss, ist jedoch nicht bekannt. Auch diese Frage ist Bestandteil des Versuchsaufbaus im Rahmen dieser Arbeit Deep-Links Sogenannte Deep-Links bezeichnen eingehende Links, welche jedoch nicht wie üblich direkt auf die Startseite, sondern auf eine Unterseite einer Website, verweisen. Laut Christine Taylor [Tay08] und Shell Harris [Har07] gibt es drei gute Gründe, neben konventionellen Links auch Deep-Links zum Linkaufbau zu verwenden: ˆ Suchmaschinen sehen Deep-Links als einen Indikator für die Qualität des Inhalts einer Website. Verweist eine gewisse Anzahl an eingehenden Links direkt auf die Inhalte von Unterseiten, müssen diese relevante Informationen beinhalten. ˆ Ein kompletter Verzicht auf Deep-Links könnte für Suchmaschinen unnatürlich erscheinen und zu einer Benachteiligung der jeweiligen Website im Ranking führen, da eine gezielte Manipulation vermutet wird. ˆ Deep-Links verhelfen auch den jeweiligen Unterseiten zu besseren Positionen in den SERPs, sodass sich für potentielle Besucher mehrere Einstiegsmöglichkeiten neben der Startseite ergeben.

52 5. Strategien zur Offpage-Optimierung 43 Ebenso wie beim Qualitätskriterium Link-Texte gibt es auch für Deep- Links keine konkreten Empfehlungen, wie groß deren Anteil an der Gesamtzahl eingehender Links sein soll. Dieser Frage soll ebenso im praktischen Versuchsaufbau nachgegangen werden IP-Popularität Der Einsatz der IP-Popularität in den Ranking-Algorithmen der großen Suchmaschinen ist als gesichert anzusehen [Erl06]. André Moritz nennt hierfür als Grund, dass auf diese Weise die Eigenlinks von Besitzern mehrerer Websites (welche jedoch meist auf dem gleichen Webserver mit identischer IP-Adresse gehostet sind) verhindert werden sollen [Mor06]. Inwieweit Links aus gleichen IP-Adressbereichen wirklich von Suchmaschinen in ihrer Wirkungsweise herabgesetzt werden, ist jedoch nicht bekannt. An dieser Stelle sollte auch bedacht werden, dass in Zeiten virtueller Webserver 32 eine gleiche oder ähnliche IP-Adresse nicht zwangsläufig auch ein und den selben Website-Besitzer zur Folge hat und diese Tatsache auch seitens der Suchmaschinen berücksichtigt werden dürfte Gewichtung des PageRank eingehender Links Inwieweit der PageRank als Indikator für die Link- bzw. Domain-Popularität einer Website Einfluss auf deren Ranking hat wurde bereits in Kapitel 2 besprochen. Es stellt sich jedoch die Frage, ob wenige eingehende Links mit hohen PageRank-Werten gegenüber mehreren Links von Websites mit geringeren PageRank-Werten im Vorteil sind, wenn beide Möglichkeiten rein rechnerisch nach der von Sergey Brin und Lawrence Page aufgestellen Formen zur Berechnung des PageRank [BP98] das gleiche Ergebnis aufweisen. Ein Indiz für die Bevorzugung der geringen Anzahl an Verweisen mit hohen PageRank-Werten könnte das bereits besprochene Hilltop-Prinzip sein. Ebenso wie das Qualitätskriterium IP-Popularität ist auch die Gewichtung des PageRank eingehender Links Bestandteil des praktischen Versuchsaufbaus zur Offpage-Suchmaschinenoptimierung im nachfolgenden Kapitel. 32 Im Bereich des Website-Hosting übliche virtuelle Server sind nach außen hin als physische Server sichtbar, werden jedoch gemeinsam mit anderen virtuellen Servern auf einem Rechner mit meist identischer IP-Adresse ausgeführt ( Server).

53 Kapitel 6 Praktischer Versuchsaufbau zur Offpage-Optimierung 6.1 Versuchsaufbau Das Ziel des Versuchsaufbaus, der Zusammen mit der webbasierten Analyse- Software SEA Tools v2 den praktischen Teil dieser Diplomarbeit darstellt, war es, eine Reihe von Qualitätskriterien der Offpage-Optimierung auf ihre Auswirkungen in der Praxis zu untersuchen. Dazu wurden 15 Testwebsites umgesetzt und über einen Zeitraum von 13 Wochen beobachtet, wobei jeweils zwei bzw. drei Testwebsites einem Qualitätskriterium zugeordnet waren und sich nur in diesem voneinander unterschieden, um den Einfluss des Kriteriums auf die Indexierung bzw. das Ranking der Website verfolgen zu können Auswahl der Qualitätskriterien Am Anfang der Planung des Versuchsaufbaus stand die Auswahl der in Kapitel 5 beschriebenen Qualitätskriterien der Offpage-Optimierung, welche überprüft werden sollten. Hierbei wurden besonders Kriterien gewählt, deren explizite Auswirkungen in der Fachliteratur nicht beschrieben und die darüber hinaus im Rahmen dieser Diplomarbeit für umsetzbar befunden wurden. Im praktischen Teil dieser Arbeit nicht behandelte Kriterien wie z. B. das Domainalter einer Website wären zwar von großem Interesse, jedoch mit den zur Verfügung stehenden Mitteln nicht mit dem erforderlichen Maß an Vergleichbarkeit umsetzbar gewesen. Es folgt eine kurze Beschreibung der einzelnen ausgewählten Kriterien: Indexierungsgeschwindigkeit und Indexierungsgrad Die Indexierungsgeschwindigkeit bzw. der Indexierungsgrad größerer Websites hat maßgeblichen Einfluss auf das Ranking einer Website, da je mehr 44

54 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 45 Seiten einer Website indexiert sind auch umso mehr Seiten für eine gute Position innerhalb der SERPs für bestimmte Suchbegriffe zur Verfügung stehen. Dabei sollte überprüft werden, ob dieses Qualitätskriterium durch die Anmeldung einer Website bei Google in Kombination mit der Verwendung einer XML-Sitemap beeinflusst werden kann. Unidirektionale und reziproke Links Unidirektionale (einseitige) und reziproke (gegenseitige) Links stellen zwei unterschiedliche Typen von Verweisen dar, die beim Linkaufbau einer Website zum Einsatz kommen können. Dabei wird wie in Kapitel 5 beschrieben in der Fachliteratur generell darauf hingewiesen, dass unidirektionale Links eine größere Wertigkeit zur Erhöhung der Link-Popularität haben als ihre reziproken Pendants, da Suchmaschinen auf diese Weise keine Beziehung und in weiterer Folge Abmachung zwischen zwei verlinken Websites ausmachen können. Dennoch sollen auch reziproke Links durchaus ihre Wirkung haben, wenn auch eingeschränkt. Gesicherte Aussagen, wie das Verhältnis zwischen diesen beiden Linktypen auszusehen hat, gibt es nicht. Im Rahmen dieses praktischen Versuchsaufbaus sollten die Auswirkungen unidirektionaler und reziproker Verlinkung auf das Ranking einer Website überprüft werden. Variation der Link-Texte Die Link-Texte eingehender Verweise haben einen großen Einfluss auf das Ranking einer Website zu bestimmten Suchbegriffen. Dabei sollte jedoch darauf geachtet werden, die auch Anchor-Texte genannten Textabschnitte der eingehenden Links zu variieren, um ein gewisses Maß an Natürlichkeit im Linkaufbau zu bewahren. Ähnlich bei bei anderen Qualitätskriterien der Offpage-Optimierung gibt es jedoch auch hier keine konkreten Empfehlungen, wie groß die Variation der Link-Texte ausfallen muss, um optimale Ergebnisse zu gewährleisten. Dieser Frage sollte mit Hilfe dreier Testwebsites mit jeweils unterschiedlicher Variation nachgegangen werden. Deep-Links Deep-Links, d.h. eingehende Links auf Unterseiten, nicht auf die Startseite einer Website, sollen sowohl dazu dienen, die Natürlichkeit des Linkaufbaus zu erhöhen, als auch eine größere Zahl an Seiten einer Website auf gute Positionen innerhalb der SERPs zu bringen. Im Rahmen dieses Versuchsaufbaus sollte die Auswirkung von Deep-Links auf das Ranking der Start- bzw. Hauptseite einer Website untersucht werden.

55 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 46 Gewichtung des PageRank eingehender Links Wie in Kapitel 5 besprochen stellt sich bei diesem (potentiellen) Qualitätskriterium die Frage, ob wenige eingehende Links mit hohen PageRank- Werten gegenüber mehreren Links von Websites mit geringeren PageRank- Werten im Vorteil sind, wenn beide Möglichkeiten rein rechnerisch nach der von Sergey Brin und Lawrence Page aufgestellten Formen zur Berechnung des PageRank [BP98] das gleiche Ergebnis aufweisen. Aufgrund bislang fehlender Nachweise kann diese Frage nicht eindeutig beantwortet werden und ist aus diesem Grund Inhalt des praktischen Teils dieser Arbeit. Social Bookmarks Links von Social Bookmarking Seiten weisen Großteils das nofollow Attribut auf, welches eine Weitergabe von Link-Popularität verhindert. Es gibt jedoch Meinungen, die dennoch einen Einfluss dieser Links auf das Website- Ranking vermuten. Ob und wenn ja inwieweit Social Bookmarks trotz nofollow Attribut zur Steigerung der Link-Popularität beitragen können war ein weiterer Teil des Versuchsaufbaus. IP-Popularität Die Wirksamkeit der sogenannten IP-Popularität steht aus heutiger Sicht laut Aussagen von Experten wie Sebastian Erlhofer [Erl06] außer Frage, der konkrete Einfluss von Links aus dem gleichen oder einem ähnlichen IP- Bereich versus Links aus einem unterschiedlichen IP-Bereich ist jedoch nicht geklärt. Da es sich hierbei um ein in der Praxis bedeutsames Qualitätskriterium der Offpage-Optimierung handelt (man denke an die Frage, ob es sinnvoll ist, die eigenen Websites untereinander zu verlinken), wurde es in die Reihe der zu untersuchenden Kriterien aufgenommen.

56 6. Praktischer Versuchsaufbau zur Offpage-Optimierung Auswahl der Testwebsites Die Auswahl der Testwebsites, die zur Untersuchung der oben genannten Qualitätskriterien verwendet wurden, erfolgte aufgrund mehrerer Voraussetzungen: ˆ Art des Inhalts Die Art des Inhalts der Websites musste so gestaltet sein, dass dieser ohne aufwändige Einarbeitung erstellt werden kann. Dies war notwendig, da Inhalt nicht von anderen Websites kopiert werden kann, ohne sogenannten Duplicate Content 1 zu erzeugen. Aus diesem Grund wurden mir vertraute Themen gewählt. ˆ Umfang der Website Die beiden Testwebsites, welche zur Untersuchung der Indexierungsgeschwindigkeit und des Indexierungsgrades herangezogen wurden, mussten über eine ausreichend große Anzahl an Unterseiten verfügen, um den Verlauf der Indexierung über den gesamten Testzeitraum hinweg zu ermöglichen. Die restlichen Testwebsites sollten bevorzugt über Unterseiten mit einer ausreichend großen Menge an originalem (selbst geschriebenem) Text verfügen. ˆ Keyword-Kombination der Website Der Einfluss von sechs der sieben Qualitätskriterien sollte durch eine Ranking-Analyse für eine bestimmte Keyword-Kombination, die jeweils zwei bzw. drei Testwebsites zugeordnet ist, überprüft werden. Um jedoch in das sichtbare Ranking (bei Google die Positionen 1 bis 1000 in den Suchergebnissen) aufgenommen zu werden, mussten verhältnismäßig einfache (nicht zu stark umkämpfte) Keyword-Kombinationen bzw. darauf abgestimmt die Themen der Testwebsites gewählt werden. So wäre eine Testwebsite zum Thema Versicherungen wohl eine denkbar schlechte Wahl gewesen. Nachfolgend eine tabellarische Auflistung der Testwebsites des Versuchsaufbaus: 1 Als Duplicate Content wird Inhalt einer Website bezeichnet, der in gleicher oder sehr ähnlicher Form bereits auf einer anderen Website (oder unter einer anderen URL der gleichen Website) verfügbar ist. Die Verwendung von Duplicate Content führt meist zu einer Abwertung der betroffenen Seite in den Suchergebnissen, da insbesondere Google den originalen Urheber eines Inhalts (meist die Website, welche über die größte Link- Popularität verfügt) bevorzugt berücksichtigt [Erl06].

57 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 48 Kriterium #1: Indexierungsgeschwindigkeit und Indexierungsgrad Faktor Anmeldung bei Google, Verwendung einer XML-Sitemap Domain Thema Kostenlose Desktop-Hintergründe in versch. Kategorien Umfang 1672 Seiten Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.1: Die Testwebsite

58 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 49 Faktor Keine Anmeldung bei Google, keine XML-Sitemap Domain Thema Kostenlose Desktop-Hintergründe in versch. Kategorien Umfang 1669 Seiten Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.2: Die Testwebsite

59 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 50 Kriterium #2: Unidirektionale und reziproke Links Faktor Ausschließlich reziproke Links Domain Thema Vorstellung von Scifi-Büchern Umfang 5 Seiten Keyword scifi bücher Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.3: Die Testwebsite

60 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 51 Faktor Ausschließlich unidirektionale Links Domain Thema Vorstellung von Scifi-Büchern Umfang 5 Seiten Keyword scifi bücher Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.4: Die Testwebsite

61 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 52 Kriterium #3: Variation der Link-Texte Faktor 95% Unterschiedlichkeit der Link-Texte Domain Thema Vorstellung fantastischer Filme Umfang 5 Seiten Keyword fantastische filme Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.5: Die Testwebsite

62 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 53 Faktor 50% Unterschiedlichkeit der Link-Texte Domain Thema Vorstellung fantastischer Filme Umfang 5 Seiten Keyword fantastische Filme Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.6: Die Testwebsite

63 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 54 Faktor 5% Unterschiedlichkeit der Link-Texte Domain Thema Vorstellung fantastischer Filme Umfang 5 Seiten Keyword fantastische filme Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.7: Die Testwebsite

64 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 55 Kriterium #4: Deep-Links Faktor 50% Deep-Links Domain Thema Vorstellung von Spiele-Klassikern Umfang 5 Seiten Keyword spiele klassiker (top spiele klassiker) Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.8: Die Testwebsite

65 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 56 Faktor Keine Deep-Links Domain Thema Vorstellung von Spiele-Klassikern Umfang 5 Seiten Keyword spiele klassiker (top spiele klassiker) Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.9: Die Testwebsite

66 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 57 Kriterium #5: Gewichtung des PageRank eingehender Links Faktor Wenige PR-starke Links Domain Thema Sammlung von Rock-Songtexten Umfang 5 Seiten Keyword rock songtexte Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.10: Die Testwebsite

67 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 58 Faktor Viele PR-schwache Links Domain Thema Sammlung von Rock-Songtexten Umfang 5 Seiten Keyword rock songtexte Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.11: Die Testwebsite

68 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 59 Kriterium #6: Social Bookmarks Faktor > 20 Social Bookmarks Domain Thema Sammlung von selbstgeschriebenen Testberichten Umfang 5 Seiten Keyword technik testberichte Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.12: Die Testwebsite

69 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 60 Faktor Keine Social Bookmarks Domain Thema Sammlung von selbstgeschriebenen Testberichten Umfang 5 Seiten Keyword technik testberichte Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.13: Die Testwebsite

70 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 61 Kriterium #7: IP-Popularität Faktor Ausschließlich Links aus gleichem IP-Bereich Domain Thema Chuck Norris Witze Umfang 5 Seiten Keyword chuck norris sprüche Hosting HostEurope Virtual Server Linux XL 3.0, IP: Abbildung 6.14: Die Testwebsite

71 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 62 Faktor Keine Links aus gleichem IP-Bereich Domain Thema Chuck Norris Witze Umfang 5 Seiten Keyword chuck norris sprüche Hosting CYBERhouse GmbH, IP: Abbildung 6.15: Die Testwebsite

72 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 63 Wie aus der oben aufgelisteten Übersicht hervor geht wurden für Kriterium #1 die beiden Faktoren Verwendung einer XML-Sitemap und Anmeldung bei Google kombiniert, da sich diese gegenseitig nicht beeinflussen und dadurch die erforderliche Anzahl an Testwebsites so gering wie möglich gehalten werden konnte. Kriterium #4 erforderte wiederum die Erhöhung der unterschiedlichen Faktoren auf drei, da hier vermutet wurde, dass weder eine zu große als auch zu kleine Variation der Link-Texte zielführend ist Technische Voraussetzungen Für das Hosting der 15 Testwebsites wurde ein virtueller Server von Host- Europe verwendet werden, welcher bereits vor Beginn der Diplomarbeit zur Verfügung stand. Dieser ermöglicht neben der Unterstützung von Web- Technologien wie PHP5, mysql, mod rewrite, etc. auch die Verwaltung von beliebig vielen unterschiedlichen Domains und physikalischen Hostings 2. Alle erforderlichen Domains (siehe oben) wurden während der Planungsphase auf ihre Verfügbarkeit überprüft und vor Versuchsbeginn reserviert Analyse des Versuchsaufbaus Vor Beginn des Versuchsaufbaus musste spezifiziert werden, welche Eigenschaften der Testwebsites auf welche Art und zu welchen Zeitpunkten analysiert werden sollten. Während bei Kriterium #1 besonders auf die Anzahl der indexierten Seiten und auch auf den Zeitpunkt der erstmaligen Indexierung geachtet wurde, war bei allen weiteren Kriterien zusätzlich das Ranking der jeweiligen Keywords von Interesse. Einzig bei Kriterium #1 wurde auch auf die Anzahl der indexierten Bilder in der Google-Bildsuche geachtet. Der Zeitpunkt der erstmaligen Indexierung einer Testwebsite wurde sowohl durch die Abfrage site: auf welche alle indexierten Seiten der eingegebenen Domain anzeigt, als auch durch die Benutzung der Google Webmaster Tools 3 ab Anmeldung der jeweiligen Testwebsite bei Google täglich überprüft. Ab der Aufnahme einer Testwebsite in den Google-Index wurde drei mal wöchentlich (jeweils Montags, Mittwochs und Samstags) die Anzahl ihrer indexierten Seiten über die bereits erwähnte Abfrage kontrolliert. Die notwendige Analyse des Keyword-Rankings, der Bildsuche, der ein- und ausgehenden Links sowie der PageRank-Werte der Testwebsites erfolgte ebenfalls drei mal wöchentlich mit der webbasierten Analyse- Software SEA Tools v2, welche als Vorprojekt zu dieser Diplomarbeit entwickelt wurde. Diese Ergebnisse wurden jeweils nach Ausführung ei- 2 Im Zusammenhang mit der Server-Administrationssoftware Plesk bezeichnet der Begriff physikalisches Hosting einen separierten Bereich auf dem Datenträger des Servers, der als Speicherplatz einer bestimmten Domain zugeordnet wurde. 3

73 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 64 ner Analyse in eine mysql-datenbank gespeichert. Der technische Hintergrund hierzu wird in Kapitel 7 beschrieben. Alle Abfragen der Keyword- Analyse wurden an gerichtet, alle Abfragen der Bildsuche- Analyse an images.google.com. Die Anzahl der indexierten Seiten wurde auf überprüft. 6.2 Durchführung Nach Abschluss der Planung des Versuchsaufbaus konnte mit dessen Durchführung begonnen werden. Die einzelnen hierzu notwendigen Schritte werden nachfolgend erläutert Umsetzung der Testwebsites Alle Testwebsites wurden unter Verwendung von XHTML 1.0 Transitional sowie CSS erstellt. Die Gestaltung ist bewusst einfach, aber ansprechend gehalten, wozu auch die Implementierung einer textbasierten Navigation in Form einer per CSS formatierten Liste zählt. Die Testwebsites und welche beide Kriterium #1 behandeln und deshalb eine große Menge an Unterseiten benötigen, machen Gebrauch von PHP5 und mysql, um dynamisch die einzelnen Seiten der Wallpaper-Kategorien zu erstellen; alle anderen Testwebsites bestehen aus fünf statischen PHP-Seiten mit zusätzlichem Impressum. Alle Textinhalte der Testwebsites wurden entweder selbst geschrieben oder (im Falle von Kriterium #5 und #7) so angeordnet, dass diese von Suchmaschinen nicht als Duplicate Content gewertet werden. Die Bildinhalte der Testwebsites und stammen von Onpage-Optimierung der Testwebsites Um die Ausgangssituation vor Beginn des Versuchs zu verbessern wurde bei der Umsetzung der Testwebsites auf die wichtigsten Kriterien zur Onpage- Suchmaschinenoptimierung geachtet. Folgende Maßnahmen wurden getroffen: ˆ Domain Bei den Domains der Testwebsites handelt es sich um Keyword- Domains. Dabei wurden die Domains so gewählt, dass sich diese zwar weit genug voneinander unterscheiden, um von Google nicht als Duplicate Content eingestuft zu werden, aber trotzdem kein Vorteil für die eine als auch für die andere Testwebsite entsteht. Dies wurde in den meisten Fällen durch die Verwendung neutraler, Keyword-fremder Zu-

74 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 65 satzwörter wie seite, zone oder info erreicht. Die TLD 4.de stimmt darüber hinaus mit dem deutschsprachigen Inhalt der Websites überein. ˆ URL-Struktur Wie in Kapitel 3 erwähnt stellt neben der Domain auch die weitere URL-Struktur ein bedeutendes Kriterium der Onpage-Optimierung dar. Aus diesem Grund wurden alle dynamisch erstellten Unterseiten mittels dem Apache-Modul mod rewrite derart umgeschrieben, damit aus diesen sowohl für den Benutzer als auch die Suchmaschine statische HTML-Seiten mit eindeutiger und sprechender URL werden. Tatsächlich statische PHP-Seiten wurden per mod rewrite als sinnvoll benannte HTML-Seiten zugänglich gemacht. ˆ Website-Titel Da der Website-Titel neben der Domain bzw. URL mit den höchsten Stellenwert für die Onpage-Optimierung einer Website hat wurde dieser bei allen Testwebsites mit den jeweiligen Keywords aufgebaut. ˆ Navigation und interne Verlinkung Um die Indexierung der Website zu erleichtern machen alle Testwebsites Gebrauch von einer textbasierten Navigation sowie einer durchdachten internen Verlinkung. So ist jede Unterseite direkt über einen Link auf dem Logo der jeweiligen Website mit der Hauptseite verbunden. ˆ Inhalt Bei Erstellung des Inhalts wurde darauf geachtet, dass dieser sowohl auf der Startseite als auch auf allen relevanten Unterseiten eine gewisse Mindestlänge hat. Zudem bewegt sich die Keyword-Dichte der jeweiligen Schlüsselwörter insbesondere auf der Startseite zwischen 3% und 7% und ist bei allen einem Kriterium zugeordneten Testwebsites gleich groß. ˆ Duplicate Content Zur Vermeidung von Duplicate Content werden Anfragen, welche ohne www in der URL gestellt werden, per mod rewrite an die korrekte URL inklusive www weitergeleitet. Ebenso erfolgt eine Weiterleitung von /index.html auf das Root-Verzeichnis der Domain. Auf diese Weise wird die Erreichbarkeit des selben Inhalts unter zwei oder mehr unterschiedlichen URLs (und somit DC) unterbunden. 4 Als TLD bzw. Top Level Domain wird der letzte Bestandteil des Domainnamens bezeichnet. Hierbei handelt es sich häufig auch um eine Landeskennung, wie z. B. de für Deutschland (

75 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 66 Vergleichbarkeit Um den Einfluss anderer Faktoren auf die Analyse-Ergebnisse der einzelnen Testwebsites so gering wie möglich zu halten musste bei deren Umsetzung auf eine Vergleichbarkeit der zwei bzw. drei Websites geachtet werden, welche einem Kriterium zugeordnet sind. Insbesondere mussten die Testwebsites in Domainnamen, URL-Struktur, Website-Titel, Website-Aufbau und -Umfang sowie Inhalt samt Textlänge und Keyword-Dichte weitestgehend vergleichbar sein. Alle diese Voraussetzungen wurden im Zuge der Erstellung berücksichtigt und erfüllt Linkaufbau Mit dem Linkaufbau für die Testwebsites wurde unmittelbar nach Aufnahme in den Google-Index begonnen. Als Linkquellen dienten Webkataloge, welche jedoch aufgrund der jeweiligen Offpage-Kriterien nur für einige wenige Testwebsites als Grundrauschen herangezogen werden konnten, sowie größtenteils freiwillige direkte Links von anderen Websites. Der Kontakt zu den Website-Betreibern bestand hierbei bereits oder wurde über Suchmaschinenoptimierungs-Foren hergestellt. Alle diese eingehenden und ausgehenden Links wurden gründlich geplant, damit die Linkstruktur jeder Testwebsite ihrem jeweiligen Offpage-Kriterium entspricht, sowie in die Linkpartner-Verwaltung von SEA Tools v2 eingetragen. Beachtet werden musste neben der korrekten Linksetzung auch die Geschwindigkeit des Linkaufbaus. Um ein natürliches Wachstum der Linkstruktur der Testwebsites zu gewährleisten erstreckte sich die Phase des Linkaufbaus von der ersten Woche bis drei Wochen vor Ende des Versuchsaufbaus. Der detaillierte Verlauf des Linkaufbaus für alle Testwebsites kann dem Anhang dieser Diplomarbeit entnommen werden. Berechnung des PageRank für den Linkaufbau Um beim Linkaufbau das Offpage-Kriterium Gewichtung des PageRank eingehender Links der beiden Testwebsites und erfüllen zu können musste der theoretische Page- Rank der beiden Testwebsites basierend auf den eingehenden Links berechnet werden. Für diese Berechnung wurde mangels Alternativen im Web ein selbstentwickeltes PHP-Script 5 verwendet, welches die Berechnung des theoretischen PageRank einer Website basierend auf bis zu 20 eingehenden Links (jeweils unter Angabe des PageRank und der Gesamtanzahl an Links der linkgebenden Seite) vornimmt. Grundlage des Scripts stellt der bereits in Kapitel 2 vorgestellte PageRank-Algorithmus dar. Die Umwandlung des so berechneten PageRank in den uns bekannten PageRank, wie er u. a. in der 5

76 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 67 Google-Toolbar angezeigt wird, erfolgt mit einer logarithmischen Basis von 6. Die Ergebnisse der Berechnungen für die beiden Testwebsites und deckten sich mit dem PageRank- Wert, der beiden Testwebsites im Zuge des PageRank-Updates im Mai 2009 zugewiesen wurde. Vergleichbarkeit Ebenso wie bei der Onpage-Optimierung musste auch bei der Offpage- Optimierung der Testwebsites deren Vergleichbarkeit gewährleistet sein. Folgende Aspekte wurden dabei besonders berücksichtigt: ˆ Die Anzahl der eingehenden sowie der ausgehenden Links der einem Kriterium zugeordneten Testwebsites muss identisch sein. ˆ Die Quellen der eingehenden Links müssen pro Testwebsite und Kriterium identisch sein. ˆ Die Qualität der eingehenden Links muss für alle Testwebsites eines Kriteriums möglichst vergleichbar sein. Dies betrifft insbesondere den Link-Text sowie die Positionierung des Links auf der linkgebenden Website. Je nach Offpage-Kriterium einer Testwebsite konnten diese Aspekte jedoch nicht immer vollständig berücksichtigt werden. So sieht Kriterium #3 eine Variation der Link-Texte vor, Kriterium #4 beinhaltet einen 50%igen Anteil von Deep-Links und Kriterium #5 schließt eine Gleichheit der Linkquellen der Testwebsites vollkommen aus Zeitlicher Ablauf Die beiden Kriterium #1 zugeordneten Testwebsites wurden als am wenigsten zeitkritisch eingestuft und in KW15 bei Google angemeldet bzw. mit einem eingehenden Link versehen. Alle anderen Testwebsites wurden bereits in KW13 6 bei Google angemeldet und ab KW14 drei mal wöchentlich (jeweils Montags, Mittwochs und Samstags) analysiert. Die PageRank-Analyse fand einmal wöchentlich (Samstags) statt. Der Testzeitraum endete mit KW26 und erstreckte sich somit über 13 Wochen. 6.3 Ergebnisse und Auswertung Im Laufe des Versuchszeitraums konnten insgesamt 187 eingehende Links von größtenteils fremden, jedoch auch eigenen Websites und innerhalb der 6 Ausgenommen diese Testwebsite wurde in KW14 bei Google angemeldet.

77 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 68 Testwebsites, gesetzt werden. Nachfolgend werden die Ergebnisse aller sieben Offpage-Kriterien vorgestellt und ausgewertet. Eine tabellarische Auflistung der Ergebnisse sowie der Linkaufbau einer jeden Testwebsite befindet sich im Anhang dieser Arbeit Indexierungsgeschwindigkeit und Indexierungsgrad Die Anmeldung der Website bei Google erfolgte am ; zeitgleich wurden auf diese Website und auf zwei Links gesetzt. Bereits am darauf folgenden Tag waren beide Websites mit einer Seite im Google-Index vertreten. Zusätzlich wurde gleich zu Beginn des Testzeitraums für eine vollständige XML-Sitemap in den Google Webmaster Tools eingereicht. Die Anzahl der indexierten Seiten und Bilder in der Google-Bildsuche wurden drei mal wöchentlich überprüft. Abbildung 6.16: Die Anzahl der indexierten Seiten. Abbildung 6.17: Die Anzahl der indexierten Bilder in der Google- Bildsuche.

78 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 69 Wie aus Abbildung 6.16 ersichtlich wurden maximal 317 Seiten der Testwebsite, für die eine XML-Sitemap eingereicht wurde, indexiert. Dem gegenüber stehen maximal 187 indexierte Seiten der Testwebsite ohne XML- Sitemap, was einem Unterschied von 70% entspricht. Die Verwendung einer XML-Sitemap scheint also tatsächlich zu einer besseren Indexierungsgeschwindigkeit und einem höheren Indexierungsgrad zu führen, wobei nach wie vor die Anzahl der eingehenden Links eine Rolle spielt und im Falle der beiden Testwebsites eine weitere Aufnahme von Seiten in den Index zu begrenzen schien. Die Ergebnisse der Bildsuche-Analyse (siehe Abbildung 6.17) zeigen ein gegenteiliges Bild (maximal 71 indexierte Bilder gegenüber maximal 284 indexierte Bilder) und lassen den Schluss zu, dass die Einreichung einer XML-Sitemap und ein höherer Indexierungsgrad nicht zwangsläufig auch zu einer größeren Anzahl an Bildern in der Google-Bildsuche führen müssen. Mit dem PageRank-Update in KW14 erhielten beide Testwebsites einen PageRank von 0, mit dem Update in KW22 jeweils einen PageRank von Unidirektionale und reziproke Links Beide Testwebsites wurden am bei Google angemeldet; während erstmals am im Index vertreten war, wurde bereits vor der Anmeldung am indexiert. Zu diesem Zeitpunkt war weder ein eingehender Link auf die Testwebsite gesetzt noch wurde diese in anderer Weise bekannt gemacht. Warum die Indexierung bereits vier Tage vor der Anmeldung erfolgte konnte nicht eruiert werden. Während des Linkaufbaus wurden jeweils 14 eingehende Links platziert, die eine Variation der Link-Texte von 30% aufwiesen. Der meistgenutzte Link-Text entsprach dabei dem Keyword scifi bücher der Testwebsites. Die Backlinks von wurden dabei immer direkt auf die verweisende Seite gesetzt, um ausschließlich reziproke Links zu erzeugen. Alle Backlinks der Website welche nur unidirektionale Links enthielt, wurden hingegen auf beliebige andere Websites gesetzt. Die Gesamtzahl der ausgehenden Links beider Websites war identisch.

79 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 70 Abbildung 6.18: Die Keyword-Positionen der Testwebsites. Der Vergleich der Keyword-Positionen beider Testwebsites (siehe Abbildung 6.18) zeigt einen leichten Vorteil über den gesamten Zeitraum für welche jedoch ausschließlich reziproke Links verwendet. Die Verwendung unidirektionaler Links auf der zweiten Website scheint zumindest bei einer Anzahl von 14 eingehenden Verweisen keinen Vorteil zu haben. Beide Testwebsites erhielten zunächst einen PageRank von 0, mit dem nächsten Update eine PageRank von Variation der Link-Texte Auch für diese drei Testwebsites erfolgte die Anmeldung bei Google am ; innerhalb weniger Tage (im Zeitraum bis ) wurden diese indexiert. Insgesamt konnten 25 eingehende Links, u. a. auch aus dem gleichen IP-Bereich, jedoch immer unidirektional, gesetzt werden. Dabei wurde eine Variation der Link-Texte von 87% ( 44% ( und 4% ( erreicht. Abbildung 6.19: Die Keyword-Positionen der Testwebsites.

80 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 71 Die Ergebnisse der Ranking-Analyse für das Keyword fantastische filme fallen wie in Abbildung 6.19 ersichtlich auf den ersten Blick entsprechend der Erwartungen aus. Je häufiger eine der drei Testwebsites die Wortkombination fantastische filme als Link-Text verwendete (was einer geringeren Variation entspricht), desto besser war ihr Ranking für dieses Keyword. Die Website mit ausschließlich identischen Link- Texten konnte demzufolge über den gesamten Testzeitraum das beste Ergebnis verzeichnen. Überraschend ist dabei jedoch die Tatsache, dass selbst bei 25 eingehenden Links (inklusive einiger Sitewide-Links 7 ) ohne Variation der Link-Texte keine negativen Auswirkungen auf das Ranking feststellbar waren. Alle Testwebsites erhielten beim ersten Update einen PageRank von 0, nach acht Wochen eine PageRank von Deep-Links Beide Testwebsites wurden am bei Google angemeldet und am bzw erfolgreich indexiert. Im Laufe des Linkaufbaus wurden 13 eingehende Verweise, welche bis auf einen Link alle unidirektional waren, platziert. Während alle eingehenden Links der Testwebsite auf die Startseite verwiesen, variierte deren Ziel-URL bei zu 38%, da auch Deep-Links auf Unterseiten gesetzt wurden. Abbildung 6.20: Die Keyword-Positionen der Testwebsites. Wie aus Abbildung 6.20 hervor geht konnte für beide Testwebsites für die ursprünglich festgelegte Keyword-Kombination spiele klassiker kein Ranking erzielt werden. Aus diesem Grund wurde die Keyword-Kombination in KW22 um das neutrale Schlüsselwort top ergänzt, was zu einem verwertbaren Ranking beider Testwebsites führte. Dabei kann in dem vergleichsweise 7 Als sitewide wird ein Link bezeichnet, welcher in identischer Form nicht nur auf einer Seite einer Website, sondern auf vielen oder gar allen Unterseiten enthalten ist. [Cal05]

81 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 72 kurzen Ergebniszeitraum ein Vorteil für die Testwebsite ohne Deep-Links erkannt werden, was durch deren höhere Link-Popularität der Startseite begründet werden kann. Die Verwendung von Deep-Links scheint demnach bei kleinen Websites mit wenigen eingehenden Links keinen Vorteil zu bringen; bei größeren Websites mit vielen Unterseiten dürften Deep-Links jedoch wie in Kapitel 5 beschrieben eine probate Möglichkeit darstellen, die Link- Popularität zu verteilen und einen natürlichen Linkaufbau zu simulieren. Beide Testwebsites erhielten beim ersten PageRank-Update im Versuchszeitraum einen Wert von 0, beim zweiten Update einen Wert von 2 ( bzw. 3 ( Gewichtung des PageRank eingehender Links Auch diese Testwebsites wurden am bei Google angemeldet und wenige Tage später (ohne eingehende Links) am bzw indexiert. Da das zu untersuchende Offpage-Kriterium die Gewichtung des PageRank eingehender Links war konnten für beide Testwebsites wie sonst im diesem Versuchsaufbau üblich keine gleichwertigen Links gesetzt werden. Vielmehr wurden für wenige Links mit einem verhältnismäßig hohen PageRank-Wert und für mehrere Links mit niedrigeren PageRank-Werten gesetzt. Um dennoch Vorteile für eine der beiden Websites zu minimieren wurde mittels des bereits oben beschriebenen Scripts der theoretische PageRank beider Seiten berechnet, wobei bei vier eingehenden Links auf einen Wert von 2,6 kam und für bei 12 eingehenden Links ein Wert von 1,96 ermittelt wurde. Beide Werte waren ab KW22 gültig. Abbildung 6.21: Die Keyword-Positionen der Testwebsites. Zusammenfassend kann das Ergebnis der Keyword-Analyse beider Websites nach anfänglichen Schwankungen von als ausgeglichen bezeichnet werden, wobei aufgrund des etwas höheren rechnerischen PageRank-Wertes von diese am Ende des

82 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 73 Versuchszeitraums leicht im Vorteil war. Ein deutlich besseres Ergebnis aufgrund im Durchschnitt höherer PageRank-Werte eingehender Links kann jedoch nicht ausgemacht werden (siehe Abbildung 6.21). Dies lässt die Vermutung zu, dass bei einer rechnerisch gleich großen Link-Popularität weniger die Höhe des PageRanks eingehender Links sondern vielmehr der Status der linkgebenden Website (handelt es sich um eine Experten-Website oder nicht?) entscheidend ist (siehe Kapitel 2). Während beide Testwebsites beim ersten Update einen PageRank von 0 erhielten, wurde dieser bei im Mai 2009 auf 3 erhöht (per Script berechneter Wert zu diesem Zeitpunkt: 2,95). Der PageRank von blieb bei 0 (berechneter Wert: 0,32), da neue eingehende Links erst nach dem Update gesetzt wurden Social Bookmarks Wenige Tage nach der Anmeldung bei Google am waren beide Testwebsites im Index vertreten ( bzw ) und wurden mit jeweils zwei eingehenden unidirektionalen Links aus dem gleichen IP- Bereich versorgt, um die Link-Popularität auf ein solides Niveau zu bringen. Zusätzlich wurden auf über den gesamten Versuchszeitraum in zwei Intervallen insgesamt 17 Social Bookmarks mit nofollow-attribut gesetzt, die von populären und in erster Linie deutschsprachigen Diensten kamen. Abbildung 6.22: Die Keyword-Positionen der Testwebsites. Wie aus Abbildung 6.22 ersichtlich ist zeigten beide Testwebsites für die Keyword-Kombination technik testberichte über den gesamten Versuchszeitraum annähernd gleiche Ergebnisse. Auffällig ist jedoch das deutlich schlechtere Ranking von ab KW15, welches sich erst ab KW19 wieder erholte. Es liegt die Vermutung nahe, dass es sich hierbei um eine Reaktion auf das erste Intervall an Social Bookmarks für diese Testwebsite handelt, welche zu Beginn von KW15 eingetragen wur-

83 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 74 den. Wiederholt werden konnte dieser Effekt mit der zweiten Eintragung von Social Bookmarks jedoch nicht. Davon abgesehen scheinen Social Bookmarks mit nofollow-attribut wie erwartet zumindest in einem vergleichbar großen Ausmaß wie in diesem Versuchsaufbau keinen positiven Einfluss auf das Ranking einer Website zu haben. Beide Testwebsites konnten ihren PageRank-Wert von 0 auf 3 erhöhen IP-Popularität Die erste Testwebsite dieses Kriteriums, wurde am bei Google angemeldet und am erstmalig indexiert. Die zweite Testwebsite, konnte am angemeldet werden, was zu einer Aufnahme der Website in den Google-Index am führte. Während des Linkaufbaus wurden jeweils 17 eingehende, unidirektionale Links gesetzt, die aus dem gleichen IP-Bereich wie stammten. Da die Testwebsite auf einem anderen Server gehostet wurde, unterschied sich deren IP-Adresse grundlegend von den IP-Adressen der eingehenden Links. Auf diese Weise konnte das Offpage-Kriterium bei gleicher Link-Struktur beider Testwebsites erfüllt werden. Abbildung 6.23: Die Keyword-Positionen der Testwebsites. Zu Beginn der Keyword-Analyse (siehe Abbildung 6.23) zeigte sich ein Vorteil für die Testwebsite mit Links aus einem unterschiedlichen IP-Bereich. Deren Ranking verschlechterte sich jedoch schlagartig ab KW17 und verbesserte sich erst wieder gegen Ende der Versuchszeitraums. Die Testwebsite welche ausschließlich eingehende Links aus ihrem IP-Bereich aufwies, konnte hingegen über den gesamten Zeitraum des Versuchsaufbaus ein gutes Ranking erzielen, welches sich stetig verbesserte, die letzten beiden Wochen jedoch trotzdem etwas schlechter war als das Ranking von

84 6. Praktischer Versuchsaufbau zur Offpage-Optimierung 75 Zusammenfassend kann gesagt werden, dass Links aus dem gleichen IP- Bereich scheinbar nicht so schlecht sind wie ihr Ruf und auch zu einem guten Ranking führen können. Die sogenannte IP-Popularität wie u. a. von André Moritz beschrieben [Mor06] dürfte zwar tatsächlich von Google angewendet werden, führt jedoch derzeit in keinster Weise zu einer völligen Abwertung betroffener Links.

85 Kapitel 7 Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse Die Keyword-, Bildsuche- und Link-Analyse des praktischen Versuchsaufbaus dieser Arbeit wird mit Hilfe der im Rahmen der letzten beiden Semesterprojekte entwickelten Webapplikation zur Suchmaschinen-Analyse SEA Tools v2 realisiert, welche zum Download bereit steht 1. Dieses Kapitel soll kurz den technischen Hintergrund der drei Analyse-Varianten erläutern. 7.1 Keyword-Analyse mit SEA Tools v2 Die Keyword-Analyse von SEA Tools v2 (siehe Abbildung 7.1) ermöglicht es, die Rankings bzw. Positionen von Keywords einer Website mit verschiedenen Suchoptionen wie der verwendeten TLD 2, der Option Seiten auf Deutsch oder der Suchtiefe in der Google-Suche festzustellen und diese in der Datenbank zu speichern. Zu diesem Zweck wird aus jeder eingetragenen Abfrage für eine Website mittels der PHP-Funktion fopen() die passende Suchergebnis-Seite von Google geladen und auf die URL der eingetragen Website durchsucht. Es werden Seite für Seite alle Suchergebnis-Seiten (mit max. 10 Ergebnissen pro Seite) durchsucht, bis die URL der Website gefunden wurde, die eingetragene Suchtiefe der Abfrage überschritten ist oder keine Ergebnisse mehr vorhanden sind. Wurde die URL der Website gefunden, wird für diese das Ranking bzw. die Position der Website für die Abfrage berechnet. Jedes Ergebnis wird sofort per flush() ausgegeben, so dass sofort Ergebnisse sichtbar Die Suchergebnisse für eine Anfrage unterscheiden sich teils erheblich je nach verwendeter Google-TLD wie z. B. google.at, google.de oder google.com. 76

86 7. Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse 77 sind, auch wenn die Keyword-Analyse mitunter mehrere Minuten dauern kann. Bei der Keyword-Analyse ist zu beachten, dass diese Funktion nicht ganz unproblematisch ist, da je nach Anzahl an eingetragenen Websites und Abfragen und dementsprechend benötigten Anfragen an Google es durchaus vorkommen kann, dass Google weitere Anfragen vom Webserver, auf dem SEA Tools v2 installiert ist, als Spam wertet und für eine bestimmte Zeit (mehrere Stunden, einen Tag) sperrt. In praktischen Tests hat sich gezeigt, dass die maximale Anzahl an Anfragen in kurzer Zeit bei ca liegt. Abbildung 7.1: Das Ergebnis einer Keyword-Analyse mit SEA Tools v Bildsuche-Analyse mit SEA Tools v2 Bei der Bildsuche-Analyse (siehe Abbildung 7.2) werden mittels der PHP- Funktion fopen() vier Abfragen an images.google.com gestellt, in denen nach extra großen, großen, mittelgroßen und kleinen Bildern für die URL der entsprechenden Website gesucht wird. Die Anzahl der eingetragenen Bilder für jede der vier Größen wird ausgegeben und in der Datenbank gespeichert. Darüber hinaus wird aus den vier Werten auch die Gesamtanzahl an Bildern der Website, welche sich in der Google-Bildsuche befinden, ausgegeben und in die Datenbank eingetragen.

87 7. Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse 78 Wie sich bei Kombination der Bildsuche- mit einer Besucher-Analyse 3 gezeigt hat sind besonders sehr große und große Bilder für den überwiegenden Teil der über die Bildsuche generierten Besucher von Bedeutung. Abbildung 7.2: Das Ergebnis einer Bildsuche-Analyse mit SEA Tools v Link-Analyse mit SEA Tools v2 Die Link-Analyse stellt eine Erweiterung des Linkpartner-Managements (siehe Abbildung 7.3) von SEA Tools v2 dar und ist in vier Bereiche unterteilt: ˆ Verhältnis reziproker zu nicht reziproken Links ˆ Link-Texte ˆ PageRank-Werte der Linkpartner ˆ Links zu Alle vier Kriterien der Link-Analyse werden wie auch die Ergebnisse der Ranking- und Bildsuche-Analyse mit Flash-basierten Diagrammen dargestellt und beinhalten darüber hinaus einen über mehrere Websites hinweg vergleichbaren Zahlenwert. Während das Verhältnis der reziproken zu den nicht reziproken Links im Format n:1 bzw. 1:n dargestellt wird, wird der 3 Eine Bildsuche- und Besucher-Analyse wurde über mehrere Monate für die Websites und durchgeführt.

88 7. Technischer Hintergrund zur Keyword-, Bildsuche- und Link-Analyse 79 prozentuale Wert der Kriterien Link-Texte und Links zu (Deep-Links) über folgende Formel (am Beispiel des Kriteriums Link-Texte ) berechnet: Summe der Linktexte V orkommnisse 100/ (7.1) Anzahl der unterschiedlichen Linktexte Welchen Einfluss einige dieser Kriterien letztlich auf den Erfolg der Offpage-Suchmaschinenoptimierung haben sollte mit Hilfe des praktischen Versuchsaufbaus in Kapitel 6 dargelegt werden. Abbildung 7.3: Das Linkpartner-Management von SEA Tools v2 mit Link- Analyse.

SEO Erfolg mit themenrelevanten Links

SEO Erfolg mit themenrelevanten Links Hinweis für Leser Dieser Leitfaden soll Ihnen einen Überblick über wichtige Faktoren beim Ranking und Linkaufbau liefern. Die Informationen richten sich insbesondere an Website-Betreiber, die noch keine

Mehr

Ihr Weg in die Suchmaschinen

Ihr Weg in die Suchmaschinen Ihr Weg in die Suchmaschinen Suchmaschinenoptimierung Durch Suchmaschinenoptimierung kann man eine höhere Platzierung von Homepages in den Ergebnislisten von Suchmaschinen erreichen und somit mehr Besucher

Mehr

Suchmaschinenoptimierung. Grundlagen zur Optimierung der eigenen Internetseite

Suchmaschinenoptimierung. Grundlagen zur Optimierung der eigenen Internetseite Suchmaschinenoptimierung Grundlagen zur Optimierung der eigenen Internetseite Gliederung Überblick Arbeitsweise von Suchmaschinen Internetseiten optimieren No-Gos Praxis Ein Überblick Suchmaschinen Google

Mehr

medani webdesign Webagentur in Wien Gründung: 1998 Suchmaschinenoptimierung: seit 2004

medani webdesign Webagentur in Wien Gründung: 1998 Suchmaschinenoptimierung: seit 2004 medani webdesign Webagentur in Wien Gründung: 1998 Suchmaschinenoptimierung: seit 2004 Weitere Dienstleistungen: Webdesign, Online-Shops, Google AdWords Mitarbeiter: 5 Internet: www.medani.at email: office@medani.at

Mehr

Suchmaschinenoptimierung SEO

Suchmaschinenoptimierung SEO Mai 2013 Bei der Suchmaschinenoptimierung (search engine optimization SEO) wird der Internetauftritt im Hinblick auf Suchmaschinen optimiert. Im Folgenden geben wir Ihnen einige Tipps, die Sie bei der

Mehr

Suchmaschinenoptimierung

Suchmaschinenoptimierung Suchmaschinenoptimierung Oliver Hallmann SEO - Search Engine Optimization Plan B Unternehmer Stammtisch 31. August 2006 http://www.oliverhallmann.de http://www.planb-stammtisch.de Wie arbeitet Google?

Mehr

Suchergebnisdarstellung in Google, Bing, Cuil, etc. Christina Ficsor

Suchergebnisdarstellung in Google, Bing, Cuil, etc. Christina Ficsor Suchergebnisdarstellung in Google, Bing, Cuil, etc. Christina Ficsor Allgemeines zu Suchmaschinen Was ist eine Suchmaschine? Ein Programm das die Suche nach Dokumenten/Webseiten im Internet durch die Eingabe

Mehr

Suchmaschinenoptimierung in Typo 3

Suchmaschinenoptimierung in Typo 3 Suchmaschinenoptimierung in Typo 3 1. Definition Suchmaschinenoptimierung Maßnahmen der Suchmaschinenoptimierung (Search Engine Optimization, SEO ) dienen dazu, dass Webseiten im Suchmaschinenranking auf

Mehr

Optimieren Sie Ihre n2n Webseite

Optimieren Sie Ihre n2n Webseite N2N Autor: Bert Hofmänner 5.10.2011 Optimieren Sie Ihre n2n Webseite Einer der wichtigsten Faktoren für den Erfolg Ihrer Webseite in Suchmaschinen sind deren Inhalte. Diese können Sie mit einem Content

Mehr

Maßnahmen zur Verbesserung der Position in Suchmaschinenergebnissen

Maßnahmen zur Verbesserung der Position in Suchmaschinenergebnissen Maßnahmen zur Verbesserung der Position in Suchmaschinenergebnissen Suchmaschinenoptimierung, Eintragen in Suchmaschinen, Suchmaschinenmarketing 1 Inhalt 1. Einführung 2. Optimierung der Webseite 3. Eintragen

Mehr

Darstellung der Maßnahmen zur Suchmaschinenoptimierung

Darstellung der Maßnahmen zur Suchmaschinenoptimierung Darstellung der Maßnahmen zur Suchmaschinenoptimierung Ob und an welcher Position eine Seite zu einem bestimmten Suchbegriff in den organischen Suchergebnissen einer Suchmaschine erscheint hängt von sehr

Mehr

Herzlich Willkommen zu meinem Webinar!

Herzlich Willkommen zu meinem Webinar! Herzlich Willkommen zu meinem Webinar! Eine SEO-Strategie, die funktioniert! Am 25. Oktober Um 18 Uhr Dauer: ca. 60 90 Minuten Herzlich Willkommen zu meinem Webinar! Meine KOMPLETTE SEO-Strategie, mit

Mehr

Anleitung BFV-Widget-Generator

Anleitung BFV-Widget-Generator Anleitung BFV-Widget-Generator Seite 1 von 6 Seit dem 1. Oktober 2014 hat der Bayerische Fußball-Verband e.v. neue Widgets und einen neuen Baukasten zur Erstellung dieser Widgets veröffentlicht. Im Folgenden

Mehr

Kapitel 3 Frames Seite 1

Kapitel 3 Frames Seite 1 Kapitel 3 Frames Seite 1 3 Frames 3.1 Allgemeines Mit Frames teilt man eine HTML-Seite in mehrere Bereiche ein. Eine Seite, die mit Frames aufgeteilt ist, besteht aus mehreren Einzelseiten, die sich den

Mehr

Vortrag. Zur Bedeutung des Linkaufbaus bei der Suchmaschinenoptimierung. Stuttgart, den 18.06.2012

Vortrag. Zur Bedeutung des Linkaufbaus bei der Suchmaschinenoptimierung. Stuttgart, den 18.06.2012 Vortrag Zur Bedeutung des Linkaufbaus bei der Suchmaschinenoptimierung Stuttgart, den 18.06.2012 1 Vorstellung: Christian Seifert Alter: 35 Beruf: Vorstandsvorsitzender avenit AG Geschäftsführer MSD GmbH

Mehr

Google - Wie komme ich nach oben?

Google - Wie komme ich nach oben? Vortrag 17.03.2015 IHK Bonn /Rhein -Sieg Google - Wie komme ich nach oben? Internetagentur und Wirtschaftsdienst Bonn 1 Das sagt Google Bieten Sie auf Ihren Webseiten qualitativ hochwertigen Content, besonders

Mehr

White Paper DocCheck Search

White Paper DocCheck Search White Paper DocCheck Search Version 15.2 Januar 2016 DocCheck Search die Suchmaschine für Login-geschützte Inhalte Wo andere Suchmaschinen vor dem HWG kapitulieren, legt DocCheck Search erst richtig los:

Mehr

SEO Suchmaschinen-Trends

SEO Suchmaschinen-Trends SEO Suchmaschinen-Trends Homepage-Strategie im Rahmen von Praxis- Organisation und Qualitätsmanagement Medizin-Management-Verband Symposium 24. März 2012 Übersicht Rahmenbedingungen: Googles Macht Wie

Mehr

Die Statistiken von SiMedia

Die Statistiken von SiMedia Die Statistiken von SiMedia Unsere Statistiken sind unter folgender Adresse erreichbar: http://stats.simedia.info Kategorie Titel Einfach Erweitert Übersicht Datum und Zeit Inhalt Besucher-Demographie

Mehr

Mit der Maus im Menü links auf den Menüpunkt 'Seiten' gehen und auf 'Erstellen klicken.

Mit der Maus im Menü links auf den Menüpunkt 'Seiten' gehen und auf 'Erstellen klicken. Seite erstellen Mit der Maus im Menü links auf den Menüpunkt 'Seiten' gehen und auf 'Erstellen klicken. Es öffnet sich die Eingabe Seite um eine neue Seite zu erstellen. Seiten Titel festlegen Den neuen

Mehr

Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress.

Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Anmeldung http://www.ihredomain.de/wp-admin Dashboard Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Das Dashboard gibt Ihnen eine kurze Übersicht, z.b. Anzahl der Beiträge,

Mehr

Homepage-Optimierung. Mit der Homepage Kunden gewinnen!

Homepage-Optimierung. Mit der Homepage Kunden gewinnen! Homepage-Optimierung Mit der Homepage Kunden gewinnen! Der heutige Abend... Suchmaschinen Was, Wer, Wie, Warum?!? Was hat das mit mir zu tun? Die eigene Homepage Grundlagen, Aufbau, Struktur, Zielausrichtung

Mehr

Suchmaschinen- Optimierung Gestern heute - morgen

Suchmaschinen- Optimierung Gestern heute - morgen Internet-Stammtisch Suchmaschinen- Optimierung Gestern heute - morgen Uwe Stache http://www.ecomm-berlin.de/ Die Themen Die Basics OnSite / OffSite SEO & WEB 2.0 Outlook ein Versuch Vorspann Kein Werkzeug

Mehr

Traditionelle Suchmaschinenoptimierung (SEO)

Traditionelle Suchmaschinenoptimierung (SEO) Traditionelle Suchmaschinenoptimierung (SEO) Mit der stetig voranschreitenden Veränderung des World Wide Web haben sich vor allem auch das Surfverhalten der User und deren Einfluss stark verändert. Täglich

Mehr

WEBTEXTEN. Tipps und Tricks rund um das Webtexten. Version 1 / April 2014 gutgemacht.at Digitalmarketing GmbH

WEBTEXTEN. Tipps und Tricks rund um das Webtexten. Version 1 / April 2014 gutgemacht.at Digitalmarketing GmbH WEBTEXTEN Tipps und Tricks rund um das Version 1 / April 2014 gutgemacht.at Digitalmarketing GmbH INHALTSVERZEICHNIS 1... 1 1.1 Neues von Google... 1 1.2 Nutzer im Fokus... 3 1.3 Anregung zur Recherche

Mehr

Suchmaschinenoptimierung (SEO) für Ihren Shop. Mario Rieß Chief Technology Officer mriess@epages.com

Suchmaschinenoptimierung (SEO) für Ihren Shop. Mario Rieß Chief Technology Officer mriess@epages.com Suchmaschinenoptimierung (SEO) für Ihren Shop Mario Rieß Chief Technology Officer mriess@epages.com Agenda 1. Allgemeine Vorbemerkungen 2. Technischer Teil was erledigt die Software 3. Inhaltlicher Teil

Mehr

Unter Social SEO versteht man die klassische Suchmaschinenoptimierung mit Hilfe von sozialen Netzwerken wie Google+, Facebook und Twitter.

Unter Social SEO versteht man die klassische Suchmaschinenoptimierung mit Hilfe von sozialen Netzwerken wie Google+, Facebook und Twitter. ZUSAMMENFASSUNG DES WEBINARES SOCIAL SEO Markus Hartlieb Social SEO Allgemein Unter Social SEO versteht man die klassische Suchmaschinenoptimierung mit Hilfe von sozialen Netzwerken wie Google+, Facebook

Mehr

Zur Person. Alexander Balow. Branchenschwerpunkt Tourismus Spezialthema Onlinemarketing. PLANET IC GmbH Alexander Balow

Zur Person. Alexander Balow. Branchenschwerpunkt Tourismus Spezialthema Onlinemarketing. PLANET IC GmbH Alexander Balow Zur Person Alexander Balow Branchenschwerpunkt Tourismus Spezialthema Onlinemarketing 10 Mythen über SEO Wie Sie Ihre Webseite für Google (& Co.) gut aufbereiten www.planet-ic.de PLANET IC GmbH Mythos

Mehr

Herzlich Willkommen zum Workshop Suchmaschinenoptimierung!

Herzlich Willkommen zum Workshop Suchmaschinenoptimierung! Herzlich Willkommen zum Workshop Suchmaschinenoptimierung! Definition: Search Engine Optimization (SEO) ist eine Maßnahme, die dazu dient, Webseiten im Suchmaschinenranking in den unbezahlten Suchergebnissen

Mehr

kleines keyword brevier Keywords sind das Salz in der Suppe des Online Marketing Gordian Hense

kleines keyword brevier Keywords sind das Salz in der Suppe des Online Marketing Gordian Hense Keywords sind das Salz in der Suppe des Online Marketing Keywords - Das Salz in der Suppe des Online Marketing Keyword Arten Weitgehend passende Keywords, passende Wortgruppe, genau passende Wortgruppe

Mehr

Suchmaschinenoptimierung. für Typo 3

Suchmaschinenoptimierung. für Typo 3 Suchmaschinenoptimierung für Typo 3 Massnahmen für Suchmaschinenfreundlichkeit Real Url bzw. AliasPro Bearbeiten Seitentitel Keywordanpassung Sitemap Brotkrummen-Navigation Interne Verlinkung Externe Verlinkung

Mehr

Tipps und Hinweise zur Suchmaschinenoptimierung jeder einzelnen Seite Ihres Website-Projekts

Tipps und Hinweise zur Suchmaschinenoptimierung jeder einzelnen Seite Ihres Website-Projekts 1, Nützliche Inhalte Schreiben Sie kurze, prägnante und aussagekräftige Texte. Vermeiden Sie allgemeine Worthülsen. Dies gilt insbesondere für die ersten Sätze auf einer Webseite. Beim Schreiben fürs Web

Mehr

White Paper DocCheck Search

White Paper DocCheck Search White Paper DocCheck Search Stand: Juli 2015 DocCheck Search die Suchmaschine für Login-geschützte Inhalte Wo andere Suchmaschinen vor dem HWG kapitulieren, legt DocCheck Search erst richtig los: Die erste

Mehr

Schlüsselworte - der Schlüssel zum Sucherfolg

Schlüsselworte - der Schlüssel zum Sucherfolg SEO Autor: Yves Lüthi 3.9.2011 Schlüsselworte - der Schlüssel zum Sucherfolg Wenn Sie die Begriffe nicht kennen, mit welchen Ihr Zielpublikum nach Ihren Produkten und Dienstleistungen sucht, können Sie

Mehr

SMO Services. Mehr Erfolg durch Social Media Optimization (SMO) von dmc Steigerung von Umsatz Erhöhung der Markenbekanntheit

SMO Services. Mehr Erfolg durch Social Media Optimization (SMO) von dmc Steigerung von Umsatz Erhöhung der Markenbekanntheit SMO Services Mehr Erfolg durch Social Media Optimization (SMO) von dmc Steigerung von Umsatz Erhöhung der Markenbekanntheit Einführung Das Web ist längst kein einseitiger Kommunikationskanal mehr. Social

Mehr

Abenteuer e-commerce Erfolgreich mit dem eigenen Onlineshop.

Abenteuer e-commerce Erfolgreich mit dem eigenen Onlineshop. Content & Contentpflege in oscommerce CMS - oder geht es auch günstiger? Seit Jahren gibt es keine Fachzeitschrift, welche das Thema Wichtigkeit von Content im Bezug auf Suchmaschinenoptimierung ausließ.

Mehr

AWSTATS Statistik benutzen und verstehen

AWSTATS Statistik benutzen und verstehen AWSTATS Statistik benutzen und verstehen Seite stat. domäne (z.b. stat.comp-sys.ch) im Internetbrowser eingeben und mit Benutzernamen und Passwort anmelden (gemäss Anmeldedaten) Monat und Jahr wählen OK

Mehr

Mit suchmaschinenoptimierten Übersetzungen erfolgreich mit fremdsprachigen Webseiten

Mit suchmaschinenoptimierten Übersetzungen erfolgreich mit fremdsprachigen Webseiten 1 Mit suchmaschinenoptimierten Übersetzungen erfolgreich mit fremdsprachigen Webseiten 2 Für das Auffinden im Internet spielt die Suchmaschinenoptimierung eine wichtige Rolle. Je besser die Texte auf der

Mehr

Erfolgreich suchen im Internet

Erfolgreich suchen im Internet Erfolgreich suchen im Internet Steffen-Peter Ballstaedt 05.10.2015 Statistik Weltweit: etwa 1 Milliarde Websites BRD: 15 Millionen Websites Das Internet verdoppelt sich alle 5,32 Jahre Die häufigste Aktivität

Mehr

Erste Schritte mit WordPress Anleitung WordPress Version 2.8.X

Erste Schritte mit WordPress Anleitung WordPress Version 2.8.X Erste Schritte mit WordPress Anleitung WordPress Version 2.8.X Login Rufen Sie die Login Seite auf: http://ihren-domainname.ch/wp-login.php Melden Sie sich mit dem Login an: Username Passwort Seiten Aktualisieren

Mehr

Tevalo Handbuch v 1.1 vom 10.11.2011

Tevalo Handbuch v 1.1 vom 10.11.2011 Tevalo Handbuch v 1.1 vom 10.11.2011 Inhalt Registrierung... 3 Kennwort vergessen... 3 Startseite nach dem Login... 4 Umfrage erstellen... 4 Fragebogen Vorschau... 7 Umfrage fertigstellen... 7 Öffentliche

Mehr

TYPO3-Suchmaschinenoptimierung für Redakteure

TYPO3-Suchmaschinenoptimierung für Redakteure TYPO3-Suchmaschinenoptimierung für Redakteure TYPO3 Version 7.6 LTS Allgemeines Dieses Dokument beschreibt redaktionelle Maßnahmen zur Verbesserung des Suchmaschinen- Rankings. Diese Maßnahmen sind Teil

Mehr

Checkliste zur Planung einer Webseite

Checkliste zur Planung einer Webseite Checkliste zur Planung einer Webseite Eine neue Webseite ist immer ein spannendes Unterfangen. Egal, ob es Ihre erste oder zehnte Webseite ist. Das Gefühl, wenn die Webseite endlich fertig und live im

Mehr

... hab ich gegoogelt. webfinder. Suchmaschinenmarketing !!!!!!

... hab ich gegoogelt. webfinder. Suchmaschinenmarketing !!!!!! ... hab ich gegoogelt. webfinder Suchmaschinenmarketing G egoogelt ist längst zu einem geflügelten Wort geworden. Wer googlet, der sucht und wer sucht, soll Sie finden. Und zwar an vorderster Position,

Mehr

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten Das große x -4 Alles über das Wer kann beantragen? Generell kann jeder beantragen! Eltern (Mütter UND Väter), die schon während ihrer Elternzeit wieder in Teilzeit arbeiten möchten. Eltern, die während

Mehr

Keyword Advertising. Mehr Erfolg durch Keyword Advertising von dmc Neukundengewinnung und Umsatzsteigerung durch Suchmaschinenmarketing

Keyword Advertising. Mehr Erfolg durch Keyword Advertising von dmc Neukundengewinnung und Umsatzsteigerung durch Suchmaschinenmarketing Keyword Advertising Mehr Erfolg durch Keyword Advertising von dmc Neukundengewinnung und Umsatzsteigerung durch Suchmaschinenmarketing Einführung Suchmaschinen sind zu einem unverzichtbaren Instrument

Mehr

SEO. Web-Popularität mit Hilfe von Suchmaschinenoptimierung. Seitwert GmbH Benzenbergstraße 39-47 D-40219 Düsseldorf Telefon: +49 (0)211-749505 - 50

SEO. Web-Popularität mit Hilfe von Suchmaschinenoptimierung. Seitwert GmbH Benzenbergstraße 39-47 D-40219 Düsseldorf Telefon: +49 (0)211-749505 - 50 SEO Web-Popularität mit Hilfe von Suchmaschinenoptimierung Seitwert GmbH Benzenbergstraße 39-47 D-40219 Düsseldorf Telefon: +49 (0)211-749505 - 50 SEO: Web-Popularität mit Hilfe von Suchmaschinenoptimierung

Mehr

Kaufkräftige Zielgruppen gewinnen

Kaufkräftige Zielgruppen gewinnen Kaufkräftige Zielgruppen gewinnen Wie Sie Besucher auf Ihre Webseite locken, die hochgradig an Ihrem Angebot interessiert sind 2014 David Unzicker, alle Rechte vorbehalten Hallo, mein Name ist David Unzicker

Mehr

cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 2010 cometis AG

cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 2010 cometis AG cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 Agenda Schritte bei der Suchmaschinenoptimierung 1. Unternehmensanalyse 2. Keyword-Analyse 3. On-Site Optimierung 4. Off-Site

Mehr

LinguLab GmbH. Bedienungsanleitung Allgemeine Definition

LinguLab GmbH. Bedienungsanleitung Allgemeine Definition LinguLab GmbH Bedienungsanleitung Allgemeine Definition LinguLab GmbH T: +49.711.49030.370 Maybachstr. 50 F: +49.711.49030.22.370 70469 Stuttgart E: mba@lingulab.de I: www.lingulab.de Inhaltsverzeichnis

Mehr

Hand aufs Herz: Wie online ist Ihr Unternehmen?

Hand aufs Herz: Wie online ist Ihr Unternehmen? Hand aufs Herz: Wie online ist Ihr Unternehmen? Testen Sie Ihre Website in wenigen Schritten doch einfach mal selbst! Hallo! Mein Name ist Hans-Peter Heikens. Als Online Marketing Manager und Social Media

Mehr

Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe

Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe Inhalt 1. Was ist Suchmaschinenoptimierung? - Definition - Zielsetzung 2. Funktionsweise - Inhalt und Struktur - Eingehende Links 3. Case Studies

Mehr

Merkblatt "Webtext für SEO optimieren"

Merkblatt Webtext für SEO optimieren Merkblatt "Webtext für SEO optimieren" Wann ist eine Seite für den Webauftritt vollständig getextet? Wann ist der Inhalt suchmaschinenfreundlich und auch möglichst barrierearm? Diese Checkliste soll Sie

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

On Page SEO für WordPress. Übersichtliche Zusammenfassung der effektiven Optimierungslösungen für WordPress Blogs

On Page SEO für WordPress. Übersichtliche Zusammenfassung der effektiven Optimierungslösungen für WordPress Blogs On Page SEO für WordPress Übersichtliche Zusammenfassung der effektiven Optimierungslösungen für WordPress Blogs Von Sergej Müller, dem Entwickler des wpseo Plugin Zuletzt aktualisiert am 20. August 2010

Mehr

VERÖFFENTLICHT VON: ag-pictures Andreas Grzesiak Espenweg 5 86971 Peiting. 2015 Andreas Grzesiak Alle Rechte vorbehalten. www.ag-pictures.

VERÖFFENTLICHT VON: ag-pictures Andreas Grzesiak Espenweg 5 86971 Peiting. 2015 Andreas Grzesiak Alle Rechte vorbehalten. www.ag-pictures. VERÖFFENTLICHT VON: ag-pictures Andreas Grzesiak Espenweg 5 86971 Peiting 2015 Andreas Grzesiak Alle Rechte vorbehalten. www.ag-pictures.com Über Andreas Grzesiak: Andreas Grzesiak hat sich schon in jungen

Mehr

Workshop Suchmaschinenoptimierung

Workshop Suchmaschinenoptimierung Workshop Suchmaschinenoptimierung Berlin, 19. Mai 2006 Christian Vollmert, Markus Vollmert luna-park GmbH Dieses Material wurde im Rahmen eines mündlichen Vortrags präsentiert. Es enthält nicht alle mündlich

Mehr

Protect 7 Anti-Malware Service. Dokumentation

Protect 7 Anti-Malware Service. Dokumentation Dokumentation Protect 7 Anti-Malware Service 1 Der Anti-Malware Service Der Protect 7 Anti-Malware Service ist eine teilautomatisierte Dienstleistung zum Schutz von Webseiten und Webapplikationen. Der

Mehr

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Auch wenn die Messungsmethoden ähnlich sind, ist das Ziel beider Systeme jedoch ein anderes. Gwenolé NEXER g.nexer@hearin gp

Mehr

Wie wichtig ist Social Media Marketing für mein Google Ranking?

Wie wichtig ist Social Media Marketing für mein Google Ranking? Wie wichtig ist Social Media Marketing für mein Google Ranking? 1 Kurzvorstellung adisfaction Fullservice-Digital-Agentur Büros in Meerbusch und Zürich Gegründet 2002, 20 Mitarbeiter Searchmetrics Pionier

Mehr

Einfügen von Bildern innerhalb eines Beitrages

Einfügen von Bildern innerhalb eines Beitrages Version 1.2 Einfügen von Bildern innerhalb eines Beitrages Um eigene Bilder ins Forum einzufügen, gibt es zwei Möglichkeiten. 1.) Ein Bild vom eigenem PC wird auf den Webspace von Baue-die-Bismarck.de

Mehr

SEO SEARCH ENGINE OPTIMIZATION

SEO SEARCH ENGINE OPTIMIZATION SEO SEARCH ENGINE OPTIMIZATION Warum Suchmaschinenoptimierung? Mehr als 80% der Nutzer kommen über Suchmaschinen und Web-Verzeichnisse zu neuen Websites 33% aller Suchmaschinen User glauben, dass die zuerst

Mehr

2. KOMMUNIKATIONSTAG Frau in der Wirtschaft. Vortrag 3x7 Tipps für Ihr Suchmaschinen Marketing

2. KOMMUNIKATIONSTAG Frau in der Wirtschaft. Vortrag 3x7 Tipps für Ihr Suchmaschinen Marketing Fachhochschule Urstein 2. Kommunikationstag von Frau in der Wirtschaft 2. KOMMUNIKATIONSTAG Frau in der Wirtschaft Vortrag 3x7 Tipps für Ihr Suchmaschinen Marketing Michael Kohlfürst Eigentümer PromoMasters

Mehr

Suchmaschinenoptimierung

Suchmaschinenoptimierung Suchmaschinen übernehmen Gatekeeper-Funktion Hohe Platzierung in den Trefferlisten ist wichtig, da nur 75% der Nutzer die 1. Seite beachten Seiten sollten für Google optimiert sein (ca. 80% Marktanteil)

Mehr

AdWords MEHR ERFOLG FÜR IHREN FIXFERTIG SHOP

AdWords MEHR ERFOLG FÜR IHREN FIXFERTIG SHOP MEHR ERFOLG FÜR IHREN FIXFERTIG SHOP Was ist das? Was sind Google AdWords? Werbung auf den Google-Suchseiten Werbeanzeigen, die zusammen mit den organischen, nicht kommerziellen Suchergebnissen auf den

Mehr

PRAXISBEISPIEL: SUCHMASCHINEN-OPTIMIERUNG, ADWORD-KAMPAGNE UND CONTROLLING

PRAXISBEISPIEL: SUCHMASCHINEN-OPTIMIERUNG, ADWORD-KAMPAGNE UND CONTROLLING PRAXISBEISPIEL: SUCHMASCHINEN-OPTIMIERUNG, ADWORD-KAMPAGNE UND CONTROLLING Im Zuge der beruflichen Tätigkeit des Verfassers, wurde die Website einer Destination, in Salzburg, für die Suchmaschine Google

Mehr

Suchmaschinen I Suchmaschinenoptimierung I Besucher werden Kunden. Wie werde ich im Internet gefunden!

Suchmaschinen I Suchmaschinenoptimierung I Besucher werden Kunden. Wie werde ich im Internet gefunden! Wie werde ich im Internet gefunden! Funktionsweise von Suchmaschinen? Informationen automatisch sammeln (robots, crawler, spider...) Informationen speichern und bewerten ( Datenbanken) Ergebnisausgabe

Mehr

Web-Kürzel. Krishna Tateneni Yves Arrouye Deutsche Übersetzung: Stefan Winter

Web-Kürzel. Krishna Tateneni Yves Arrouye Deutsche Übersetzung: Stefan Winter Krishna Tateneni Yves Arrouye Deutsche Übersetzung: Stefan Winter 2 Inhaltsverzeichnis 1 Web-Kürzel 4 1.1 Einführung.......................................... 4 1.2 Web-Kürzel.........................................

Mehr

Wissenswertes über Suchmaschinenoptimierung

Wissenswertes über Suchmaschinenoptimierung Mit dem Begriff ist die Optimierung einer Webseite gemeint, so dass sie unter entsprechend themenrelevanten Suchbegriffen möglichst weit oben in der Trefferliste der Suchmaschinen angezeigt wird. Es gibt

Mehr

SEA Search Engine Advertising. esc. mediagroup

SEA Search Engine Advertising. esc. mediagroup Search Engine Advertising esc Was ist Suchmaschinenmarketing? Der Begriff Suchmaschinenmarketing (engl. Search Engine Marketing oder kurz: SEM) ist leider nicht einheitlich definiert. Einerseits werden

Mehr

Barrierefreie Webseiten erstellen mit TYPO3

Barrierefreie Webseiten erstellen mit TYPO3 Barrierefreie Webseiten erstellen mit TYPO3 Alternativtexte Für jedes Nicht-Text-Element ist ein äquivalenter Text bereitzustellen. Dies gilt insbesondere für Bilder. In der Liste der HTML 4-Attribute

Mehr

Homepage-Leitfaden. So werden Sie bei Google gefunden

Homepage-Leitfaden. So werden Sie bei Google gefunden Homepage-Leitfaden So werden Sie bei Google gefunden SÜDKURIER Medienhaus Max-Stromeyer-Str. 178 78467 Konstanz Tel.: +49 (07531) 999-1839 Fax: +49 (07531) 999-77-1839 E-Mail: info@profi-homepage.de www.profi-homepage.de

Mehr

Schulungsunterlagen zur Version 3.3

Schulungsunterlagen zur Version 3.3 Schulungsunterlagen zur Version 3.3 Versenden und Empfangen von Veranstaltungen im CMS-System Jürgen Eckert Domplatz 3 96049 Bamberg Tel (09 51) 5 02 2 75 Fax (09 51) 5 02 2 71 Mobil (01 79) 3 22 09 33

Mehr

Verlinkung von Webseiten

Verlinkung von Webseiten Verlinkung von Webseiten Search Engine Strategies Conference & Expo, München 2007 Alan Webb CEO, ABAKUS Internet Marketing Warum ist Linkaufbau so wichtig? > Folgende Suchmaschinen bewerten Linkpopularität

Mehr

Aktuell 2014 als Startseite der PK-Website auf Firefox einstellen

Aktuell 2014 als Startseite der PK-Website auf Firefox einstellen SG April 2014 Aktuell 2014 als Startseite der PK-Website auf Firefox einstellen Stand 21.04.2014 PK 2014-1/58 Seite 1 von 5 Seiten Von den Besuchern der PK-Website verwenden inzwischen 54 % die Browser

Mehr

WordPress. Dokumentation

WordPress. Dokumentation WordPress Dokumentation Backend-Login In das Backend gelangt man, indem man hinter seiner Website-URL einfach ein /wp-admin dranhängt www.domain.tld/wp-admin Dabei gelangt man auf die Administrationsoberfläche,

Mehr

Extranet pro familia. Anleitung zur Nutzung Webseitenstatistik. Extranet pro familia... 1. Anleitung zur Nutzung Webseitenstatistik...

Extranet pro familia. Anleitung zur Nutzung Webseitenstatistik. Extranet pro familia... 1. Anleitung zur Nutzung Webseitenstatistik... Extranet pro familia Anleitung zur Nutzung Webseitenstatistik Extranet pro familia.... 1 Anleitung zur Nutzung Webseitenstatistik.... 1 Erklärung und Anleitung Ihrer Webseitenstatistik (Awstats)... 2 1.

Mehr

etutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche

etutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche etutor Benutzerhandbuch Benutzerhandbuch XQuery Georg Nitsche Version 1.0 Stand März 2006 Versionsverlauf: Version Autor Datum Änderungen 1.0 gn 06.03.2006 Fertigstellung der ersten Version Inhaltsverzeichnis:

Mehr

INHALTSVERZEICHNIS Allgemeine Beschreibung... 3 Verwendung der Webseite... 4 Abbildungsverzeichnis... 12

INHALTSVERZEICHNIS Allgemeine Beschreibung... 3 Verwendung der Webseite... 4 Abbildungsverzeichnis... 12 ONLINE-HILFE INHALTSVERZEICHNIS 1 Allgemeine Beschreibung... 3 2... 4 2.1 Angemeldeter Benutzer... 4 2.2 Gast... 10 Abbildungsverzeichnis... 12 1 ALLGEMEINE BESCHREIBUNG Die Webseite "" ist eine Informationsplattform

Mehr

Bereich METIS (Texte im Internet) Zählmarkenrecherche

Bereich METIS (Texte im Internet) Zählmarkenrecherche Bereich METIS (Texte im Internet) Zählmarkenrecherche Über die Zählmarkenrecherche kann man nach der Eingabe des Privaten Identifikationscodes einer bestimmten Zählmarke, 1. Informationen zu dieser Zählmarke

Mehr

WordPress SEO von Yoast für Redakteure

WordPress SEO von Yoast für Redakteure SEITE AUTOR 1 von 7 Tim Meyer-Pfauder WordPress SEO von Yoast für Redakteure Inhaltsverzeichnis SEO für Redakteure... 2 a. WordPress SEO Box... 2 b. Generell... 3 c. Seiten-Analyse... 4 d. Erweitert...

Mehr

CHECKLISTE SUCHMASCHINENOPTIMIERUNG

CHECKLISTE SUCHMASCHINENOPTIMIERUNG CHECKLISTE SUCHMASCHINENOPTIMIERUNG Suchmaschinenoptimierung, auch Search Engine Optimization (SEO) genannt, ist ein Marketing-Instrument, das dazu dient, Websites auf den Ergebnisseiten der Suchmaschinen

Mehr

SUCHMASCHINENOPTIMIERUNG FÜR DEN INTERNETAUFTRITT

SUCHMASCHINENOPTIMIERUNG FÜR DEN INTERNETAUFTRITT SUCHMASCHINENOPTIMIERUNG FÜR DEN INTERNETAUFTRITT Fa. adzoom Dawid Przybylski Münsterstr. 5 Tel.: 02381 4672980 Fax.: 02381 4672983 E-Mail: info@adzoom.de SEO was ist denn das eigentlich? Der Begriff SEO

Mehr

Grundlagen der Suchmaschinenoptimierung (SEO)

Grundlagen der Suchmaschinenoptimierung (SEO) Grundlagen der Suchmaschinenoptimierung (SEO) rankingcheck GmbH Inhabergeführte Online Marketing Agentur Fullservice: SEA, Display, Webanalyse, Affiliate, Social Media Gegründet 2005 in Köln CEO Thorsten

Mehr

Kleines Handbuch zur Fotogalerie der Pixel AG

Kleines Handbuch zur Fotogalerie der Pixel AG 1 1. Anmelden an der Galerie Um mit der Galerie arbeiten zu können muss man sich zuerst anmelden. Aufrufen der Galerie entweder über die Homepage (www.pixel-ag-bottwartal.de) oder über den direkten Link

Mehr

INHALT WEBSEITEN, SOCIAL MEDIA, SUCHMASCHINEN & CO. CAPINIO.DE WARUM INTERNET & ONLINE MARKETING?

INHALT WEBSEITEN, SOCIAL MEDIA, SUCHMASCHINEN & CO. CAPINIO.DE WARUM INTERNET & ONLINE MARKETING? WEBSEITEN, SOCIAL MEDIA, SUCHMASCHINEN & CO. INHALT TIPPS UND TRICKS FÜR DEN ERFOLGREICHEN ONLINE-AUFTRITT Über capinio Internet & Online Marketing Basisarbeit: die eigene Webseite Suchmaschinen Social

Mehr

Social SEO Intelligente Verknüpfung von Suchmaschinen und Social Media

Social SEO Intelligente Verknüpfung von Suchmaschinen und Social Media Social SEO Intelligente Verknüpfung von Suchmaschinen und Social Media Dipl. jur. oec. Felix Beilharz Social Signals sind das neue SEO Gold Searchmetrics DIM Deutsches Institut für Marketing Search + Your

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

SEMINAR Modifikation für die Nutzung des Community Builders

SEMINAR Modifikation für die Nutzung des Community Builders 20.04.2010 SEMINAR Modifikation für die Nutzung des Community Builders Step by Step Anleitung ecktion SEMINAR Modifikation für die Nutzung des Community Builders Step by Step Anleitung Bevor Sie loslegen

Mehr

Suchmaschinenoptimierung für Texter

Suchmaschinenoptimierung für Texter Suchmaschinenoptimierung für Texter Tim Kaufmann, tk@taquiri.de 1. Google Google hat das Such-Monopol. Google ist ein bewegliches Ziel. Tausende Treffer. Aber nur eine Seite 1. Rund 200 Ranking-Faktoren.

Mehr

suchmaschinen optimierung. // Suchmaschinenmarketing in Google. // Informationen zum Ranking. //

suchmaschinen optimierung. // Suchmaschinenmarketing in Google. // Informationen zum Ranking. // suchmaschinen optimierung. // Suchmaschinenmarketing in Google. // Informationen zum Ranking. // wie kann das ranking in google optimiert werden? // Was ist bei der Suche wichtig? // Bei Schweizer Websites

Mehr

Wie lege ich eine neue Standardseite an?

Wie lege ich eine neue Standardseite an? Online-Tutorials Referat VI.5 Internetdienste Wie lege ich eine neue Standardseite an? Legen Sie einen neuen Ordner an Klicken Sie den Ordner an, unter dem Sie die neue Standardseite anlegen möchten. Legen

Mehr

Datensicherung. Beschreibung der Datensicherung

Datensicherung. Beschreibung der Datensicherung Datensicherung Mit dem Datensicherungsprogramm können Sie Ihre persönlichen Daten problemlos Sichern. Es ist möglich eine komplette Datensicherung durchzuführen, aber auch nur die neuen und geänderten

Mehr

Die derzeit bekanntesten Alternativen zum Browser von Microsoft sind Mozilla Firefox, Google Chrom und Opera.

Die derzeit bekanntesten Alternativen zum Browser von Microsoft sind Mozilla Firefox, Google Chrom und Opera. Webbrowser Webbrowser stellen die Benutzeroberfläche für Webanwendungen dar. Webbrowser oder allgemein auch Browser (engl. to browse heißt stöbern, schmökern, umsehen) sind spezielle Computerprogramme

Mehr

PK-Website: Besuche & Seitenaufrufe 2010 und 2011

PK-Website: Besuche & Seitenaufrufe 2010 und 2011 Abb. 2011-4/278 (Ausschnitt) PK-Website: Besuche & Seitenaufrufe bis 31. Dezember 2011, 248.993 Besuche, 425.183 Seitenaufrufe SG Dezember 2011 / Januar 2012 PK-Website: Besuche & Seitenaufrufe 2010 und

Mehr

HMC WEB INDEX. Erste große Deutschland Studie. Wie fit sind die Clubs im online marketing? www.webindex.hmc-germany.com.

HMC WEB INDEX. Erste große Deutschland Studie. Wie fit sind die Clubs im online marketing? www.webindex.hmc-germany.com. 21.11.2013 HMC WEB INDEX Erste große Deutschland Studie. Wie fit sind die Clubs im online marketing? www.webindex.hmc-germany.com Ansprechpartner Dirk Kemmerling Geschäftsführer HMC Germany HMC Health

Mehr

Erfolgreiche Suchmaschinenoptimierung. Christoph Runkel

Erfolgreiche Suchmaschinenoptimierung. Christoph Runkel Erfolgreiche Suchmaschinenoptimierung Christoph Runkel 1 Agenda 2 Bewertungsfaktoren - ONSITE URL Seitentitel HTML-Tags (Überschriften, Aufzählungen) Linktexte Korrektheit des Quelltexts Metatags Dateinamen

Mehr

Onsite-Optimierung. Gibt es keinen doppelten Content auf der eigenen Seite oder Tochterseiten?

Onsite-Optimierung. Gibt es keinen doppelten Content auf der eigenen Seite oder Tochterseiten? Passen Ihre Inhalte zur Thematik/Titel zur Webseite? Gibt es regelmäßig aktuelle Inhalte (Content)? Sind Zielgruppen und Keywords klar definiert? Enthält die Webseite einmalige für die Zielgruppe interessante

Mehr