Wir sind

die MARKETING-Experten,

die Sie gesucht haben!

Kontaktieren Sie uns

Wir helfen Ihnen bei

der Aufhebung Ihrer

Google-Penalty!

Kontaktieren Sie uns

Wir schützen

Ihr Unternehmen

vor Google-Abstrafungen!

Kontaktieren Sie uns

Suchmaschinenoptimierung (SEO)

Suchmaschinenoptimierung SEO mit  der Mediabase GmbH

Wer hat nicht schon mal was bei Google gesucht, und musste feststellen, dass nicht unbedingt die erhofften Anzeigen bereits auf der ersten Seite stehen. Genauso verhält es sich dann auch, eben nur umgekehrt, mit einer Website ohne passende Suchmaschinenoptimierung. Der Inhaber oder Betreiber einer Website ärgert sich darüber, dass nicht er vorn steht. Und für den Erfolg ist es besser, wenn man einen solchen Sachverhalt nicht erst fest stellen muss, sondern gleich alles vorbereitet, um von Anfang an vorn mit dabei zu sein.

Es fehlt ein Top-Ranking. Was auch durchaus dazu führen kann, dass täglich Kunden verloren gehen oder Umsätze ausbleiben. Daher sind auch Aktivitäten nötig um Ihren Platz auf Suchmaschinen möglichst vorn zu platzieren. Dieser Aufgabe möchten wir uns stellen, denn nur mit einem Top-Ranking haben sie die Möglichkeit effizient Ihren Webauftritt zu nutzen.

Ein guter Internetauftritt ist schon sehr wichtig, so auch im passenden Design. Um das alles aber professionell abzurunden, muss auch die Seite gefunden werden. Und genau das geschieht über die sogenannten Suchmaschinen. Hat man eine sehr gute Platzierung, kommen auch der Erfolg und die Freude an der Website. Denn Sie haben einen Vorsprung vor Ihren Mitbewerbern. Das sind eben genau diese Zielstellungen, denen wir uns für Ihr erfolgreiches Projekt stellen möchten.

Wir bieten Ihnen professionelle und seriöse SEO Beratung und Analyse. Am Beginn der Suchmaschinenoptimierung steht eine umfassende Analyse Ihres bestehenden Internetauftritts. Das bedeutet, es wird eine Ranking Analyse Ihrer Präsenz und der Ihrer Mitbewerber durchgeführt. Im übertragenden Sinne soll das Informationen geben, welche Position Sie bei Google haben. So können wir, wenn schon der Rang nicht als positiv einzuschätzen ist, Maßnahmen mit Ihnen abstimmen, um genau diese Platzierung enorm zu verbessern. Sie sollten ein Top-Ranking erhalten, dafür stehen wir mit unserem Service.

Sie erhalten einen detaillierten Bericht von uns, in dem alle Analysen detailliert zusammengefasst und kommentiert sind. Auf Basis dieser Analyse stellen wir Empfehlungen zusammen, die die Grundlage zur weiteren Verfahrensweise bilden. Dabei können Sie selbst entscheiden, ob Sie diese Optimierungsschritte selbst, durch Ihre EDV Abteilung, einen Mitarbeiter, oder von uns durchführen lassen möchten. Die näheren Details besprechen wir in einem persönlichen Gespräch, um unserer Kernkompetenz auch gerecht werden zu können.

Sollten Sie sich dafür entscheiden, uns für die Durchführung der Optimierung Ihrer Homepage zu beauftragen, erstellen wir für Sie je nach Anliegen und Budget ein Gesamtpaket zur Optimierung. Damit gewährleisten wir ein Top – Ranking und führen Sie mit Ihrem Projekt zum Erfolg. Zugriffe auf Ihre Webpräsenz bringen Ihnen Kunden, bringen Ihnen wirtschaftlichen Erfolg. Dafür stehen wir mit unserem Engagement, und würden uns freuen, einen persönlichen Gesprächstermin in Ihrem Hause in Kürze entgegen sehen zu können.

Jetzt unverbindlich anfragen!

 

Suchmaschinenoptimierung

Professionelle Beratung und Unterstützung im Bereich Suchmaschinenoptimierung bietet die MEDIABASE GMBH seinen Kunden - seit nun mehr zehn Jahren. Unsere Experten wissen ganz genau, wie eine Webseite, ein Onlineshop oder ein Blog Relevanz bei Google erhält und richtig platziert wird: nämlich auf der ersten Seite der Suchergebnisse. Mit Hilfe vieler starker, themenrelevanter Links werden Suchmaschinen (vor allen Dingen Google) auf die Webseite aufmerksam gemacht. Professionelles Linkbuilding ist daher ein wichtiger Teil der Erfolgsgeschichte von MEDIABASE. Auch andere Leistungen, wie SEO Consulting, White-Label SEO und Onpage Optimierung sind Teil des umfangreichen Angebots. Durch ein gut ausbalanciertes Komplettpaket erhält jeder die Chance, seine Webinhalte populär zu machen. Ein gut ausgebildetes Expertenteam, viel Know-How und ein umfangreiches Erfahrungsspektrum machen MEDIABASE daher zum Ansprechpartner Nummer Eins in Sachen Suchmaschinenoptimierung.

Das Internet als Verkaufsplattform

Das Internet ist heute mehr denn je eine Verkaufsplattform. Dabei müssen nicht immer wirkliche Produkte oder Dienstleistungen gegen Geld verkauft werden, auch andere Güter finden reißenden Absatz. Informationen zu sämtlichen Themen werden hier weitergegeben. Zudem können sowohl private als auch geschäftliche Kontakte zu Menschen verschiedenster Länder online geknüpft werden. Durch die Vielzahl von Webseiten ist es gar nicht so einfach, die eigenen Ideen online erfolgreich umzusetzen. Die Konkurrenz ist hart und schläft nicht. Man muss also einen Weg finden, sich von der Konkurrenz abzuheben. Mehr noch, man muss einen Weg finden, die Menschen im World Wide Web zu erreichen. Eine gute Platzierung in den Suchergebnissen von Suchmaschinen ist daher ein wichtiger Bestandteil des Erfolgs einer Webseite. Nur wer gefunden wird, hat eine Chance auf Erfolg. Um diesen Erfolg zu realisieren, sollte man SEO nutzen.

SEO Begriffserklärung

SEO (Search Engine Optimization) oder Suchmaschinenoptimierung bezeichnet die Optimierung von Webseiten für Suchmaschinen. Diese Optimierung bezieht sich darauf, eine höhere Sichtbarkeit zu erreichen. Sie ist dabei ein Teil des Online-Marketings. Die Optimierung bezieht sich dabei nicht nur auf die eigene Internetpräsenz und das HTML-Dokument, sondern auch auf externe Webseiten. In der westlichen Welt ist Google unumstrittener Marktführer, daher richten sich die meisten Optimeriungsmaßnahmen nach den bestehenden Regulierungen von Google. Damit man seine Chancen erhöht, schneller im Internet gefunden zu werden, sollte die eigene Seite auf einer der ersten oder noch besser, der Ersten Seite von Google gerankt sein. Um das zu erreichen, ist SEO notwendig. Durch verschiedene Techniken und Optimierungsmöglichkeiten kann die Seite somit durch den Algorithmus von Google besser gefunden werden.

Wie werden Seiten im Netz von Suchmaschinen gefunden?

Es gibt zwei verschiedene Möglichkeiten, wie eine Webseite gefunden werden kann. Entweder man meldet sie bei den einzelnen Suchmaschinen an oder sie wird von den Crawlern gefunden. Bei Google unterscheidet man beispielsweise den fresh Crawl und den Deep Crawl. Neue Seiten werden oberflächlich beim Fresh Crawl erstmals erfasst, alles vollautomatisch. Beim nächsten Deep Crawl werden die Seiten bis auf tiefergehende Ebenen indexiert. Andere Suchmaschinen erfordern eine extra Anmeldung, um in den Suchergebnissen erscheinen zu können. Bei Crawlern handelt es sich um „Softwareagenten“, deren einzige Aufgabe es ist, das Internet nach neuen Seiten oder Inhalten zu durchsuchen. Besteht ein Link von einer bereits indexierten Seite zu einer neuen Seite, dann wird auch die neue Seite indexiert. Nachdem die Seite gefunden wurde, wird sie vom jeweiligen System der Suchmaschinen weiterverarbeitet und letztendlich gerankt. Die genauen Richtlinien der Rankings werden von den jeweiligen Betreibern streng geheim gehalten. Dennoch ist es möglich, die Vorgehensweisen zu erahnen. Wichtig ist auch zu wissen, dass gerade die großen Betreiber ihre Suchalgorithmen in unregelmäßigen Abständen ändern und somit versuchen, ein künstlich herbeigeführtes und nicht natürlich gewachsenes Ranking zu vermeiden. Natürlich gewachsene Links lassen sich daran erkennen, dass eine Vielzahl unterschiedlicher Webmaster von unterschiedlichen Seitentypen Verweise auf eine Webseite setzt. Webseitenbesitzter A erhält demnach viele Inbound Links von Webmaster B bis Z. Eine weitere Eigenschaft der natürlichen Linkstruktur ist des, dass Webseitenbesitzer A keine Outbound Links setzt, die auf die Seiten B bis Z verweisen. Zudem werden natürlich gewachsene Links nicht innerhalb kurzer Zeit und in hoher Stückzahl gesetzt. Sie „wachsen“ nach und nach in unregelmäßigen Abständen. Beim sogenannten Black Hat SEO handelt es sich um das Gegenteil. Bei dieser Art der Optimierung wird innerhalb kürzester Zeit eine große Menge an Backlinks gesetzt. Diese werden teilweise sogar durch Softwareprogramme automatisch erstellt und sind somit nicht natürlich gewachsen. Oftmals werden sie von Seiten mit geringem oder gar keinem PageRank gesetzt, dafür aber in sehr hoher Stückzahl. In den ungünstigsten Fällen werden auch Backlinks von Seiten gesetzt, die auf der schwarzen Liste von Google oder anderen Suchmaschinen stehen. Diese Liste beinhaltet Seiten mit pornographischem, gewaltverherrlichendem oder rassistischem Hintergrund. Besteht eine Verlinkung mit diesen Seiten, kann seitens der Suchmaschine eine Abwertung des Rankings oder sogar ein Ausschluss aus dem Index geschehen. Auch andere Black Hat Maßnahmen können zu diesen Strafen führen. Eine nicht geringe Anzahl von kleinen und auch großen Unternehmen musste dies bereits am eigenen Leib spüren. Black Hat SEO setzt sich mit voller Absicht über die bestehenden Regelungen des SEO hinweg und verwendet Spam-Maßnahmen, wie zum Beispiel Doorway-Passages, Cloaking und Google Bombing, um schneller einen besseren Rang in den Suchmaschinen zu erreichen. Aus diesem Grund sollte man bei der Optimierung seiner Seite vollkommen auf Black Hat Maßnahmen verzichten. Die Optimierung einer Webseite ist keinesfalls ein einmaliges Unterfangen, es erfordert ein ständiges Arbeiten an der Seite. Man muss sich den neuesten Gegebenheiten anpassen und sich immer wieder über neue Optimierungsmöglichkeiten informieren, sonst kann man mit dem rasanten Tempo der Änderungen nicht Schritt halten.

Link / Backlink Begriffserklärung

Unter dem Begriff Link versteht man einen Verweis auf eine andere Ressource (z.B. eine Internetseite) innerhalb der eigenen Webseite auf eine andere eigene oder fremde Website. Ein Backlink hingegen ist ein Verweis von einer anderen Webseite auf die eigene Webseite. Der Link wird dabei als eine Art Empfehlung gesehen. Backlinks sind für die Offpage Optimierung von großem Wert. Ziel ist es, dabei möglichst viel Links von hochwertigen Seiten zu erhalten. Ebenfalls von Bedeutung ist der dabei verwendete Anchor-Text, der mit möglichst vielen Schlüsselworten ausgestattet sein sollte. Im Folgenden wird lediglich der Begriff Link verwendet. Ob es sich um einen Link oder Backlink handelt, kann aus dem Kontext heraus erschlossen werden.

Verschiedene Arten von Suchmaschinen

Unter einer Suchmaschine versteht man eine Datenbank, die URLs von Webseiten speichert und ein stichwortartiges Suchen nach Inhalten ermöglicht. Nicht nur die URL der Webseite wird gespeichert, sondern auch zusätzliche Informationen. Anhand von Begriffen kann der Nutzer anschließend nach passenden Webseiten suchen. Die Ergebnisliste zeigt Treffer an, die den vorgegebenen Suchbegriff in gleicher Schreibweise und Kombination beinhalten. Zusätzlich werden die ausgegebenen Ergebnisse nach Wichtigkeit gerankt. Die Eintragung einer Seite in die Suchmaschine kann entweder manuell oder automatisch geschehen. Bei der manuellen Eintragung kann es sich um eine kostenlose oder kostenpflichtige Eintragung handeln. In Europa ist Google unbestrittener Marktführer, allerdings bieten auch andere Suchmaschinen, wie Bing.com, MSN Live Search, Yahoo! oder T-online ihre Dienste erfolgreich an. Jedoch werden die meisten Optimierungen speziell für die Suchmaschine Google durchgeführt. Google zählt dabei zu den sogenannten Volltextsuchmaschinen. Sie gelten heutzutage als effizienteste Methode zum Auffinden von Webseiten. Die Internetseiten werden in der Suchmaschine nach sogenannten Keywords oder Schlüsselwörtern gegliedert. Dabei können auch Wortgruppen oder ganze Sätze die Keywords bilden. Daher stammt auch der Name Volltextsuchmaschine. Weitere Beispiele für solche Suchmaschinen sind Yahoo! und MSN Live Search.

Das Herzstück der Volltextsuchmaschinen sind Robots (auch Crawler oder Spider genannt). Die Aufgabe der Robots ist die Suche nach neuen Verlinkungen von bereits bekannten Seiten zu unbekannten Seiten. Anschließend werden die neu gefundenen Links in der Datenbank der Suchmaschine gespeichert, die Seite wird indexiert und einem oder mehreren Suchwörtern zugeordnet. Bei der Indexierung sucht der Robot nach Textinhalten, denen er relevante Keywords entnimmt. Das genaue Verfahren wird von den jeweiligen Suchmaschinenbetreibern allerdings geheim gehalten. Innerhalb der gefundenen Keywords kommt es anschließend zu einer Bewertung. Dabei ist es von Bedeutung, wie oft ein Keyword verwendet wird und an welcher Stelle es steht (Überschrift oder Text). Danach kommt es zu einer Einstufung der Wichtigkeit der jeweiligen Keywords für die Seite. Ebenfalls von Bedeutung für die Bewertung sind Kriterien wie der PageRank und der TrustRank.

Eine weitere Art der Suchmaschinen sind Metasuchmaschinen. Sie haben im Unterschied zu Volltextsuchmaschinen keine eigenen Robots oder Indexierungsverfahren. Bei der Metasuchmaschine werden die Ergebnisse mehrerer Volltextsuchmaschinen übernommen und aufbereitet. Kommt es zu einer Suchanfrage bei einer solchen Metasuchmaschine, dann wird diese an verschiedene Volltextsuchmaschinen weitergeleitet. Die gefundenen Ergebnisse werden zurückgeschickt und aufbereitet. Doppelte Suchergebnisse werden aussortiert. Die Vorteile von Metasuchmaschinen liegen darin, dass keine eigene Datenbank benötigt wird und die besten Ergebnisse verschiedener Volltextsuchmaschinen geliefert werden. Außerdem stehen sie nicht im Konkurrenzkampf mit Volltextsuchmaschinen, wie zum Beispiel dem Marktführer Google. Sie decken einen weitaus größeren Bereich des Internets ab und jede Suchmaschine liefert unterschiedliche Ergebnisse. Somit werden von Metasuchmaschine zu Metasuchmaschine verschiedene Webseiten unterschiedlich hoch gelistet. Auch neue Seiten werden schneller gefunden. Der gravierende Nachteil ist allerdings, dass das Aufbereiten der Suchergebnisse zu einer längeren Wartezeit für den Nutzer führt. Die erste Metasuchmaschine wurde 1996 ans Netz angeschlossen und heißt Metacrawler.com. Weiter Beispiele sind MetaGer und zoz.at. Allerdings haben Metasuchmaschinen durch die ständige Verbesserung und Erweiterung der Volltextsuchmaschinen, vor allen Dingen Google, heute an Bedeutung verloren.

Eine weitere Art von Suchmaschinen sind länderspezifische Suchmaschinen. Diese Suchmaschinen beschränken sich lediglich auf Webseiten eines Landes oder einer Sprache. Beispiele dafür sind im chinesischsprachigen Raum „Baidu“. Auch die großen Suchmaschinen wie Google oder Yahoo! haben länderspezifische Suchfunktionen. Die Unterscheidung erfolgt dabei durch Sprache und IP-Adresse des Nutzers.

Auch dateispezifische Suchmaschinen sind vorhanden. Diese haben sich auf ein bestimmtes Dateiformat spezialisiert, zum Beispiel MP3-Dateien oder Bilder. Beispiele dafür sind Google Bildersuche, „Tangoo“ und „Baidu“. Jedoch werden dabei manchmal Urheberrechte verletzt. Auch Harvester oder Spambots gehören zu den Suchmaschinen. Im Gegensatz zu Volltext- oder Metasuchmaschinen suchen sie allerdings nicht nach Inhalten, sondern lediglich nach E-Mail-Adressen. Diese werden anschließend in Listen eingetragen und weiterverkauft. Daher ist diese Art von Suchmaschinen eher ein Ärgernis für die Betroffenen und für die Suchmaschinenoptimierung ungeeignet.

Eine weitere Art der Suchmaschine - jedoch nicht im klassischen Sinne wie Google oder Bing - sind Webkataloge. Diese Verzeichnisse beinhalten selbst eine Suchfunktion. Die Inhalte der Verzeichnisse und Kataloge werden jedoch auch in die Suchergebnisse der klassischen Suchmaschinen mit eingebunden. Manche Kataloge leiten den Suchenden zudem auf Suchergebnisse von klassischen Suchmaschinen weiter, sollte die interne Suche nicht erfolgreich sein. Im Gegensatz zu Volltext- und Metasuchmaschinen basieren diese nicht auf Schlagwörtern, hier wird das Internet-Angebot wird in Kategorien sortiert. Es handelt sich um einen hierarchisch strukturierten Themenkatalog, bei dem ein Angebot ohne konkrete Suchwörter gefunden werden kann. Die Aufnahme erfolgt nicht automatisch, sondern manuell, wodurch wesentlich weniger Seiten aufgenommen werden. Der qualitative Filter ist dabei allerdings sehr subjektiv, denn er hängt vom Betreiber ab. Ähnlich wie bei der Aufnahme in andere Suchmaschinen muss ein Anmeldeformular ausgefüllt werden. Hierbei werden Angaben zu URL, eine Kurzbeschreibung sowie Angaben zur Wunschkategorie und Ähnliches gemacht. Nach der Anmeldung prüft ein Mitarbeiter des Webkatalogs, ob die Seite den Anforderungen entspricht und es kommt zu einer Aufnahme oder Ablehnung. Beispiele für bekannte Webkataloge sind DMOZ, Yahoo! Directory und Google Directory.

Ob man eine tiefe oder flache Einordnung in den Kategorienbaum wählt, hängt von den eigenen Interessen ab. Bei einer tiefen Einordnung wird das Angebot genau spezifiziert, allerdings ist es dadurch für Nutzer schwerer zu finden. Bei einer flachen Einordnung kommen mehr Nutzer mit dem Angebot in Berührung, allerdings muss man mit einem höheren Streuverlust rechnen. Unter Streuverlust versteht man, dass nicht alle Nutzer, die damit in Berührung kommen auch Interesse zeigen. Nur ein Bruchteil wird die eigene Webseite tatsächlich besuchen. Somit bieten beide Varianten Vor- und Nachteile. Auch Webkataloge selbst bieten Vor- und Nachteile. Vorteile sind, dass sich der Nutzer einen Überblick über das Angebot machen kann, ohne nach konkreten Begriffen suchen zu müssen und große und kleine Unternehmen werden gleichgestellt. Zudem kann der Anbieter die Platzierung des Angebots nicht beeinflussen. Dies obliegt allein dem Ermessen des Betreibers. Das ist allerdings auch ein Nachteil, da es sich dabei um eine sehr subjektive Sichtweise handelt. Zudem sind viele Kategorien meist vollkommen überfüllt und eine alphabetische Sortierung wird vorgenommen. Eine Besonderheit von Webkatalogen ist, dass es möglich ist Banner in der gewünschten Kategorie zu platzieren. Allerdings ist die Beliebtheit von Webkatalogen in der Vergangenheit stark gesunken, da sie nur einen Bruchteil des Online-Angebots abdecken. Manche Webkataloge haben einen hohen PageRank und somit ist die Eintragung trotz allem lohnenswert. Viele Webkataloge sind kostenlos, wie auch DMOZ. Aber auch kostenpflichtige Eintragungen und Mischformen sind möglich. Eine weitere Besonderheit ist, dass bezahlte Links nicht möglich sind.

Zu weitern Suchmaschinentypen gehören Web 2.0 und Soziale Netzwerke. Unter Web 2.0 versteht man bestimmte Webseiten, deren Inhalt von den Besuchern der Seite selbst gestaltet wird. Der Betreiber stellt dabei lediglich ein Gerüst zur Verfügung. Beide besitzen eine interne Suchfunktion. Allerdings handelt es sich bei beiden nicht um Suchmaschinen im klassischen Sinne, da lediglich eine seiteninterne Suche durchgeführt wird. Sie sind Informationsbeschaffungsinstrumente, mit denen man Informationen über Personen (z.B. Facebook) oder Produkte (z.B. Ebay) finden kann. Im klassischen Sinne sind diese Arten von Suchmaschinen allerdings nicht für die Suchmaschinenoptimierung nutzbar.

Funktionsweise von Suchmaschinen

Die genaue Funktionsweise von Suchmaschinen (Volltextsuchmaschinen) ist geheim, da die Betreiber Angst vor Nachahmung der Suchalgorithmen haben und die Manipulation zur Erreichung eines höheren Rankings vermeiden wollen. Jedoch können durch Analyse der Nutzungsbedingungen, Richtlinien, gezielte Beobachtungen und Experimente die Algorithmen erahnt werden. Obwohl es auch die manuelle Eintragung gibt, wird sich im weiteren Verlauf des Textes ausschließlich auf die automatische Aufnahme beschränkt.

Crawler (Robots, Spiders) durchsuchen das Netz nach neuen, veränderten oder nicht mehr existierenden Seiten. Dabei handelt es sich um „autonome Softwareagenten“, die sich mit Hilfe von Hyperlinks durch das Internet bewegen. Sie dienen zur Informationsbeschaffung. Leicht zugänglich für Crawler sind HTML-Dokumente, andere Dokumententypen können Fehler oder Nichterkennen verursachen. Die gesammelten Informationen werden anschließend an den Stereoserver weitergeleitet. Der Stereoserver wertet die gefundenen Dokumente aus, filtert sie und sichert sie. Die Auswertung der gefundenen Seiten erfolgt in mehreren Schritten. Zunächst wird der übermittelte HTTP-Statuscode ausgewertet. Es gibt eine große Anzahl von verschiedenen Codes, allerdings sind die Statuscodes 404, 503 und 200 am wichtigsten. Statuscode 404 zeigt an, dass das Aufrufen der Seite fehlgeschlagen ist. Tritt diese Meldung auf, wird die Seite aus dem Gedächtnis der Suchmaschine gelöscht. Statuscode 503 zeigt eine Serverüberlastung an. Tritt dies mehrfach auf, wird auch diese Seite aus dem Gedächtnis gelöscht. Statuscode 200 hingegen zeigt an, dass das Aufrufen erfolgreich war und die übermittelten Daten werden weiterverarbeitet.

Es folgen noch drei weitere Filter. Der Dokumententypfilter bestimmt den Dateityp. Dabei werden Video- und Audiodateien nicht weiter verarbeitet. Der Dublettenfilter erkennt Kopien und doppelte Dokumente und filtert sie ebenfalls aus. Auch sie werden nicht weiterverarbeitet. Der URL-Filter gleicht die URL mit den Begriffen aus der Black List der Suchmaschine ab. Auf der Black List stehen Begriffe, die nicht den Richtlinien der Suchmaschinenbetreiber entsprechen. Dazu zählen rassistische, sexistische, pornographische, politisch unkorrekte und gewaltverherrlichende Inhalte. Sie werden von den Suchmaschinen gesperrt.

Nachdem alle Filter erfolgreich durchlaufen wurden, erfolgt die Speicherung im Repository und das Senden der Inhaltsbeschreibung an den Index. Das Repository speichert jedes Dokument in komprimierter Form. Zusätzlich wird auch die Dokumenten-ID gespeichert, welche vom Index vergeben wird, sowie URL und Länge der Webseite.

Unter dem Index versteht man ein Zentralregister der Suchmaschine, in dem alle Informationen zu den einzelnen Dokumenten verwaltet werden. Der Scheduler verwaltet und steuert das Besuchen der Webseiten durch die Crawler. Der Parser hingegen unterzieht anschließend alle Dateien aus dem Speicher einer syntaktischen Analyse. Zudem erfolgt hier die Wandlung der Dokumente in ein für die Weiterverarbeitung geeignetes Format. Während der Wandlung kommt es zu einer Normalisierung. Informationen, die auf der positiven Liste der HTML-Tags stehen, werden extrahiert und der Code wird auf Validität überprüft. Anschließenden erfolgen Wortidentifikation, Sprachidentifikation, Wortgruppensegmentierung, Wortstammanalyse, Synonymidentifikation, Stoppwortentfernung und Schlüsselwortgewinnung. Damit ist die syntaktische Analyse des Dokuments abgeschlossen.

Nach der Datenaufbereitung kommt es zu Indexierung, womit das Ausführen von Suchanfragen vorbereitet wird. Die gespeicherten Webseiten werden dabei mit sogenannten Hitlists abgeglichen. In einer Hitlist werden alle relevanten Schlüsselwörter mit Position, Formatierung und Ähnlichem gespeichert. Relevante Keywords in URL, Titel, Anchor-Text oder Metatags werden höher gewichtet. Die gesammelten Details werden anschließend in zwei verschiedenen Indexen gespeichert. Der direkte Index ist eine Tabelle, die jedes Keyword an passende Hitlisten verweist. Informationen über Dokumenten-ID, Schlüsselwort-ID und Hitlisten werden gespeichert. Der invertierte Index sortiert den direkten Index nach Schlüsselwort-ID um. Erfolgt nun eine Anfrage durch den Nutzer, kommt es zunächst zu einer Analyse durch den Operator. Der Operator achtet auf Sonderzeichen in der Eingabe. Wird zum Beispiel ein „+“ gefunden, bedeutet das, dass Schlagwörter verknüpft werden. Ein „-“ hingegen bedeutet, dass Schlagwörter ausgeschlossen werden. Anschließend erfolgen Stoppwortanalyse, Wortstammanalyse und Synonymidentifikation. Zum Schluss werden die Rechercheergebnisse im invertierten Index gesucht und gerankt.

Unter dem Begriff Ranking versteht man das Anreihen der verschiedenen Webseiten nach Relevanz für die Suchanfrage. Das Ranking ist eine Kombination aus mehreren Kriterien, wie zum Beispiel allgemeinen Kriterien, statistischen Methoden und das PageRank-Verfahren. Allgemeine Kriterien sind die Art der Auszeichnung, die Position im Text und die Formatierung des Wortes. Auch die Benennung der Dokumente und der URL spielen dabei eine Rolle. Zu den statistischen Methoden gehört zum Beispiel die Relative Worthäufigkeit. Je öfter ein Wort in einem Dokument vorkommt, desto wichtiger scheint es zu sein. Allerdings zweifeln viele Experten heutzutage an dieser Methode. Die Relative Worthäufigkeit errechnet sich durch die Häufigkeit eines Wortes im Dokument geteilt durch die Summe aller Worte im Dokument.

Eine andere Größe der statistischen Methoden ist die Inverse Dokumentenhäufigkeit (IDH). Dabei ist ein Dokument umso wichtiger, je weniger andere Dokumente im Speicher die gleichen Suchbegriffe haben. Positiv dabei ist, dass alle Dokumente im Repository in die Berechnung einfließen.

Auch der schon erwähnte PageRank hat Einfluss auf das Ranking der Suchmaschinen. Für den PageRank ist die Qualität und die Anzahl der eingehenden und ausgehenden Links auf der Seite von Bedeutung, aber auch Inhalt und Nachbarschaft werden bewertet. Der Grundgedanke hinter dem PageRank ist, dass die Popularität und Wichtigkeit einer Seite daran gemessen wird, wie viele andere Seiten auf sie verweisen. Jedoch kann das leicht manipuliert werden, zum Beispiel durch Linkfarmen. Daher werden heutzutage die eingehenden Links nach Herkunft, Formatierung und Positionierung im Text bewertet. Auch der Linktext ist wichtig für die Bewertung eines Links. Dauerhafte Links werden höher gewichtet als temporäre Links. Stammen Links von einer ähnlichen oder gleichen IP-Adresse, beeinflussen diese den Pakerank eher negativ. Besonders Google geht gegen spammiges Linkbuilding und Manipulation hart vor. Die Einführung der Algorithmus-Updates Panda und Penguin sind das beste Zeichen dafür. Auch Links von Seiten, die auf der Black List zu finden sind, werden negativ gewertet. Als Sackgassen bezeichnet man Seiten ohne Verlinkung. Dabei kann kein PageRank vererbt werden.

PageRank und TrustRank

Der sogenannte PageRank ist wichtig für die Bewertung von Webseiten. Er wurde von Google entwickelt, um die Bewertung der Wichtigkeit einer Seite zu vereinfachen. Verschiedene Faktoren haben Einfluss auf den PageRank, allerdings sind nicht alle davon der Öffentlichkeit bekannt. Bekannt ist allerdings, dass Links von anderen Seiten einen großen Einfluss auf den PageRank haben. Eine Vielzahl an Links von qualitativ hochwertigen Seiten (hoher PageRank, Universitäten, Wohlfahrtsorganisationen etc.) bedeuted einen hohen PageRank. Umgekehrt haben Links von qualitativ minderwertigen Seiten (Linkfarmen) einen negativen Einfluss. Dieses System bezeichnet man als Vererbung des PageRanks.

Der PageRank wird mit Hilfe von Nummern ausgedrückt. Die Nummerierung startet bei Null und endet bei Zehn, wobei Zehn der höchste bzw. beste Rang ist. Die Liste der Seiten mit dem perfekten Google PageRank ist nicht lang, derzeit befindet sich unter anderem die European University Association (http://www.eua.be/Home.aspx) unter den PR-10-Seiten.

Auch andere Anbieter, wie MSN und Yahoo! haben ähnliche Verfahren entwickelt. Zwar sind die Bewertungskriterien auch hier geheim, müssen aber denen von Google ähneln, da ähnliche Ergebnisse geliefert werden. Ein Algorithmus, der höchstwahrscheinlich bei der Ermittlung des PR eine Rolle spielt, ist HITS – Hyperlink Induced Topic Search. Hierbei spielt hauptsächlich die Relevanz der in den Linkaufbau mit einbezogenen Seiten eine Rolle.

Um den eigenen PageRank zu steigern muss man entweder qualitativ hochwertige Links von anderen Seiten generieren oder eine Vielzahl eigenen Seiten erstellen und diese untereinander verlinken. Mit Hilfe der Google-Toolbar kann man den PageRank einer Seite herausfinden, allerdings handelt es sich dabei nur um einen Schätzwert. Experten raten allerdings, dass man nicht zu viel Wert auf den PageRank legen sollte, da es sich dabei nur um ein von ungefähr 200 Platzierungsmerkmalen von Google handelt. In der heutigen Zeit hat der PageRank gegenüber den Gründungsjahren von Google stark an Bedeutung verloren. Konzentriert man sich beim Optimieren einer Seite nur auf den PageRank, können andere, lohnenswerte Alternativen ungenutzt bleiben. Sogar Mitarbeiter von Google selbst raten, nicht allzu viel Gewicht auf den PageRank zu legen.

Ein weiteres Bewertungskriterium ist der TrustRank, welcher im Jahr 2004 von Yahoo! und der Stanford Universität entwickelt wurde. Dabei werden im Gegensatz zum PageRank nicht einzelne Internetseiten, sondern ganze Internetauftritte bewertet. Grundgedanke ist, dass Mitarbeiter von Suchmaschinen die einzelnen Internetauftritte manuell bewerten und als vertrauenswürdig einstufen. Auch der TrustRank kann vererbt werden, aber er nimmt ab, je weiter er sich von der Quelle entfernt. Jedoch gibt es keinen Beweis, dass der TrustRank bei Suchmaschinen Anwendung findet.

Onpage und Offpage Optimierung

Die Suchmaschinenoptimierung wird in zwei Disziplinen unterteilt: die OnPage Optimierung und die OffPage Optimierung. OnPage Optimierung findet direkt auf der eigenen Webseite statt, während OffPage Optimierung auf anderen Webseiten und im Umfeld der eigenen Webseite stattfindet. Ist eine Seite benutzerfreundlich gestaltet, dann freut sich nicht nur der Kunde, sondern auch die Suchmaschine.

Die Onpage Optimierung bezieht sich ausschließlich auf die Webseite selbst, das heißt auf ihren Aufbau, ihren Inhalt und ihre graphische Gestaltung. Eine Webseite muss einfach zu bedienen und übersichtlich sein, darf aber keinesfalls langweilig werden. Ein guter Mittelweg ist daher ausschlaggebend für den Erfolg. Die Menüführung muss logisch aufgebaut sein und eine interne Verlinkung aller Seiten ist für die Optimierung von großem Vorteil.

Ein valider Code ist unverzichtbar. Zwar haben die meisten Suchmaschinen eine gewisse Fehlertoleranz, jedoch sollte diese keinesfalls überschritten werden. Daher ist auf die korrekte Programmiersprache zu achten. Schon der Aufbau des Internetauftritts ist von zentraler Bedeutung. Um die Aufnahme einer Seite zu erleichtern, sollte man auf einen Index zurückgreifen. Der Index ist eine alphabetische Auflistung von allen relevanten Stichworten auf der Seite und deren Verlinkung. Eine Alternative stellt die Sidemap dar. Darunter versteht man eine XML-Datei, in der die URL der Homepage sowie die URLs aller Unterseiten aufgeführt werden.

Der Inhalt der Seite (Home) sollte ständig aktuell gehalten werden, damit der Nutzer sowie der Crawler ständig neue Inhalte entdeckt. Das weckt nicht nur das Interesse des Nutzers häufiger wiederzukommen, je öfter sich Inhalte aktualisieren, desto öfter besucht ein Crawler die Website.

Auch Google sorgt ständig für neue Updates, um ein besseres Indexieren und Ranken der Webseiten möglich zu machen. In den letzten Monaten gab es verschiedene Updates, zu denen unter anderem das neue Panda-Update 3.2, Search + your World und das Layout-Update Above the fold gehörten. Mit Hilfe des Panda-Updates und seiner Vorgänger versuchte man, die Suchergebnisseiten Googles aufzubessern. Der öffentlichen Meinung nach waren zu viele Linkfarmen zu hoch gerankt. In das Update flossen unter anderem Faktore, wie Bounce Rate und Verweildauer ein. Im Laufe der Zeit wurde dieses Update immer wieder verbessert und auf den neuesten Stand gebracht. Bei Search + your World integrierte Google als erstes Unternehmen eine Social Media Seite (Google+) in die Suche der Suchmaschine mit ein. Im eingeloggten Zustand kann man bei der Suche mit Google auch auf Profile von Google+ zugreifen. Trotz anfänglicher Bedenken über Sicherheit und Auswirkungen auf SEO-Maßnahmen hat sich das Update als nützlich erwiesen. Beim Above the fold Update handelt es sich um ein Layout-Update. Seiten, die in der oberen Hälfte ihrer Home Page und Unterseiten zu viel Bannerwerbung etc. platziert haben, sollten abgestraft werden. Auch das hat für großes Aufsehen im SEO-Bereich gesorgt.

Man kann also sagen, dass eine gute Onpage Optimierung nicht nur nötig ist, um im Netz besser gefunden zu werden, sondern auch um dauerhafte Kundenbindung zu erreichen. Schon der Name der Domain ist wichtig für die Suchmaschinenoptimierung. Ist der Name zu lang, können ihn sich potentielle Kunden nicht merken. Gibt es Seiten mit ähnlichen Namen, kann es zu Verwechslungen kommen. Daher sollte der Domain-Name kurz und bündig sein und das Angebot so gut es geht umschreiben.

Dynamische URLs (mit Symbolen, wie „!“, „&“, „?“) müssen dringend vermieden werden, da die meisten Suchmaschinen sie nicht richtig indexieren können. Außerdem sollte der komplette Name in Kleinbuchstaben geschrieben sein, da er sich so leichter merken lässt. Ist ein Unternehmen nur in einem Land tätig oder möchte ein spezielles Angebot für ein einzelnes Land anbieten, dann ist eine länderbezogene Domain von Vorteil. Zum Beispiel sollte eine Webseite aus Österreich eine .at-Domain haben.

Ebenfalls ein wichtiger Teil der Onpage Optimierung ist die Keyword-Recherche. Die Keywords sollen das Angebot der Webseite umschreiben, und zwar so umfassend wie möglich. Es gibt verschiedene Methoden der Keyword-Recherche, die manuell oder mit Hilfe eines Computers durchgeführt werden können. Zu diesen Methoden zählen unter anderem die Zielgruppenbefragung, Konkurrenzanalyse und das Nutzen von Web-Tools, wie zum Beispiel dem Adword-Keyword-Tool. Zudem können Lexika online oder offline genutzt werden, um Synonyme zu finden, die eine gute Keywordliste abrunden. Singular und Plural der Keywords sollten genutzt werden, zudem ist auf eine korrekte Schreibweise zu achten. Allerdings können auch häufige Tippfehler mit einbezogen und als Keyword genutzt werden, um die Spanne zu erweitern. Nur mit den passenden „Schlüsselwörtern“ zieht man die Aufmerksamkeit der richtigen Zielgruppe auf sich.

Das Thema Webdesign ist ebenfalls zentral in diesem Zusammenhang. Das Design soll den Kunden ansprechen, darf jedoch nicht komplett vom Produkt ablenken. Graphiken sollten ebenfalls in regelmäßigen Abständen ausgetauscht werden, um das Interesse zu wahren. Inhalt und Layout müssen unbedingt getrennt werden. Externe Stylesheets enthalten dabei die eingegebenen Formatierungsbefehle. Eine Formatierung direkt im HTML-Content ist nicht wünschenswert, da die meisten Crawler diese nicht indexieren können. Auch andere dynamische Funktionselemente und JavaScript können nicht gelesen werden. Daher sollte eine zusätzliche HTML-Navigation bereitgestellt werden.

Eine weitere Möglichkeit positiven Einfluss auf das Ranking einer Seite mit Hilfe der Onpage-Optimierung zu nehmen, sind Meta-Tags. Unter einem Tag versteht man einen HTML-Befehl, der die Darstellung der Seite nicht beeinflusst, aber wichtige Informationen über die Seite bereitstellt. Durch sie kann die Indexierung einer Seite genauer gesteuert werden. Eine Art des Meta-Tags ist der Titel-Tag. Dieser hat eine hohe Gewichtung bei Suchmaschinen und ist von den Benutzern und Kunden der Seite einzusehen. Für den Titel-Tag steht lediglich eine Zeile zur Verfügung, daher sollte kurz und prägnant das Angebot dargestellt werden. Das Einbringen von Keywords ist wichtig, allerdings sollte eine bloße Aneinanderreihung vermieden werden, denn auch für den Nutzer sollte er gut lesbar sein. Der Discription-Tag stellt eine Art Kurzinhalt der Seite dar, während der Keyword-Tag andere Keywords aufnimmt, unter der die Seite zu finden ist, die aber nicht auf der Seite selbst vorkommen. Es gibt zusätzlich noch eine Vielzahl von weiteren Meta-Tags, wie zum Beispiel den Copyright-Tag. Erstellt werden können Meta-Tags entweder selbstständig oder mit Hilfe von Meta-Tag-Generatoren. Dabei handelt es sich entweder um kostenlose Services oder Freeware. Mit Hilfe der Meta-Tags kann das Vorgehen der Crawler positiv beeinflusst werden, jedoch gibt es keine Garantie, dass sich diese an die Vorgaben halten.

Der Dateirumpf birgt zusätzlich den Body-Tag. Dieser umschließt den eigentlichen Inhalt der Seite. Suchmaschinen indexieren lediglich den ersten Teil des Body-Tags, daher sollten alle wichtigen Informationen und Keywords hier zu finden sein. Eine Gliederung durch Zwischenüberschriften und Paragraphen ist ebenfalls sinnvoll. Zwischenüberschriften werden allerdings nur bis zur sechsten Ebene indexiert und verlieren nach jeder Abstufung an Gewicht. Paragraphen erhöhen die Lesbarkeit für Nutzer und Crawler gleichermaßen. Tabellen werden nicht vollständig indexiert. Lediglich Überschrift, Kopfzeile und Strukturelement werden berücksichtigt. Daher ist eine Zusammenfassung im Body-Tag von großem Nutzen. Aufzählungen haben ebenfalls ein höheres Gewicht, wohingegen Hervorhebungen im Text von Suchmaschinen nicht weiter beachtet werden. Auch im Body-Tag sollte man Konsequent Alternativen zu Audio-, Video- oder anderen dynamischen Elementen bereitstellen.

Maßnahmen der OffPage Optimierung finden hingegen nicht direkt auf der eigenen Seite statt. Ein bedeutender Teil im Bereich OffPage stellt das Linkbuilding dar, das auch als Linkaufbau bezeichnet wird. Ein immer wiederkehrender Begriff in diesem Zusammenhang ist die Link Populartiy. Neben der Summe der generierten Links ist auch die Themenrelevanz von starker Bedeutung. Zudem sollte der Ankertext, der dem Link beigefügt wird, ebenfalls themenrelevant und keywordbezogen sein. Obwohl allgemein angenommen wird, dass jeder Link eine Auswirkung auf das Ranking einer Seite hat, kann sich ein Link auch negativ auf eine Seite auswirken. Auch nach Abschluss der Offpage Optimierungsmaßnahmen sollte eine regelmäßige Kontrolle erfolgen, da sich, wie bereits oben im Text erwähnt, die Suchalgorithmen und Indexierungsmaßnahmen der Suchmaschinen regelmäßig ändern. Daher ist ein dauerhafter Erfolg nur durch ständige Analyse, Kontrolle und Ausbesserung möglich.

Bestehende Verlinkungen sollten auf die Gültigkeit geprüft werden. Führen sie ins Leere, wirkt es sich negativ auf die Position der Website aus. Inbound Links sollten ebenfalls auf die Herkunft getestet werden. Eine Art des Spam und der Manipulation ist das Erstellen von schadhaften und minderwertigen Links durch böswillige Konkurrenten. Diese können das Ranking verschlechtern und somit dem Konkurrenten Vorteile verschaffen.Mit dem neuen Disavow Tool von Google kann man ungewollte Links löschen lassen bzw. deren Wirkung neutralisieren.

Ein Problemfall bei der Offpage Optimierung stellt das sogenannte Webhosting dar, da alle Kunden / Teilnehmer die gleiche IP-Adresse haben. Jedoch ist es für die Suchmaschinenoptimierung wichtig, über eine eigene IP-Adresse mit Passwortschutz zu verfügen. Erreichbarkeit und Reaktionszeit sind ebenfalls wichtig. Eine geteilte IP-Adresse kann sich unter anderem negativ auf einen Teilnehmer auswirken, beispielsweise wenn ein anderer Spamming betreibt. Hyperlinks haben verschiedene Wertigkeiten für Suchmaschinen, die durch den PageRank und andere Kriterien bewertet werden. Höher gewichtet werden Seiten mit ähnlichem Inhalt, die allerdings nicht in direkter Konkurrenz stehen. Gleiche oder ähnliche Keywords und ähnliche Inhalte sind ein Zeichen dafür.

Geringer gewertet werden Links, die aus dem Linktausch gewonnen werden. Auch Links, die sich in Linksammlungen und nicht im Text befinden, werden geringer gewertet. Vermeiden sollte man Links von einer gleichen IP-Adresse oder von sogenannten Linkfarmen. Links aus Blogs, Foren und Gästebüchern sollen laut Meinung einiger Experten ebenfalls geringer gewichtet werden.

Eine weitere Sonderstellung beim Thema Offpage Optimierung bilden Hubs. Unter Hubs versteht man eine Sammlung von themenrelevanten Webseiten, in dessen Mitte bestenfalls die eigene Webseite steht. Alle Seiten eines Hubs sind miteinander verlinkt. Manchmal können auch Webkataloge Teil eines Hubs sein. Wichtig ist dabei die Themenrelevanz eines Hubs, sonst kann dieser schnell fälschlicherweise von den Suchmaschinen als Linkfarm erkannt werden.

Eine fehlerfreie Anwendung des Codes, mit dessen Hilfe ein Link gesetzt wird, ist erforderlich für ein gutes Linkbuilding. Programmiersprachen wie Flash oder Java Script sollten vermieden werden, da die meisten Suchmaschinen sie nicht korrekt interpretieren können. Idealerweise sollte ein Link im HTML-Code erstellt und mit einem guten Ankertext versehen werden. Im Ankext sollten keine Füllwörter stehen! Ebenfalls von steigender Bedeutung ist eine ausgewogene und natürlich wirkende Abwechslung bei der Wahl des Ankertextes. Verlinken 100 Seiten über den Text „Autowäsche Wien“ auf ein und die selbe Webseite, ist das Linkbuilding nicht so effektiv, als würden 50 Seiten mit unterschiedlichem Ankertext auf die Seite der Autowäsche-Firma verlinken.

Suchmaschinen-Bomben werden beim Black Hat SEO eingesetzt. Darunter versteht man Links mit identischen Keywords im Anchor-Text, die auf eine Seite verweisen, die nicht mit den Keywords in Verbindung steht. Ein gutes Beispiel für solch eine Suchmaschinen-Bombe ist die Verknüpfung von George W. Bush mit dem Keyword „miserable failure“. Diese wurde von Bush-Gegner am Ende seiner letzten Amtsperiode in Umlauf gebracht. Allerdings können Suchmaschinen-Bomben auch ungewollt oder versehentlich entstehen. Solche Bomben verwirren nicht nur den Nutzer, sondern sind auch schädlich für die Suchmaschinenoptimierung.

Der Nofollow Meta-Tag zeigt einer Suchmaschine an, dass diesem Link nicht gefolgt werden soll. Das ist sowohl für eine komplette Seite als auch für einzelne Links möglich. So wird kein PageRank an die andere Seite abgegeben, der Crawler wird diesem Link auch nicht auf die verwiesene Seite folgen. Gründe für den Nofollow-Metatag können sein, dass die verlinkte Seite nicht den Richtlinien der Suchmaschine entspricht oder nicht vertrauenswürdig ist. Auf diese Weise können Spamlinks erfolgreich verhindert werden.

Wie schon erwähnt, ist auch eine interne Verlinkung von großem Nutzen. Das ist nicht nur wichtig für die Onpage, sondern auch für die Offpage Optimierung. Auf diese Weise wird der PageRank einer eigenen Seite auf andere eigene Seiten übertragen. Je mehr Seiten untereinander verlinkt sind, desto mehr steigt der PageRank. Ein zusätzliches Plus ist, dass im Falle eines Backlinks einer fremden Seite alle eigenen Seiten davon profitieren.

Um passende Backlinks setzen zu können, muss man geeignete Webseiten finden. Das ist unter Umständen enorm zeitaufwändig. Hat man eine passende Seite gefunden, dann hat man zwei verschiedene Möglichkeiten, einen Link zu bekommen. Zum einen kann man als Webmaster selbständig Links, die auf die zu optimierende Webseite führen, setzten. Beliebte Methoden sind Artikelverzeichnisse, Presseportale, Blogs oder Kommentare auf Foren. Ist dies nicht der Fall, muss das Einverständnis des Betreibers gegeben werden, dieser muss in den meisten Fällen den Link selbst setzen.

Optimal für das Lnikbuilding sind Seiten, die thematisch relevant sind, einen hohen PageRank haben und auch sonst als „Experten“ gelten. Zudem sind Seiten mit Domains wie „.org“ oder „.edu“ eine gute Linkquelle. Natürliches Linkbuilding spielt eine immer bedeutendere Rolle, Qualität wird höher gewertet als Quantität.

Eine Möglichkeit, sehr schnell eine große Menge an Links selbst zu setzen oder zu tauschen, sind Linkfarmen. Jedoch sollte man auf diese Art Webseite möglichst verzichten. Linkfarmen sind Webseiten, deren einziges Ziel es ist, eine Fülle von Links zu sammeln, um damit möglichst hoch bei Google und anderen Betreibern gerankt zu werden. In den meisten Fällen sind diese Seiten extrem einfach gestaltet. In der Theorie sollte der PageRank nach dem Setzen eines Links steigen, jedoch ist das bei Linkfarmen nicht der Fall. Linkfarmen verstoßen gegen die Regeln der Suchmaschinenbetreiber und werden in der Regel auch schnell als solche erkannt. Daraufhin wird die Website im Index gesperrt, was allen verlinkten Seiten Schaden zufügen kann. Man sollte daher unbedingt auf themenrelevante Seiten zurückgreifen.

Ein Weg, um einen Partner zum Linktausch zu finden, ist ein Blick in einen Webkatalog. Hierbei kann die Kategorieabfrage helfen. Allerdings sollten die Seiten keinesfalls in Konkurrenz mit der eigenen stehen. Mit Hilfe von Linktausch kann man auf diese Weise sehr schnell an PageRank gewinnen. Auch hier zeigt die Erfahrung, dass wenige Links zu Webseiten mit hohem PageRank besser sind als eine große Anzahl von Links zu Seiten mit niedrigem PageRank. Wie bei den verschiedenen Suchmaschinen kann man sich auch bei Webkatalogen anmelden. Das ist in den meisten Fällen recht lohnenswert. Webkataloge, wie auch AVZs, unterscheiden sich nach Backlink-pflichtigen und Backlink-freien Katalogen. Die Aufnahme in einen solchen Webkatalog ist relativ einfach. Man muss lediglich ein Anmeldeformular ausfüllen und den vorgegebenen Kriterien und Richtlinien entsprechen. Beispiele für Webkataloge sind DMOZ, Yahoo! Directory, Web.de und Allesklar.de. Nicht nur große Webkataloge sollten dabei in Augenschein genommen werden, auch die Anmeldung bei kleinen und lokalen Katalogen ist ein Vorteil, da man auf diese Weise von Kunden direkt gefunden werden kann. In den meisten Fällen ist eine kostenlose Eintragung in den Katalog möglich.

Eine weitere gute Verlinkungsmöglichkeit bieten lokalbezogene Webseiten und Foren. Für Kleine Unternehmen, Fimen, Restaurants und ähnliches, die eine lokale Zielgruppe haben, profitieren von einem so erreichten regionalen Bezug. Somit können lokale Kunden direkt auf das Angebot aufmerksam gemacht werden und auf die Website gelangen. Zudem können auch öffentliche Seiten von Kommunen oder Städten dazu genutzt werden. Ausschlaggebend für die Webseitenauswahl sind dabei der lokale Bezug und das angebotene Produkt oder die Dienstleistung.

Die am häufigsten genutzte Quelle zum Setzen von Backlinks sind Foren. Der Grund dafür ist, dass man hier selbstständig Links setzen kann. Allerdings haben viele Foren das Nofollow-Attribut, welches man vermeiden sollte. Um herauszufinden, ob ein Forum dieses Attribut besitzt, kann man entweder den Quelltext zu Rate ziehen oder eine Erkennungssoftware nutzen. Um das Nofollow-Attribut zu umgehen, kann man in der eigenen Signatur im Forum einen Link zur Webseite setzen. Jedoch werden diese in der Regel weniger wichtig gewertet. Allerdings sollte dringend darauf geachtet werden, dass die eigenen Äußerungen im Forum themenrelevant sind. Eine Mitwirkung im Forum ist dabei unbedingt notwendig, denn einmalige Einträge, die lediglich mit einem Link versehen sind, werden oftmals schnell gelöscht oder erst garnicht freigeschalten. Diese Funktion der Überprüfung von Kommentaren kann auch dabei helfen, dass man seine eigene Seite, seinen Blog oer Ähnliches vor spammigen Kommentaren schützen kann. Man sollte daher ein aktives Mitglied der Community werden und Beiträge verfassen, die zum Diskussionsthema passen.

Eine weitere effektive Quelle für Links können Blogs, News und Pressemitteilungen sein. Verlinkungen, die von Blogs aus gesetzt werden, sollten unbedingt zum Thema des Blogs passen. Zudem muss der Betreiber um Erlaubnis gebeten werden. Die Kommentarfunktion ist dabei oftmals recht hilfreich. Allerdings sind viele der Blogs ebenfalls mit Nofollow-Attributen ausgestattet. Blogs sind zudem eine gute Möglichkeit zum Linktausch. So können selbstverfasste Berichte oder Artikel mit Genehmigung des Betreibers hier veröffentlicht und verlinkt werden. Im Gegenzug kann Gleiches auf der eigenen Seite geschehen. Auch hier ist ein hoher PageRank von Vorteil, jedoch sollte Themenrelevanz ebenfalls wieder höher gewichtet werden. Backlinks von News oder Pressemitteilungen zu erhalten ist sehr zeitaufwändig. Jedoch lohnt sich die Anstrengung in den meisten Fällen. Eine große Anzahl von Besuchern oder potentiellen Kunden kann so auf die eigene Website aufmerksam gemacht werden. Dabei kann man entweder versuchen durch die Kommentarfunktion einen Link setzen zu können oder man schreibt einen eigenen Beitrag. Natürlich muss dieser Beitrag genehmigt und veröffentlicht werden, daher ist eine hohe Qualität und Aktualität von Wichtigkeit. Der Beitrag selbst muss sich dabei nicht auf das eigene Unternehmen beziehen. Mögliche Veröffentlichungsplattformen sind Google News, Webnews, T-online.de, Focus.de, Spiegel.de und CNN.com. Eine Vielzahl anderer Seitentypen ist ebenfalls für das Setzen von Backlinks geeignet. Dabei kommt es auf die Art der eigenen Seite und das angepriesene Produkt an. Homepages von Geschäftspartner, Vereinen, Universitäten und Restaurants sind eine gute Möglichkeit. Für Onlineshops bieten sich Seiten wie ebay, Amazon, Hitmeister und Idealo an.

Werbung im Netz

Obwohl das Schalten von bezahlten Anzeigen im Internet nicht direkt zur Suchmaschinenoptimierung gehört, ist es dennoch ein nützlicher Weg, um Aufmerksamkeit zu erregen und mehr Traffic auf die eigene Webseite zu ziehen. Bekannt ist diese Form des Amrketings auch als Search Engine Marketing, kurz SEM. Diese Art der Anzeigen lohnt sich besonders für kleine und neue Unternehmen, ebenso wie für neue Produkte und Dienstleistungen. Suchmaschinen, Portale und andere Plattformen sind dabei ideale Werbepartner. Dabei gibt es eine hohe Affinität zur Zielgruppe und eine große Popularität. Das Internet rückt dabei immer mehr ins Zentrum der Marketingaktivitäten, auch das Budget für Online Marketing wächst ständig.

Das eigentliche Problem bei der Werbung im Internet ist es, dass viele Nutzer des Internets sich von aufdringlichen Werbebannern gestört fühlen. Durch diese Werbebanner wird die Optik vieler Webseiten gestört und hindert eine gute Informationsaufnahme. Der Werbende sollte beim Platzieren seines Angebots genau darauf achten, dass es einerseits auffällt und andererseits keinesfalls als störend empfunden wird. Viele Internetnutzer versuchen mit Hilfe von Werbeblockern, die ungeliebte Online-Werbung zu umgehen. Anbieter wie Werbende empfinden dies als problematisch und versuchen ihrerseits, die Werbeblocker zu umgehen.

Laut einer Studie von TNS Infratest aus dem Jahre 2011 empfinden Nutzer die Werbung im Internet als besonders störend. Lediglich telefonische Werbung wird als noch störender empfunden. Bannerwerbung wird als eine der größten Unannehmlichkeiten empfunden. Daher ist es sehr wichtig, auf mehr als nur ein Medium bei der Werbung im Netz zu setzen. Trotz dieser negativen Einschätzung hat eine gut durchdachte und ausgeführte Werbekampagne online viele Vorteile. Eine hochwertige Kampagne kann den Kontakt zwischen Kunden und Produkten bzw. Unternehmen steigern. Folglich kann durch das direkte Klicken auf die Werbung oder die vermehrte Suche nach den Produkten via Suchmaschine der Traffic gesteigert werden. Hier kommt die Suchmaschinenoptimierung ins Spiel. Eine gut optimierte Seite regt zum Kauf an, man spricht dabei auch von der „Conversion Rate“, die darüber Aufschluss gibt, wieviele Besucher der Seite zu tatsächlichen Kunden werden.

Ebenfalls ein sehr wichtiger Trend ist das mobile Marketing, denn ein Großteil der Bevölkerung nutzt das Mobiltelefon, um im Internet zu surfen. Ein neuer Faktor, der in die Optimierung der Webseite mit einbezogen werden muss, ist das „Mobile Response Design“. Webseiten können auf Tablets, Smartphones etc. nicht identisch wie auf einem Laptop oder Desktop-PC angezeigt werden. Die neue Disziplin des Web-Designs beschäftigt sich damit, die Seite auch für mobile Endgeräte optisch ansprechend zu gestalten.

Social Media

Social Media hat keinen direkten Einfluss auf die Suchmaschinenoptimierung, dass heißt die Platzierung bei Suchmaschinen, ist jedoch in der heutigen Zeit eine unumgängliche Größe. Unter Social Media versteht man Soziale Netzwerke, wie Facebook, Twitter oder LinkedIn. Ein Großteil der Bevölkerung mit Zugang zum Internet ist Teil irgendeiner Online Community. Welcher Community man angehört, hängt von verschiedenen Faktoren, wie Alter, Geschlecht, Interessen und Herkunft, ab. Diese Plattformen gehören zu den meist aufgerufenen Webseiten der Welt. Jede einzelne Plattform hat einen anderen Schwerpunkt oder Funktion. Das Prinzip hingegen ist gleich: Der Nutzer legt ein Profil an, welches er mit Angaben zu Name, Alter, Geschlecht und anderen Informationen füllt. Anschließend sucht er andere Mitglieder aus der Community, die er entweder kennt oder gern kennenlernen möchte. So können Kontakte zu Menschen auf der ganzen Welt hergestellt und erhalten werden. Bei Facebook beispielsweise können Privatpersonen aus dem eigenen Leben berichten oder Videos, Fotos und Kommentare teilen, die Ihnen gefallen. Auch Firmen können Facebook nutzen, um über sich selbst, die neuesten Produkte und Dienstleistungen oder Werbemaßnahmen zu berichten. Eine eigene E-Mail-Funktion soll dabei für bessere Kommunikation sorgen.

Die Entstehungsgeschichte von Facebook hat bereits mit dem Film „Social Network“ Hollywood erobert. Mark Zuckerberg, ein Student der Harvard Universität (USA), gründet im Jahr 2004 das heute bekannteste Soziale Netzwerk der Welt: Facebook. Anfangs war das Netzwerk nur für dortige Studenten gedacht, jedoch wuchs es mit enormer Geschwindigkeit und hat heute Anhänger in der ganzen Welt. Seit dem Jahr 2008 zum Beispiel ist Facebook auch für deutschsprachige Nutzer erreichbar. Facebook wurde mittlerweile in über 70 Sprachen übersetzt und hat weltweit mehr als 700 Millionen Anhänger. Das Netzwerk stellt seinen Nutzern weltweit die meisten Spiele und Werkzeuge zur Verfügung.

Auch hier meldet man sich an, erstellt ein Profil und sucht andere Nutzer. Von Experten wurde anfangs häufig kritisiert, dass die Plattform zu kompliziert sei. Zudem werden bis heute die Privatsphäre- und Datenschutzeinstellungen kritisiert.

Ein relativ junger Konkurrent von Facebook ist Google+, welches erst seit dem Jahr 2011 auf dem Markt ist. In der Vergangenheit hatte Google mehrfach versucht eigene Soziale Netzwerke aufzubauen, ist jedoch mit Plattformen, wie Buzz oder Wave gescheitert. Mit Google+ könnte Google der Durchbruch gelingen. Bereits kurz nach der Einführung war die Plattform auch auf Deutsch erhältlich. Schätzungen zu Folge hat das Netzwerk bereits jetzt mehr als 40 Millionen Mitglieder, allerdings werden die genauen Zahlen vom Suchmaschinenbetreiber geheim gehalten. Auch hier kann ein umfangreiches Profil angelegt werden. Die Zielgruppe dieses Netzwerkes ist jedoch unterschiedlich zu Facebook. Hierbei eröffnen sich neue Möglichkeiten für Unternehmen. Nicht nur können Beziehungen zu Partner gepflegt und entwickelt werden. Im Bereich des Marketings bestehen weietre Chancen. Geplant ist zudem, dass Google+ in Zukunft auch im Bereich HR, auf der Suche nach neuen Potentialen und Mitarbeitern, eine Rolle spielen wird.

Anders als bei Facebook muss man nicht miteinander vernetzt sein, um Nachrichten auszutauschen. Bei Google+ ist ebenfalls ein Video-Chat mit bis zu zehn Personen möglich. Nachteilig ist allerdings, dass die Funktionen noch überschaubar sind und es keine Fanseiten für Unternehmen, Medienunternehmen oder Künstler gibt. Zudem können auch Veranstaltungen nicht geteilt werden.

Ersetzt wird diese Funktion durch das „Plus“. Werden Mitglieder von Google Plus gut bewertet und erhalten mehrere „Plus“, soll sich dies laut Google ebenso auf das Ranking bzw. den PageRank auswirken. In Kombination mit Google Places bietet der Suchmaschinenbetreiber den Webmastern und Seitenbetreibern somit eine breite Auswahl an Möglichkeiten, die Sichtbarkeit im Netz zu steigern. Ein Pluspunkt gegenüber Facebook ist allerdings, dass die Privatsphäreeinstellungen leichter zu finden und zu bedienen sind. Ebenfalls sehr bekannte weiter Social Media Kanäle sind Twitter und LinkedIn. Twitter ist Markführer in seiner Nische. Der Mikroblog existiert zudem in einem ähnlichen Format in China, das gleiche gilt für Facebook. Internationale Konzerne und Unternehmen sollten sich demnach über die landestypischen Social Networks wie auch Suchmaschinen informieren, damit die Kampagnen im Ausland ebenso erfolgreich gestaltet werden können.

LinkedIn ist ein Soziales Netzwerk, welches einen eher professionellen und beruflichen Hintergrund hat. Profile bestehen auf dieser Seite, wie auch auf XING, aus einer Auflistung der beruflichen Karriere, Erfolgen, Empfehlungen und Kenntnisse. Man kann sich das Ganze wie einen Lebenslauf vorstellen, der stets – soweit der Server funktioniert – online zu finden ist. Ebenso kann angegeben werden, nach was man auf der Suche ist. Solche Netzwerke dienen zum Recruiting, zur Suche nach neuen Geschäftspartnern, Kunden, Lieferanten, Consulting und vielem mehr. Der Unterschied zu Facebook und Co. ist, dass die Nutzer nur einen Basis-Profi kostenfrei nutzen können. Um das volle Angebot an Services nutzen zu können, muss man sich für einen speziellen Account anmelden. Dieser wird oft Premium-Account genannt, und bringt gewisse monatliche Kosten mit sich.

Aus Sicht der Suchmaschinenoptimierung können Unternehmen Soziale Medien nutzen, um ihr Firmenprofil online zu stellen, Produkte und Services Vorzustellen, ihr Unternehmen und die Mitarbeiter „greifbarer“ zu machen und vieles mehr. Ähnlich wie auf der Webseite gilt es hierbei zu beachten, das man das Profil, soweit es die Plattform zulässt, ansprechend gestaltet. Das Firmenlogo sorgt für einen gewissen Wiedererkennungswert. Bilder können ebenso hochgeladen werden wie auch informative Broschüren, die sich Interessenten auf den eigenen PC herunterladen können. Der Text sollte vom Inhalt her nicht zu lang sein. Vom Inhalt her ist wieder auf die Einmaligkeit des Textes zu achten, auch hier werden Keywords eingebaut. Das Ziel der Nutzung von Sozialen Medien ist es, dass mehr Personen im Internet über einen reden. Sind die Beiträge spannend, regen sie die Nutzer dazu an, diese auf ihrer eigenen Seite zu verlinken, in einem Blog auf die Seite zu verweisen oder sie mittels eines einfachen Klicks an ihr eigenes gesamtes Netzwerk zu empfehlen.

Schafft man es als Webmaster, eine erfolgreiche Strategie für Online Medien und Netzwerke zu kreieren, kann man zudem einen gesteigerten natürlichen Linkaufbau erreichen. Methoden, die Webaster in der Vergangenheit angeboten haben, waren jedoch unter anderem auch das Kaufen von Fans bzw. Freunden. Besonders im Bereich des Facebook Marketings spielt das eine Rolle, fällt jedoch auch unter die regelwiedrigen Maßnahmen, auch wenn es nicht als Spam bezeichnet wird. Hierbei geht es hauptsächlich darum, dass man ein Unternehmens-Konto bei Facebook einrichtet. Integriert ist ein „Like“-Button. Je mehr Likes eine Seite hat, desto mehr Personen folgen den News auf der Seite und erhalten Informationen über neue Posts auf ihrer Startseite. Damit steigt das Potenzial, dass sich die Bekanntheit des Unternehmens über die Netzwerke hinweg verbreitet. Durch die Einbettung eines Links auf die Homepage kann der Besucher des Profils ebenso viel einfacher auf die Firmenseite gelangen. Eine hohe Anzahl an Likes macht es ebenso wahrscheinlicher, dass man in der Suche auf Facebook gefunden wird, da diese Zahl vom Facebook-eigenen Algorithmus bei der Erstellung von Ergebnislisten mit in Betracht gezogen wird. Folglich ist eine künstliche Steigerung der „Likes“ eine Methode, um sogar die Suche in Sozialen Netzwerken zu manipulieren.

Eine Möglichkeit, mehr „Likes“ zu bekommen, ist es, dass man auf der Website der Firma einen „Like“ Button einbaut. Auf diese Weise wird das Konto auf der Netzwerkseite mit der eigentlichen Website verknüpft. Besonders wenn man bereits auf der eigenen Seite einen guten Traffic hat, kann man die Beliebtheit auf Facebook und Co. übertragen.

Ein weiteres Potential bietet Youtube. Video-Tutorials, Werbespots und mehr kann man hier auf einem eigenen Kanal veröffentlichen. Auf der einen Seite kann man als Nutzer seinen Facebook-Account nicht mit Youtube verbinden, so dass ein einfaches „Like“ ausreicht, um ein Video mit seinem Netzwerk zu teilen. Man kann jeodch den Link in Facebook kopieren und von dort aus auf das Video hinweisen. Der Video-Kanal kann jedoch mit Google verbunden werden, so dass Nutzer des Google+ Accounts einem guten Video ein „Plus“ geben können. Viele Universitäten und Unternehmen posten ebreits erfolgreich Tutorials oder Lehrgänge auf Youtube. Die Videos werden noch einfacher auffindbar, wenn man sie mit den entsprechenden Meta-Tags versieht und eine spezielle Video-Sitemap bei Google einreicht.

Wie auch bei den Texten, dreht sich hier alles um Nutzerfreundlichkeit. Der Merksatz ist: Informativer Inhalt mit Mehrwert für den Kunden hat mehr Erfolg als Inhalt, der rein für die Suchmaschinen und auf Keywords hin optimiert ist.

Mobile Marketing

Auch Mobile Marketing ist in der heutigen Zeit ein wichtiger Teil des Online Marketings. Wiederum hat das Mobile Marketing nicht direkt etwas mit dem Ranking bei Suchmaschinen zu tun, ist jedoch eine hervorragende Ergänzung zu anderen Optimierungsmaßnahmen. Unter Mobile Marketing versteht man Marketingmaßnahmen, die unter Verwendung drahtloser Telekommunikation und Mobilgeräte stattfinden. Ziel ist es, Konsumenten möglichst direkt zu erreichen und zu einem bestimmten Verhalten zu führen. Es handelt sich dabei um Aktivitäten, bei denen der Anbieter Leistungen auf Basis von Mobilgeräten anbietet. Diese Leistungen umfassen digitale Inhalte (Musik, Spiele, Videos), Informationen (News, Produktinformationen) und Transaktionen (Shopping, Videostreaming, Zahlung). Es kommen Funktechnologien, wie UMTS/HSDPA, Wireless LAN, Bluetooth und DVB-H in Verbindung mit Mobilgeräten zum Einsatz. Ziel des Mobile Marketing ist es, eine möglichst nachhaltige Kundenbindung zu erreichen. Der Kunde soll maßgeschneiderte Angebote erhalten. Mobile Marketing hat in den letzen Jahren (2011, 2012, 2013) enorm an Bedeutung gewonnen und der Markt wird sich laut Expertenmeinung in Zukunft noch mehr vergrößern. Studien haben ergeben, dass je nach Land, sich Werbung auf mobilen Endgeräten stärker auf das Kaufverhalten auswirkt. Die Tendenz, dass jemand etwas gleich kauft, ohne darüber vorher zu Hause nachzudenken, wenn er eine Werbung unterwegs sieht, ist größer und nimmt ständig zu.

Eienn steigenden Einflus darauf hat die vermehrte Nutzung von Smartphones und wieteren Geräten. Auf dem Weg zur Arbeit, nach Hause, unterwegs mit Freunden – überall und in jeder Lage werden die Geräte genutzt. Sie dienen der Suche nach einem Restaurant, Frisör, Bäcker oder anderem Geschäft in der Nähe des aktuellen Aufenthaltsortes.

Das ist ein Grund, warum Google Places sowie Facebook an Bedeutung gewinnen. Auf Google Places können sich Firmen eintragen, um bei solchen lokalen Suchen schnell gefunden zu werden. Auf Facebook kann man sich als „Ort“ selbst eintragen, Besucher der tatsächlichen Filiale können dann online auf Facebook in diesem Ort einchecken. Die Daten werden später für die Suche nach beispielsweise „Restaurants die meine Freunde mögen“ oder „Frisör in meiner Stadt“ genutzt. Bei der neuen Graph Search basieren die Suchergebnisse allerdings nur auf der Datenbasis, die durch alle meine Kontakte im Netzwerk generiert wurde. Hat der Freund von einem Freund in seiner Privatsphäre eingestellt, dass jeder oder sogar Freunde von Freunden sehen können, wo er war, was er mag, welche Bilder er gepostet hat, fallen auch diese Daten mit zur Grundmenge, aus der die Suchergebnisse erzeugt werden.

Mobile Marketing kann durch SMS- oder MMS-Maßnahmen, so wie durch komplexe, mobile Internetportale realisiert werden. Bei dieser Art der Kommunikation gibt es drei verschiedene Ansätze: Pull, Push und Viral. Beim Push-Ansatz nutzt man eigene oder über Dienstleister angemietete Adresslisten, um an Konsumenten mobile Werbebotschaften zu übermitteln. Allerdings ist dieser Ansatz auch häufig mit dem unschönen Begriff Spam verbunden. Man sollte nach Möglichkeit darauf verzichten. Der Pull-Ansatz hingegen verfolgt das Ziel, dass Konsumenten Werbebotschaften explizit anfordern. Zu diesem Zweck werden zusätzliche Werbeträger benötigt, die die Zielgruppe zur Teilnahme an der Kampagne ermutigt. Vermehrt tauchen auf Java basierende Programme auf, die das Ziel verfolgen auf dem Mobilgerät des Nutzers proprietäre Mobile-Portale einzurichten. Damit soll die Navigation erleichtert werden, indem auf der Applikationsebene grafische Nutzerprofile angelegt werden. Damit soll dem Nutzer ein Rahmen vorgegeben werden, in dem er verschiedene Dienste antreffen kann. Man verspricht sich durch diese Vorgehensweise den Aufbau von Kundenbasen, die über nachvollziehbare Profile verfügen. Das ist für Werbetreibende von unschätzbarem Vorteil. Der Viral-Ansatz folgt dem klassischen Grundprinzip der Mundpropaganda. So werden Werbebotschaften oder Dienste von einem Konsumenten an einen anderen weitergeleitet. Bei diesem Ansatz wird der Nutzer motiviert, vo ihm gefundene Dienste oder Werbebotschaften aus freien Stücken (gerne) an andere Personen aus dem sozialen Umfeld weiterzuempfehlen. Diese wiederum sollen auch motiviert werden, den Dienst weiterzuempfehlen. Beispiele für solche Konzepte sind multimediale Grußkarten, die eine Werbebotschaft enthalten, und Mobile-Instant-Messaging-Dienste.

Es gibt verschiedene Geschäftmodelle innerhalb des Mobilen Marketings, die abhängig von den Zielen der Kampagne sind. Premium Billing gilt der Verschönerung und Individualisierung des Telefons. Dabei wird dem Nutzer ein höherer Betrag als normal für eine SMS berechnet. Der erhöhte Erlös wird unter Mobilfunkbetreiber, ASP und Hersteller der Inhalte aufgeteilt. Ein bekanntes Beispiel dafür ist das Bestellen von Klingeltönen oder animierten Logos. Ein moderneres, neueres Geschäftsmodell basiert auf Java-Applikationen. Dabei wird nach Reichweite gestrebt. Der Dienst soll von möglichst vielen Nutzern auf dem Mobilfunkgerät installiert werden, um dort als Trojanisches Pferd zu wirken. Dadurch wird dem Anbieter ein erlaubter, jedoch fast unbeschränkter Zugang ermöglicht. Der Vertrieb ist denkbar einfach gestaltet: Durch einen Download-Link im Text einer SMS baut sich via Internetverbindung ein Kontakt zum Download-Service auf. Dort wird das Programm heruntergeladen, falls der Nutzer über die nötigen Anwendungen auf seinem Telefon verfügt.

Die Sicherheit im Mobile Marketing wird durch Autorisierung, Vertraulichkeit, Integrität und Nichtabstreitbarkeit erreicht. Da ein allgemeines Misstrauen gegenüber der Sicherheit im Mobilfunk herrscht, werden große Anstrengungen unternommen, um die Standards zu erhöhen. Zum Mobile Marketing gehören Mobile Entertainment, Mobile News, sowie Mobile Advertising und Web Analytics. Zu Mobile Advertising wiederum zählen spezielle Werbeformen, wie optimierte Banner, Textlinks und Interstitials. Allerdings gibt es bei Mobile Marketing auch kritische Faktoren. Zunächst einmal muss das Verständnis aufgebaut werden, dass es sich beim Mobiltelefon um ein neues Medium handelt. Daher müssen Werbemaßnahmen durch andere Marketingkanäle und Medien begleitet werden. Ein weiteres Problem ist die fast schon monopolartige Stellung der Mobilfunkbetreiber. Das führt in vielen Fällen zu enorm hohen Kosten bei der Durchführung von Kampagnen und somit in vielen Fällen zu einem vorzeitigen Ende. Es besteht daher das Bedürfnis, kostengünstigere oder kostenlose mobile Kanäle zu finden. Es gibt in letzter Zeit vermehrt Anstrengungen die Mobilfunkbetreiber zu umgehen. Verrechnungserlöse sollen via Bankeinzug oder Kreditkarte gezahlt werden. Jedoch besteht hier das Problem, dass der Mindestverrechnungsbetrag 10 EUR beträgt und kleinere Beträge immer noch über den Mobilfunkbetreiber abgerechnet werden müssen.

Black Hat, White Hat und Grey Hat SEO

Unter Black Hat SEO versteht man, wie schon erwähnt, Suchmaschinenoptimierung, die im Gegensatz zum White Hat SEO die Richtlinien der Suchmaschinen missachtet, um eine Seite besser zu listen. Das Wort Black Hat bezieht sich auf alte Western-Filme, in denen zwei Cowboys sich zum Duell gegenüber stehen. Dabei trägt der gute Cowboy immer einen weißen und der böse Cowboy immer einen schwarzen Hut.

Der Grundgedanke des Black Hat SEO ist es, Lücken im Algorithmus der Suchmaschinen zu finden und diese nutzbar zu machen. Vor Gründung von Google beispielsweise reichte es, Meta-Keywords einfließen zu lassen. Das war eine sehr einfache Art der Manipulation, die heute jedoch wertlos ist. Ein weiteres Beispiel für eine veraltete Technik ist der versteckte Text. Beim Programmieren der Webseite wird ein Text, der für die Besucher der Seite unsichtbar ist, gestaltet. Suchmaschinen können diesen jedoch erkennen und beim nächsten Besuch des Crawlers mit indexieren. Methoden warem: Text in der gleichen oder kaum unterscheidbaren Farbe wie der Hintergrund, Text hinter einem Bild versteckt oder Text in Schriftgröße Null. Auch diese Verfahren werden heute von den Suchmaschinen ohne weiteres erkannt. Bis vor relativ kurzer Zeit war es möglich, Links innerhalb des Noscript-Tags zu setzen. Hierbei kann der Nutzer den Link nur erkennen, wenn Scripts blockiert sind oder nicht installiert. Solche Links flossen jedoch ins Ranking ein. Die Zahl der Spam-Maßnahmen des Black Hat SEO ist nicht klein. Einige weitere Beispiele sind Blog-Spam, Brückenseiten, Hijacking, Content-Klau und vieles mehr.

Das zentrale Element der Suchmaschinenoptimierung ist das Erhalten von Backlinks. Beim White Hat SEO werden diese durch gute, für den Nutzer informative Seite angelockt (Linkbait). Black Hat SEO hingegen bedient sich einer anderen Methode. Eine große Masse an maschinell erstellten Seiten (Linkfarmen) werden genutzt, um Links auf eine andere Webseite zu setzen. Auch das Erschleichen von Links durch eigenständiges Einfügen (ohne Erlaubnis des Betreibers) ist eine beliebte Methode. Durch Cracking der Webseiten werden ebenfalls Links erzeugt (kostenlos angebotene Plug-Ins für CMS). Black Hat SEO definiert sich nicht unbedingt durch die Verletzung des Gesetzes, sondern die Übertretung der Richtlinien der Suchmaschinen. In manchen Fällen stellt dies jedoch einen fließenden Übergang dar. Andere Arten der Manipulation sind Cloaking und Keywordstuffing. Der größte Minuspunkt des Black Hat SEO ist die Abstrafung durch die Suchmaschinen (speziell Google).

Je nach Verstoß gegen die Richtlinien droht dem Spammer ein Herabsetzen des PageRanks und das Abrutschen der Seite in den Suchergebnislicten auf weit hinten liegende Plätze. In extremen Fällen werden Seiten aus dem Index der Suchmaschine gestrichen. Je nach dem, welchen Zweck die Seite hatte, macht es mehr Sinn, eine neue Seite zu erstellen, anstatt zu versuchen, diese wieder aufzubereiten und erneut bei der Suchmaschine anzumelden. Kleinere Abstrafungen können jedoch in der Regel mehr oder weniger einfach und schnell wieder ihre alte Position erhalten, sofern die Maßnahmen, die den Richtlinien wiedersprechen, rückgängig gemacht werden.

White Hat SEO hingegen ist das Einhalten aller Webmaster Richtlinien der einzelnen Suchmaschinen. Google und Bing bieten ihre Richtlinien für Webmaster frei online zum Lesen an. Jedoch sagen die Suchmaschinen selbst, es handetl sich um Richtlinien, kein muss. Webseiten sollten hauptsächlich für die Nutzer gestaltet werden, nicht für die Suchmaschinen. Dazu zählen eine solide Onpage Optimierung, die es einer Suchmaschine ermöglich schnell und einfach möglichst viele Inhalte zu finden. Nur durch ein wenig Promotion sollten gute Links angezogen werden. Diese Art der Suchmaschinenoptimierung eignet sich vor allen Dingen für qualitativ hochwertige Seiten, die dauerhaft Bestand im Ranking von Google haben sollen. Die Seite muss dafür interessant und für den Nutzer hilfreich gestaltet sein. Nur mit permanent aktuellen Inhalten und Features können natürliche Links generiert werden. Social Media Optimization ist ebenfalls ein wichtiger Teil des White Hat SEO. Im Wesentlichen zielt diese Art der Suchmaschinenoptimierung darauf ab, freiwillig gesetzte Links zu erhalten.

Unter dem sogenannten Grey Hat SEO versteht man alle Maßnahmen, die die Grenze zum Black Hat SEO nicht überschreiten und dennoch nicht 100%-ig zum White Hat SEO gezählt werden können. Kritiker sind der Ansicht, dass fast alle Maßnahmen der Suchmaschinenoptimierung eigentlich im Grey Hat Bereich anzusiedeln sind. Man sollte soweit möglich immer auf White Hat SEO zurückgreifen, allerdings ist dies mit einer starken Konkurrenz meist nicht vollkommen realisierbar. Hierbei können Grey Hat Methoden zum Einsatz kommen. Allerdings hängt die Entscheidung ob White, Grey oder Black Hat SEO voll und ganz von der Art der Seite und ihrem Zweck ab. Soll eine Seite schnell gepushed werden und nur dem Zweck dienen innerhalb kurzer Zeit hohe Gewinne zu generieren, kann man auf Black Hat Methoden zurückgreifen. Diese Art von Seiten hat nicht den Zweck langfristig bei Google sichtbar zu sein. Daher ist eine Abstrafung durch die Suchmaschine kein großer Minuspunkt. Handelt es sich allerdings um eine Seite, die langfristig, also über Jahre hinweg, ein gutes Ranking bei Google erhalten soll, sollten unbedingt White Hat Methoden angewandt werden. Alles in allem handelt es sich bei der Suchmaschinenoptimierung immer um das Wandeln auf dem schmalen Grat zwischen White Hat und Black Hat.

Unterstützung durch den Profi

Obwohl man sich im Netz oder auch durch Fachliteratur einen guten Überblick über das Thema Suchmaschinenoptimierung und deren Anwendung verschaffen kann, ist die Anwendung dieser Art von Optimierung kein einfaches Unterfangen. Viele Kampagnen und Methoden benötigen nicht nur viel Zeit, sondern auch ein gewisses Know-How. Wenn das eigene Unternehmen nicht die Zeit oder die Ressourcen hat, die Optimierung selbst durchzuführen, sollte professionelle Unterstützung eingeschalten werden. Mit Hilfe einer SEO-Agentur können Kampagnen bis ins kleinste Detail geplant und überwacht werden. Der Vorteil dabei ist, dass man selbst einen wesentlich geringeren Aufwand an Zeit und Ressourcen braucht. Um eine Agentur zu nutzen, sollte man sich über die eigenen Ziele im Klaren sein. „Auf Seite eins von Google gerankt zu sein“ ist dabei die grobe Richtung, keineswegs aber das Ziel. Eine Kampagne, die einen langfristigen Erfolg garantieren soll, kann ebenso wenig innerhalb kurzer Zeit durchgeführt werden. Planung, Recherche und ein stetes Arbeiten an der Website und den OffPage Maßnahmen sind der richtige Weg. Schnelle Erfolge können jedoch auch ein Ziel sein, jedoch leidet in vielen Fällen die Langfristigkeit darunter. Ebenfalls wichtig ist, von vornherein klarzustellen, welche Art der Optimierung man wünscht. Soll auf Black Hat SEO zurück gegriffen werden oder darf nur White Hat SEO genutzt werden? Die Agentur selbst kann mit Vorschlägen aufwarten, jedoch sollte die letztendliche Entscheidungsgewalt immer in den eigenen Händen bleiben. Nicht wenige große, mittelständige und kleine Unternehmen haben Schäden genommen durch den Kontrollverlust bei der Suchmaschinenoptimierung. Ein klarer Vorteil beim Nutzen von Agenturen ist, dass es sich bei den Mitarbeitern um echte Profis handelt, die sich ständig weiterbilden und auch neue Methoden und Herangehensweisen in die Beratung einfließen lassen können. Eins steht jedoch fest, durch die hohe Konkurrenz im Internet ist jedes Unternehmen und jeder Betreiber einer Webseite auf Suchmaschinenoptimierung angewiesen, um sich im Markt positionieren zu können. Dabei sollte man den ständigen rasanten Wandel des Internets und seiner Nutzer nicht außer Acht lassen.

USA