Beiträge

Sistrix Toolbox

Sistrix Toolbox: Alle SEO Werkzeuge aus einer Toolbox

Wer sich ernsthaft mit Google Optimierung beschäftigt, sollte in ein professionelles SEO-Tool investieren. Derartige Tools findet der Suchende wie Sand am Meer – doch nicht alle sind wirklich hilfreich. Das älteste SEO-Werkzeug ist gleichzeitig eines der Besten: Die Sistrix SEO-Toolbox (Affiliate Link) hilft Webmastern und SEO-Agenturen gleichermaßen, Rankingverbesserungen herbeizuführen und zu überwachen.

Wer sich mit dem Thema SEO beschäftigt wird irgendwann zwangsläufig auf ein Unternehmen namens „Sistrix“ treffen. Die Firma ist ein echter SEO-Pionier und punktet nicht nur in der Szene, sondern auch im Anwenderbereich mit Ideen, die die Suchmaschinenoptimierung revolutionierten.

Mit der Sistrix Toolbox, einer Sammlung verschiedener SEO-Werkzeuge, können beispielsweise selbst Anfänger die eigenen SEO-Bemühungen optimieren. Es handelt sich hierbei um ein Online-Tool, zu dem insgesamt fünf Module gehören, die unabhängig voneinander in Anspruch genommen werden können:

  • SEO-Modul
  • Universal-Search-Modul
  • SEM-Modul
  • Backlink-Modul
  • Optimizer-Modul

Jedes dieser Module greift einen (Unter-)Bereich der Suchmaschinenoptimierung auf und gibt dem Anwender verschiedene Tools und Analysewerkzeuge in die Hand, um das Ranking der Webseite zu verbessern und überwachen.

Drei Gründe für die Sistrix Toolbox

Die Expertise von Sistrix im Bereich SEO steht außer Frage – doch bedeutet das auch, dass die Sistrix Toolbox die Investition wert ist? Kann das, was die Toolbox tut, nicht auch vom Anwender selbst übernommen werden?

Theoretisch wäre das möglich, der Aufwand steht jedoch in keinem Verhältnis zum Nutzen mehr – in manchen Fällen ist dies sogar vollkommen unmöglich. Für die Sistrix Toolbox (Affiliate Link) sprechen also vor allem drei Argumente:

  • Die Sistrix Toolbox spart Zeit.
  • Die Sistrix Toolbox ermöglicht eine sehr genaue Analyse verschiedenster SEO-Bereiche.
  • Die Sistrix Toolbox besitzt ein optimales Kosten-Nutzen-Verhältnis.

Nutzen Sie als Unternehmer also die Sistrix Toolbox, um SEO-Analysen vollkommen automatisch zu erstellen und um die Entwicklungen zu beobachten, sparen Sie Zeit und Geld und optimieren so den Workflow.

Sistrix Toolbox: fünf Module für den SEO-Erfolg

Jeder, der sich für die Nutzung der Sistrix Toolbox entscheidet, ist dem SEO-Erfolg ein ganzes Stück näher. Allerdings gilt es nun zu entscheiden, ob alle fünf verfügbaren Module für die Unternehmung benötigt werden, oder ob nur einzelne Module nötig sind. Die Entscheidung begründet sich deshalb auf den Funktionen der einzelnen Module:

Funktionen des SEO-Moduls

Was kann ein SEO-Modul der Sistrix Toolbox, was der Nutzer nicht kann – ganz einfach: Es setzt die vielen verschiedenen Rankingfaktoren, die für das Google Ranking eine Rolle spielen mit den tatsächlich vorhandenen „Werten“ auf der Webseite in Verbindung.

Das Zusammenspiel dieser Werte wirft die Sistrix Toolbox dann als sogenannten „Sichtbarkeitsindex“ aus. Und dieser Sichtbarkeitsindex zeigt dem Webmaster ganz genau, wie gut die Webseite über Google zu finden ist. Zusätzlich bringt das SEO-Modul unter anderem folgende Funktionen:

    • Keywords:

Mit dem SEO-Modul hat der Nutzer Zugriff auf 10 Millionen Keywords und kann ablesen, wie das Ranking von speziellen Domains zu diesen Keywords aussieht.

    • Wettbewerber:

Mit dem SEO-Modul kann auch das Keyword-Ranking der Konkurrenz überwacht werden – per One-Klick-Analyse sieht der Nutzer schnell, welche Wettbewerber auf dieselben Keywords optimieren und wie groß deren Erfolge sind.

Funktionen des Universal-Search-Moduls

Die Ergebnisse der Google-Suche enthalten nicht nur Webadressen, sondern auch Ergebnisse anderer Kategorien, die in Form von sogenannten „Universal-Search-Boxen“ angezeigt werden. Dazu gehören die Ergebnisse der folgenden Kategorien:

  • Bilder
  • Videos
  • Google Places
  • Shopping
  • News

Mit dem Universal-Search-Modul sieht der Anwender, zu welchen Keywords Universal-Search-Treffer gelandet werden können und auf welcher Position die Webseite angezeigt wird – das funktioniert natürlich auch für Konkurrenz-Webseiten.

Funktionen SEM-Moduls

Das SEM-Modul kümmert sich um die Überwachung und Auswertung bezahlter Google AdWords-Anzeigen. Besonders interessant ist die Sistrix BrandProtection Funktion: Das System prüft, ob Dritte unerlaubt Anzeigen zu Ihrem Markennamen geschaltet haben.

Funktionen Backlink-Moduls

Backlinks sind seit Langem einer der wichtigsten Google-Ranking-Faktoren – die Auswertung ist und bleibt allerdings schwer, da Google wenig brauchbare Daten preisgibt. Das Backlink-Modul von Sistrix nutzt deshalb einen eigenen Crawler, der das Internet durchsucht und verschiedene Backlink-Daten zusammenstellt, beispielsweise:

  • Auflistung aller Backlinks
  • Auflistung der Ankortexte der Backlinks
  • Verlinkende Serverstandorte (Länder)
  • Zusätzlicher Backlink-Vergleich zweier verschiedener Domains, um beispielsweise neue Linkquellen aufzuzeigen.

Funktionen Optimizer-Moduls

Das Optimizer-Modul hat im Jahr 2012 das Monitoring Modul ersetzt und kümmert sich, wie der Name schon sagt, um eine Optimierung der bisherigen SEO-Maßnahmen:

  • Bis zu 5 Projekte mit jeweils 10.000 Unterseiten können überwacht werden.
  • Das Modul zeigt auf, ob bei der Optimierung Fehler gemacht wurden.
  • Optimierungsmöglichkeiten werden durch das Optimizer-Modul ebenfalls aufgezeigt.

Vor allem die Optimierungsmöglichkeiten sind ideal, um schnell und unkompliziert zu erfahren, was in puncto SEO besser gemacht werden kann.

Der Platzhirsch auf dem SEO-Tool-Markt ist ganz klar die Sistrix Toolbox (Affiliate Link). Sie versteht es wie kein anderes Werkzeug, den Google-Algorithmus zu „durchschauen“ und die eigene Webseite daraufhin zu untersuchen. Der Funktionsumfang hat allerdings auch seinen Preis: Nutzer, die alle fünf Module in Anspruch nehmen, zahlen dafür monatlich 400,00 Euro – ein Preis, der echter SEO-Erfolg allerdings wert ist.

Google Optimierung

Google Optimierung: Besser im Internet gefunden werden

Unternehmenswebseiten bieten potenziellen Kunden die Möglichkeit, sich über eine Firma und deren Produkte und Dienstleistungen zu informieren, Kontakt aufzunehmen oder eventuelle sogar direkt einen Kauf zu tätigen. Es geht also darum Besucher zu generieren („Leads“) und möglichst viele von ihnen zu zahlenden Kunden zu machen („Sales“) – bis dahin ist es jedoch ein langer Weg, denn: Die Frage ist, wie die Kunden die Webseite überhaupt finden sollen, wenn Sie den Namen der Unternehmung noch gar nicht kennen? Die Antwort: Suchmaschinenoptimierung, besser bekannt als SEO (Search Engine Optimization) oder auch Google Optimierung.

SEO ist der Inbegriff für den Online-Erfolg einer Webseite, denn sie kümmert sich darum, den heiß begehrten Traffic für eine Online-Präsenz zu generieren. Dabei geht es vor allem um Besucher, die über die Suchmaschinen – allen voran Google – auf die Webseite stoßen. Da Google so mächtig ist, bezeichnen viele Kunden die Tätigkeit als Google Optimierung. Um ein gutes Google Ranking zu erreichen, muss der Webmaster jedoch eine Vielzahl von Maßnahmen ergreifen, die sich in zwei Bereiche aufteilen:

  • OnPage-Optimierung: Die SEO-Maßnahmen, die direkt auf der Webseite umgesetzt werden können, gehören zu dieser Gruppe.
  • OffPage-Optimierung: Die SEO-Maßnahmen, die abseits der eigenen Webseite ergriffen werden, gehören zur Offpage-Optimierung.

Während die Onpage-Maßnahmen sehr vielfältig sein können, geht es bei der Offpage-Optimierung nur um eines: Backlinks – doch das bedeutet nicht, dass es weniger aufwendig ist. Im Gegenteil: Der Linkaufbau ist die Königsdisziplin der SEO, denn sie ist unheimlich zeitaufwendig. Aber es lohnt sich.

Besser im Internet gefunden werden durch Google Optimierung

Zeit, Nerven, Geld – SEO ist aufwendig und mitunter auch kostenintensiv. Doch trotzdem ist das Kosten-Nutzen-Verhältnis mehr als optimal. Das, was mit SEO erreicht werden kann, stellt klassische Maßnahmen klar in den Schatten. Eine optimal auf die jeweiligen Bedürfnisse abgestimmte SEO-Strategie stärkt das Unternehmen in mehrfacher Hinsicht:

  • Mehr Aufmerksamkeit für die Unternehmung
  • Eine Stärkung der Reputation im Netz – und damit auch offline
  • Eine Maximierung der Sichtbarkeit
  • Reduzierung der Streuverluste beziehungsweise sehr genaues Targeting

Und letztendlich bringt jeder dieser Punkte vor allem eines: Ein Plus an Vertrauen in die Produkte und Dienstleistungen und damit mehr Besucher für Webseite und eine Maximierung der Konversion – vom Lead zum Sale.

Das ist der entscheidende Vorteil der SEO: Es geht hier nicht nur um Werbung, sondern auch darum, die Expertenposition zu festigen, indem die Relevanz der eigenen Webseite zu einem bestimmten Thema gesteigert wird. Welche Webseite relevant ist, misst Google anhand verschiedener Punkte, beispielsweise:

  • Nutzung themenrelevanter Keywords
  • Backlinks von themenrelevanten Webseiten

Diese beiden Relevanz-Kriterien einer Webseite helfen dabei, die Präsenz auf die vorderen Plätze der Suchmaschinenergebnisseiten, kurz „SERPs“, zu heben. Denn wenn Sie sich nicht auf der ersten Seite der Google-Suchergebnisse wiederfinden, macht es fast keinen Unterschied mehr, ob Sie auf Seite 2 oder 10 auftauchen, denn:

  • Knapp 90 Prozent der Suchenden schauen sich nur die erste Ergebnisseite an.
  • Nur Rund 7 Prozent klicken auch die zweite Ergebnisseite an.
  • Nur knapp 1 Prozent schaut sich mehr als sieben Ergebnisseiten an.

Damit wird auch das Ziel der Optimierung für Google klar: Nur Maßnahmen, die die Webseite mindestens auf die erste Ergebnisseite bringen, sind sinnvoll und vertretbar. Idealerweise kommt es hier zu einer Top-3-Platzierung, die die Klickraten noch weiter verbessert.

Google Ranking: Was für eine Top-Platzierung getan werden muss

Die Maximierung des SEO-Erfolgs entsteht durch eine Kombination verschiedener Onpage- und Offpage-Optimierungsmaßnahmen. Bei der Onpage-Optimierung stehen die Webseite und deren Themenrelevanz sowie technische Voraussetzungen im Vordergrund. Im Speziellen bedeutet das:

  • Optimierung des Seiten-Inhalts (Content) auf themenrelevante und lukrative Keywords
  • Optimierung der Header und Meta-Tags
  • Optimierung technischer Gegebenheiten

Vor allem die Identifizierung der richtigen Keywords ist dabei entscheidend. Eine umfangreiche Keyword-Recherche ist deshalb Pflicht. Es soll schließlich nicht auf sinnlose Suchbegriffe hin optimiert werden.

Die Offpage-Optimierung wiederrum widmet sich allein dem Thema Linkaufbau. Ein Link einer themenrelevanten Webseite, der auf Ihre Webseite verweist, suggeriert Google, dass die Inhalte Ihrer Webseite relevant sind. Dabei gilt es vor allem auf auch auf die Qualität der verlinken Webseite zu achten:

  • Themenrelevante Webseiten optimieren das Ranking.
  • Minderwertige Webkataloge und Artikelverzeichnisse gilt es zu vermeiden.
  • Je stärker die verlinkende Webseite, desto höher die Auswirkung auf Ihre Webseite.

Der Linkaufbau ist ein langwieriger Prozess, der jedoch den größten Impact auf die Sichtbarkeit der Webseite hat, da er sich besonders stark und vor allem langfristig auf das Ranking auswirkt.

SEO ist eine Marketingmaßnahme, die sich langfristig und nachhaltig auf die Sichtbarkeit der Unternehmung im Internet auswirkt. Trotz der vielen Maßnahmen, die vor allem Zeit kosten und entsprechendes Know-How voraussetzen, ist die Google Optimierung heutzutage eine der vielversprechendsten Marketingformen für Unternehmen zahlloser Branchen.

Google Disavow Tool

Google Disavow Tool: 5 Tipps zum Entwerten von Links

Die Platzierung auf den ersten Plätzen der Suchmaschinenergebnisseiten, kurz SERPs, zu bestimmten lukrativen Schlüsselwörtern (Keywords) ist das Ziel jeder erfolgreichen SEO-Strategie. Allerdings sollten sich die Maßnahmen, die für die Zielerreichung ergriffen werden, immer an den Google Webmaster Richtlinien orientieren. Denn vor allem unnatürliches Linkbuilding wird rigoros bestraft – im schlimmsten Falle mit einem Komplettabsturz der Sichtbarkeit. Dann hilft nur noch eine Entwertung dieser unnatürlich entstandenen Links mit dem sogenannten Google Disavow Tool, welches Teil der Google Webmaster Tools ist.

Jeder Webseitenbetreiber – und SEO-Profis sowieso – weiß, dass eine Internetpräsenz nur so erfolgreich ist, wie die Online Marketing Strategie. Dabei stehen vor allem Suchmaschinenoptimierung und Suchmaschinenwerbung im Vordergrund. Denn Traffic kommt vornehmlich über Suchmaschinen. Und der König unter den Suchmaschinen, und damit auch unter den Trafficlieferanten, ist Google.

Die Google Webmaster Richtlinien

Das bedeutet also, dass die komplette Suchmaschinenoptimierung an die Bedürfnisse von Google angepasst werden sollte. Bei Ergreifung sogenannter Black Hat SEO-Maßnahmen, also Optimierungsmaßnahmen, die gegen die Google Richtlinien verstoßen, ist Google knallhart:

  • Webseiten können im Ranking herabgestuft werden.
  • Webseiten können komplett aus dem Index entfernt werden.

Ist es soweit gekommen, dass Google die härteste aller Maßnahmen ergreift, nämlich die Entfernung aus dem Index, ist guter Rat teuer. Vor allem die Offpage-Optimierung, die sich auf den Linkaufbau konzentriert, ist dabei oft der eigentliche Grund für die Entfernung, denn: Google unterscheidet zwischen natürlichem und unnatürlichem Linkbuilding:

Natürlicher Linkaufbau

Backlinks sind natürlich entstanden, beispielsweise durch hochwertigen Content, der von anderen Webseiten verlinkt wird – Belohnung durch ein verbessertes Ranking. Es hat zwar sehr lange gedauert, dafür wird die Webseite aber auch mit steigenden Rankings belohnt.

Unnatürlicher Linkaufbau

Backlinks wurden gekauft oder auf Plattformen gesetzt, die Google bereits auf dem Schirm hat, beispielsweise Linknetzwerke oder gekaufte Links mit „hartem“ Ankertext – Bestrafung durch Herabstufung.

Das Disavow Tool richtig nutzen

Um eine manuelle Bestrafung (Nachricht in den Google Webmaster Tools) rückgängig zu machen, muss der Webseitenbetreiber nun einen sogenannten „Reconsideration Request“ stellen. Herz dieses Antrags ist dabei die Nutzung des Disavow Tools, ein Werkzeug von Google zur Linkentwertung.

Mit ein wenig Glück gab es keine manuelle Spam-Maßnahme seitens Google, sondern hat „nur“ der Algorithmus eingegriffen oder die Webseite ist von einem Filter wie dem Google Penguin betroffen. In diesem Fall ist kein Reconsideration Request nötig, aber das Linkprofil muss trotzdem aufgeräumt werden, um wieder vorne mitzuspielen.

Nun müssen also Maßnahmen ergriffen werden, die vor allem das unnatürliche Linkbuilding betreffen:

  • Webseiten-Betreiber, von denen Backlinks gekauft wurden, sollten angeschrieben und um Entfernung der Backlinks gebeten werden.
  • Backlinks, die so einfach nicht entfernt werden können, beispielsweise weil der Webmaster der jeweiligen Seite nicht erreicht werden konnte, müssen mit dem Disavow-Tool entwertet werden.

Die korrekte Nutzung des Google Disavow Tools ist dabei ganz entscheidend. Denn in der allgemeinen Panik und Hektik, die in solcher einer Situation entsteht, machen Webseiten-Betreiber oft einige Fehler, die auch auf Grund verschiedener „Mythen“, die im Internet kursieren, begangen werden:

Fehler #1: Webmaster entfernen alle gekauften Links.

Nicht immer ist eine Entfernung nötig, denn verboten sind erkaufte Links beispielsweise nur, wenn der Link nicht mit dem Attribut „nofollow“ gekennzeichnet ist. Links ohne nofollow-Attribut wiederrum sollten geprüft, und wenn es sich lohnt und wenn das möglich ist, mit einem nofollow-Attribut ausgestattet werden, um von Google „ignoriert“ zu werden.

Fehler #2: Webmaster entfernen alle minderwertigen Links.

Minderwertige Links bringen nur wenig „Linkjuice“, weil die verlinkende Webseite selbst einen niedrigen PageRank oder nur wenig Authority besitzt. Allerdings lohnt sich auch hier eine Betrachtung der Links: Könnten manche dieser Links in Zukunft vielleicht doch an Wert gewinnen? Sind diese Links auf natürlichem Wege entstanden? Macht die verlinkende Seite einen seriösen Eindruck? Wenn ja, sollten diese nicht entfernt werden.

Fehler #3: Webmaster entfernen nur Links mit „harten“ Ankertexten.

Meist sind vor allem Links, die mit einem Keyword-Anchortext versehen sind, ein Dorn in Googles Augen. Doch bedeutet das, dass Links mit dem Marken- oder Unternehmensnamen „Okay“ sind? Leider nein. Webseitenbetreiber sollten deshalb auch Links mit markenbezogenen Ankertexten prüfen und diese entfernen lassen, wenn kein Mehrwert für die Leser der verlinken Seite besteht.

Fehler #4: Webmaster nutzen automatisierte Tools.

Es gibt ein paar Tools, die das Linkprofil einer Webseite vollautomatisch durchsuchen und bereinigen. Allerdings sind derartige Hilfsprogramme nicht komplett in der Lage zwischen „guten“ und „schlechten“ Links zu unterscheiden und machen damit mehr kaputt, als sie eigentlich helfen.

Ein gutes Beispiel ist Link Detox. Das Tool nimmt einem eine Menge Arbeit ab, keine Frage, aber die Regeln sind alles andere als vollständig oder auf jede Situation zutreffend. So kommt es ständig zu „false positives“. Nur ein absoluter Profi kann hier mit viel Geduld wirklich etwas Sinnvolles auf die Beine stellen.

Fehler #5: Webmaster sollten das Disavow Tool nicht nutzen.

Unfassbar, aber manche vermeintlichen SEO-Profis schlagen vor, das Disavow Tool nicht zu nutzen, da dies einem Schuldbekenntnis gleichkommt. Tatsächlich ist jedoch das Disavow-Tool ideal, um Links zu entfernen, die von negativ behafteten Webseiten kommen oder durch ungewollte Verlinkung entstanden sind.

Das Disavow Tool wird also nicht nur für ein Reconsideration Request genutzt, sondern auch davor oder danach. Sogar „Negative SEO“ kann damit abgewehrt werden. Wir von Evergreen Media gebrauchen es vor allem für Link Risk Management. Wird ein Link als potenziell gefährlich eingestuft, wird er sofort entwertet, noch bevor es zu negativen Auswirkungen kommt.

Google ist ein wichtiger Partner für den Online-Erfolg. Webseiten-Betreiber sollten also immer nur solche Maßnahmen, zur On- und Offpage-Optimierung ergreifen, die Google „erlaubt“ – dann wird auch die (korrekte) Nutzung des Disavow Tools und der Stress, der durch eine Google Abstrafung entsteht, gar nicht erst zum Thema werden. Wenn es allerdings zu einer Abstrafung kommt, hilft die Kenntnis über häufig begangene Fehler bei der Nutzung des Disavow Tools dabei, einen erfolgreichen Reconsideration Request zu stellen oder einer algorythmischen Penalty zu entkommen.

Titelbild © Robert Hainer – stock.adobe.com

Linkaufbau neue Domain

SEO für eine neue Domain: Ohne diese veralteten Praktiken

Viele Besucher und damit hoffentlich einhergehende Conversions machen den Erfolg einer Webseite aus. Vor allem am Anfang kommt dieser Traffic vornehmlich über Suchmaschinen zustande, da Ihre Marke vermutlich noch unbekannt ist. Für neue Domains gilt es deshalb, dass das Maximum aus Google und Co. herauszuholen. Und dazu benötigen Sie eine durchdachte SEO-Strategie, die vor allem auf natürliches Linkbuilding setzt. Um diese Grundsatzdiskussion zwischen natürlichem und unnatürlichem Linkbuilding ein wenig praktischer zu gestalten, haben wir Ihnen vier Praktiken zusammengestellt, die in der Vergangenheit gut funktionierten, heute allerdings mehr als überholt sind – lassen Sie also lieber die Finger davon.

Die Onpage-Optimierung einer Webseite ist relativ leicht umgesetzt, da Sie alle Maßnahmen direkt auf Ihrer eigenen Seite stattfinden. Offpage-Optimierung wiederrum ist sehr viel aufwendiger, da es hier, um Verlinkungen geht – und zwar Links, die von anderen Webseiten auf Ihre Internetpräsenz linken. Warum andere Webseiten das tun sollten?

  • Präsentieren Sie hochwertigen Content.
  • Schaffen Sie Anreize, damit eine Verlinkung sich lohnt.
  • Bieten Sie Kooperationen an.

Es gibt viele Wege, die zum Ziel führen. Und dann gibt es noch Wege, die SCHEINBAR zum Ziel führen, letztendlich jedoch mehr schaden, als Sie denken. Gemeint sind dabei Verlinkungstaktiken, die von Google entweder ignoriert oder sogar rigoros bestraft werden.

Was damals funktionierte, funktioniert auch heute noch?

Als alter Hase im SEO-Geschäft ist man der Gefahr ausgesetzt zu denken, dass frühere Maßnahmen auch heute noch den erhofften Erfolg bringen. Tatsächlich ist es aber so, dass viele dieser Taktiken nicht mehr zeitgemäß sind, denn:

  • Der Google-Algorithmus „lernt dazu“.
  • Insbesondere das Linkbuilding unterliegt heute strengen Auflagen, die in den Google Webmaster Richtlinien definiert sind.
  • Abstrafungen oder Verbannung aus dem Index passieren sehr viel schneller als früher.

Jeder SEO-Profi kennt die Google Webmaster Richtlinien und weiß auch, dass der Google Algorithmus durch Updates ständig verbessert wird. Ein paar der Kriterien, die dazu führen, dass eine Webseite besser gerankt wird, sind bekannt. Andere wiederrum hütet Google wie seinen Augapfel.

Das A und O der Suchmaschinenoptimierung ist jedoch nach wie vor das Linkbuilding. Um genau zu sein: Natürliches Linkbuilding, denn nur diese Form des Linkaufbaus bringt langfristig gute Rankings und verhilft der neuen Webseite zum Erfolg. Damit Sie mit Ihrer neuen Webseite direkt durchstarten können, verraten wir Ihnen, welche Praktiken Sie auf keinen Fall nutzen sollten.

Meiden Sie diese SEO-Praktiken!

Platzhalterseiten

Platzhalterseiten nach dem Motto „Hier entsteht unserer Webseite“ waren früher eine gern genutzte Maßnahme, um der neuen Domain einen „Altersbonus“ zu verschaffen. Denn das Alter einer Domain spielte für deren Relevanz eine große Rolle. Allerdings ist das heute nicht mehr der Fall. Heute empfiehlt Google neuen Webseiten folgende Strategie:

  • Erstellen Sie eine neue Webseite.
  • Basteln Sie im Hintergrund daran.
  • Erstellen Sie eine Platzhalterseite.
  • NEU: Füllen Sie diese Platzhalterseite mit Inhalten – das ist der große Unterschied zu früher. Ein bis zwei Absätze mit hochwertigem themenrelevantem Content signalisiert Google, dass Ihre Webseite nicht nur ein Platzhalter ist. Sobald Ihre Webseite komplett online geht, ist Ihre Webseite quasi vorab bewertet und steigt damit in den Suchmaschinenergebnissen sehr viel höher ein.

Webkataloge

Webkataloge sind Linksammlungen zu interessanten Webseiten – zumindest war das der eigentliche Zweck der Webkataloge. Mittlerweile gibt es nur noch wenige gepflegte Webkataloge, was zur Folge hat, dass Google diesen Links so gut wie keine Aufmerksamkeit mehr schenkt.

Noch schlimmer wird es, wenn Google solch einen Webkatalog aufgrund von Linkspamming abstraft, denn dann ist auch Ihre Webseite davon betroffen. Mit Glück wird der Link nur entwertet. Mit Pech ist der Link giftig und schadet Ihren Rankings.

Trotzdem es gibt auch heute noch einige qualitativ hochwertige Webkataloge bei denen sich eine Eintragung lohnt, aber potenzielle Kandidaten sollten sorgfältig ausgewählt werden. Beispiele finden Sie in unserem Beitrag „10 Webkataloge aus Österreich und Deutschland ohne Backlinkpflicht„.

Money-Keyword-Ankertexte

Insbesondere seit dem Google Penguin Update ist klar: Eine „Überoptimierung“ zu bestimmten so genannten „Money-Keywords“ oder sogar Linkspamming wird rigoros abgestraft. Wer mit einer Herabstufung um 50 Plätze davon kommt, ist dabei noch gut bedient.

Ganz schlecht sieht es jedoch bei einer Entfernung der Webseite aus dem Google Index aus (passiert eigentlich nie durch Spam-Links). Dann hilft nur noch ein Entwerten und Entfernen der Links in Kombination mit einem sogenannten Reconsideration Request, um wieder in den Index aufgenommen zu werden – und das kann dauern.

Duplicate Content

Die Aussage, dass Duplicate Content (also doppelte Inhalte) schlecht für das Ranking ist, ist nicht neu. Aber die Bedeutung ist dafür heutzutage um so wichtiger, denn auch hier spielen vergangene Updates (Google Panda) eine große Rolle. Google sagt es ja auch selbst: Nur guter Content, also Content, der den Usern gefällt und von dem positive User-Signale ausgehen, hilft dem Ranking einer Webseite.

Ist dieser Content nicht unique, werden vermutlich auch die positiven User-Signale ausbleiben. Vor allem bei Produktbeschreibungen für einen Online-Shop ist die Einhaltung dieser Regel schwer. Versuchen Sie trotzdem zumindest ein wenig anders zu sein, als andere Shops. Falls Sie viele einzigartige Produktbeschreibungen brauchen, setzen Sie auf Crowdsourcing-Anbieter wie Clickworker.

Eine neue Webseite ist nie sofort auf Platz 1 der Google-Suchergebnisse. SEO ist eher eine langfristig ausgelegte Maßnahme, dessen Erfolge sich nach und nach einstellen. „Man kann nicht heute Apfelbäume pflanzen und schon im nächsten Jahr die Früchte ernten.“ – Berthold Beitz. Wichtig ist deshalb, Maßnahmen zu ergreifen, die natürliches Linkbuilding vorantreiben, und Maßnahmen, die veraltete sind, auszusparen. Nur so ist maximale Effektivität gewährleistet.

Titelbild © auremar – stock.adobe.com

Google Updates Algorithmus

Google und Ninjas: Wie Google Updates & Algorithmus verschleiert

Google ist der Platzhirsch auf dem Suchmaschinenmarkt – und das bedeutet, dass die Funktionsweise beziehungsweise der Algorithmus der Suchmaschine, der entscheidet, welche Webseiten auf welcher Position zu bestimmten Sucheingaben (Keywords) erscheint, eines der größten Geheimnisse dieser Erde ist. Wer weiß, wie der Algorithmus funktioniert, hat für immer ausgesorgt. Damit das jedoch nicht passiert und Webseitenbetreiber ihre Internetpräsenzen und den Content laufend optimieren, tut Google alles dafür, dass sowohl der Algorithmus als auch Updates bzw. Filter wie Penguin und Panda, die die Kriterien weiter verfeinern, nicht ans Tageslicht kommen.

Suchmaschinenoptimierung ist der beste Weg, um das Ranking der eigenen Website zu verbessern. Dazu gehören verschiedene Maßnahmen und Techniken, die grundsätzlich in zwei Bereiche aufgeteilt sind:

  • OnPage-Optimierung: alle Maßnahmen, die die Struktur und den Content der Webseite selbst betreffen.
  • OffPage-Optimierung: alle Maßnahmen, die abseits der Webseite stattfinden und hauptsächlich das Linkbuilding meinen.

Mit der Zeit konnten SEO-Profis einige Kriterien identifizieren, die für das Ranking der Webseite relevant sind. Allerdings geht Google immer wieder dagegen an und verändert beziehungsweise optimiert den Algorithmus durch Updates.

Diese umfassen dann eine Veränderung der Gewichtung einzelner Kriterien oder schmeißt den bisherigen Algorithmus und die Bedeutung bisheriger SEO-Kriterien komplett über den Haufen. Das hat dann zur Folge, dass die Strategie komplett umstrukturiert werden muss.

Wie genau funktioniert der Google Algorithmus?

Die Frage nach der genauen Funktionsweise des Google Algorithmus ist genauso schwer zu beantworten, wie die Frage nach dem Sinn des Lebens. Es ist einfach unmöglich, die genaue Funktionsweise zu identifizieren, auch wenn einige Kriterien, wie beispielsweise die Wichtigkeit des Linkaufbaus, bestens bekannt sind. Außerdem Google ist ein Meister in der Disziplin der Verschleierung und nutzt verschiedene Verwirrungstechniken, um das Geheimnis des Algorithmus zu schützen:

Du weißt nie, was kommt

Google kündigt Updates an, gibt ihnen aber keinen Namen – und verschleiert damit Sinn, Zweck und Wichtigkeit des Updates. So hatte das Penguin Update, eines der gefürchtetsten Updates (mit Panda zusammen) aller Zeiten, erst überhaupt keinen Namen.

Angriff an mehreren Fronten

Innerhalb eines Updates ändert Google meist mehrere Faktoren, die sowohl Onpage- als auch Offpage-Optimierung betreffen. Was genau geändert wurde und wie die Änderungen im Ranking zustandekommen, ist dann nur noch schwer zu sagen.

Google überrollt dich mit seiner Kraft

Mehrere Updates innerhalb einer Woche, die sich dann auch noch überschneiden, machen jede Nachvollziehbarkeit zunichte – was gerade passiert, kann selbst ein Experte nicht mehr erkennen.

Updates nach Feierabend

Viele Updates erfolgen dann, wenn der Standard-Arbeitstag oder die –Woche vorüber ist – Änderungen sind dann nur noch schwer abzufangen, da sie bereits über das Wochenende „gewirkt“ haben.

Fürchte dich vor Google

Wie aus dem Nichts veröffentlicht Google Warnungen, um Verwirrung zu stiften.

Google verteilt News nur häppchenweise und über verschiedene Channels

Das, was Google preisgibt, wird über verschiedene Webseiten und Portale verteilt. Und jede Quelle bekommt nur einen Teil der Infos, sodass letztendlich niemand mehr weiß, was wirklich stimmt – Verwirrung par excellence.

Maßnahmen wirken nur zeitverzögert

Alles was der SEO-Profi und Webseitenbetreiber optimiert, hat keinen sofortigen Effekt. Erst nach Tagen, Wochen oder Monaten ist eine Änderung sichtbar – doch auf welche der bisherigen Maßnahmen diese Verbesserung oder Verschlechterung begründet ist, ist schwer bis gar nicht nachzuvollziehen.

Google hat also zahlreiche Taktiken entwickelt, um die Manipulation der Suchergebnisse zu erschweren. Als Grund nennt die Suchmaschine ihr Bestreben, nur die besten Webseiten möglichst weit oben zu ranken und so die Suchmaschinenergebnisse zu optimieren.

Google ist wie ein Ninja: Niemand weiß, wann das nächste Update kommt, was es tut und wie darauf am besten reagiert werden kann. Selbst in der Zeit dazwischen ist niemand sicher, denn Optimierungsmaßnahmen wirken erst mit der Zeit – und so kann wieder viel schief gehen. Ein guter Weg ist deshalb immer eine langfristig geplante SEO-Taktik, die grundsätzlich auf bekannte Maßnahmen / Best Practices setzt und sich mit der Zeit weiterentwickelt.

Titelbild © mh-werbedesign – stock.adobe.com

erste Ankertext zählt

Nur der erste Ankertext zählt: Geheimnisse rund um Links und Nofollow

Das Setzen von Links ist ein ganz entscheidender Teil der SEO-Strategie – das gilt sowohl für interne Verlinkung als auch das externe Linkbuilding. Sie werten Webseiten und deren Unterseiten im Suchmaschinenranking auf und platzieren sie im Bezug auf bestimmte Keywords in den Ergebnissen weiter vorne. Je relevanter und stärker die Webseite ist desto höher ist der Einfluss auf das Ranking. In diesem Zusammenhang spielt natürlich auch die Ankertext-Optimierung eine Rolle. Auch wenn SEO-Profis sich nicht immer darüber einig sind, wie genau Ankertexte von Google ausgewertet werden…

Jeder Hyperlink, der auf eine bestimmte Webseite verweist, wird mit einem Ankertext versehen. Soll beispielsweise auf https://www.evergreenmedia.at verwiesen werden, könnte der Ankertext „Evergreen Media“ sein. Das Ergebnis dieses Links und Ankertexts: Evergreen Media. Google tut nun Folgendes:

  • Der Ankertext wird ausgelesen.
  • Die Webseite wird ausgelesen.
  • Die Relevanz der Webseite Evergreen Media bezüglich des Keywords Evergreen Media wird als hoch gewertet, da der Ankertext ideal passt.

Dies ist natürlich ein sehr vereinfachtes Beispiel – die grundsätzliche Funktionsweise ist jedoch klar. Nun stellt sich aber folgende Frage: Wie werden mehrere Links mit verschiedenen Ankertexten auf derselben Webseite gewertet?

Welcher Ankertext zählt bei mehreren Verlinkungen?

Beim Linkaufbau könnte man natürlich versuchen mehrere Backlinks mit zum Thema passenden Backlinks von einer Seite zu bekommen, um das eigene Ranking zu verbessern. Ein Beispiel dazu:

Webseite A verlinkt Webseite B drei Mal.

  • Ankertext 1 = Kleidung
  • Ankertext 2 = Oberteile
  • Ankertext 3 = T-Shirts

Es wird immer auf dieselbe URL verlinkt.

Nun könnte der Webseitenbetreiber B annehmen, dass sich das Ranking für alle drei Keywords verbessert. Doch das ist nicht richtig, denn: Google wertet nur den ersten Ankertext, in diesem Fall also Kleidung. Oberteile und T-Shirts werden nicht berücksichtigt.

Nun könnte man es einfach dabei belassen, allerdings ist das gerade dann schade, wenn die anderen Ankertexte, ideal zur Webseite passen, um so das Ranking zu verbessern. Die Lösung heißt: Ankerlinks beziehungsweise Sprungmarken.

Wer Sprungmarken richtig gebraucht, bekommt von Google in den Suchergebnisse zusätzliche Links zu den jeweils passenden Textabschnitten. Es gibt jedoch einen noch viel interessanteren Vorteil…

Mit Sprungmarken berücksichtigt Google alle Ankertexte

Eine Sprungmarke ist eine Markierung innerhalb einer Webseite, die einen neuen Themenabschnitt bezeichnet. Für oben erwähntes Beispiel könnte dies beispielsweise die Sprungmarke „Oberteile“ sein. Der Link, der mit dem Ankertext Oberteile verbunden ist, weißt nun immer noch auf Webseite B, allerdings mit der Sprungmarke Oberteile. Der HTML-Code für die beiden Links könnte dann beispielsweise so aussehen:


Link 1: Kleidung
Link 2 mit Sprungmarke: Oberteile

Der Link „Oberteile“ bleibt so nicht mehr unberücksichtigt und gibt den Ankertext Oberteile weiter. Dass dies funktioniert, lässt sich zum einen ganz einfach testen und zum anderen ist es einfach logisch, denn: Google bewertet Links nach Relevanz. Und da es hier einen Abschnitt beziehungsweise sogar eine Sprungmarke gibt, ist ein Link mit entsprechendem Ankertext relevant für die Suchergebnisse zu diesem Keyword.

Ist rel=“nofollow“ auch eine Lösung?

Falls der erste auftauchende Link zwar als Link bestehen, aber nicht von Google gewertet werden soll, könnte natürlich einfach das nofollow-Attribut angewandt werden, oder? So einfach ist es leider nicht, denn der Google Algorithmus arbeitet nach einer bestimmten Reihenfolge:

  1. Erst werden alle doppelten Links entfernt.
  2. Dann wird das nofollow Attribut angewandt.

Das würde bedeuten, dass Link 2 und 3 „ausgeblendet“ werden und nur Link 1 in Betracht gezogen wird. Da dieser Link aber nun mit dem nofollow-Attribut ausgezeichnet wurde, bedeutet das: Es wird kein einziger Link gewertet. Das nofollow-Attribut ist also keine Lösung. nofollow ist wie ein schwarzes Loch für Link Juice und sollte daher NICHT für PageRank-Sculpting eingesetzt werden.

Eine mehrfache Verlinkung ist also eine relativ komplizierte Angelegenheit, mit Sprungmarken jedoch wunderbar zu lösen. Da diese Art der Verlinkung eine sehr hohe Themenrelevanz ermöglicht, ist dies wohl auch im Hinblick auf den Suchmaschinenriesen Google die beste Lösung, wenn mehrere Links von einer Webseite zur nächsten platziert werden sollen.

Titelbild © olly – stock.adobe.com

Verzögerungen Ranking

Ranking Verzögerungen: Wie reagiert Google auf SEO-Maßnahmen?

Eine gut durchdachte SEO-Strategie befasst sich mit allen möglichen Maßnahmen, die die Webseite auf den Seiten der Suchergebnisse, kurz „SERPs“ (engl. für Search Engine Result Pages), möglichst weit nach oben, idealerweise auf Platz 1 bringen. Doch manchmal ist es schwer zu erkennen, welche Maßnahmen auch wirklich den gewünschten Effekt bringen, denn Filter und Verzögerungen machen eine Nachvollziehbarkeit nahezu unmöglich. Ist das wirklich so?

Suchmaschinenoptimierung ist eine Kombination aus Onpage- und Offpage-Optimierungsmaßnahmen. Keyword-Recherche und die darauf abgestimmte Optimierung der Webseiten-Texte und Meta-Tags, Linkaufbau und viele weitere Möglichkeiten helfen das Google Ranking der Webseiten zu verbessern.

Mit der richtigen Strategie kann die Webseite so vom grauen Einheitsbrei auf den hinteren SERPs ganz nach vorne wandern. Doch welche Maßnahmen sind wirklich erfolgreich? Diese Frage ist schwer zu beantworten, denn die SERPs scheinen sehr verzögert auf Veränderungen des Linkprofils und der Webseite zu reagieren – zumindest lassen einige Beobachtungen darauf schließen.

Wir sollten Top 20 ranken. Was ist da los?

Das Verzögerungsphänomen scheint immer gleich abzulaufen. Um dies ein wenig anschaulicher zu erklären, nutzen wir ein Beispiel mit folgenden Rahmendaten:

  • Es soll eine Rankingverbesserung eines Blogartikels erfolgen.
  • Der Artikel wird auf bestimmte Keywords optimiert.
  • Weitere SEO-Maßnahmen, beispielsweise Backlink-Platzierungen, werden nicht ergriffen.
  • Die SERPs der Suchmaschine Google dienen als Erfolgsmessung.

Im Vorfeld wird das Keyword selbstverständlich hinsichtlich Suchvolumen und Konkurrenz analysiert, um den potenziellen Erfolg zu bewerten. Unsere Annahme: Die Seite sollte innerhalb kürzester Zeit zumindest auf der zweiten Seite der SERPs erscheinen, da die Konkurrenz sehr gering ist. Doch auch, wenn die Webseite bereits indexiert ist, wird keine Top 100-Platzierung erreicht. Nun folgt das eigentliche Phänomen:

Trotz der Tatsache, dass keine weiteren Maßnahmen ergriffen werden, wandert der Artikel nach rund 2 Wochen „automatisch“ in die Top 100. Weitere zwei Wochen später ist der Artikel bereits in den angestrebten Top 20 – und noch etwas später sogar in den Top 10. Doch, was ist hier passiert? Warum wandert der Artikel stetig nach oben, obwohl keine weiteren Maßnahmen getroffen wurden? Braucht Google mehr Zeit um die Relevanz zu bewerten?

Für Kunden ist diese Ungewissheit schwierig, weshalb es als SEO-Consultant wichtig ist die Erwartungen an die SEO realistisch darzustellen.

Verzögerungen in den SERPs: Die möglichen Ursachen

Grundsätzlich lässt sich eine verzögerte Wirkung in den SERPs für alle Arten von Keywords beobachten, das heißt für

  • Nischen-Keywords: Suchbegriffe mit wenig Konkurrenz und mittlerem Trafficpotenzial
  • Money-Keywords: Suchbegriffe mit großer Konkurrenz und hohem Trafficpotenzial

Die Frage nach den Ursachen und Gründen interessiert nun natürlich jeden Webseitenbetreiber und SEO-Anfänger bis –Profi. Denn diese mögliche Verzögerung macht es schwer, SEO-Maßnahmen zeitnah zu bewerten, da deren Auswirkungen erst verzögert eintreten.

Die Ursachen dafür könnten unterschiedlich sein. Am ehesten scheinen wohl diese zwei möglichen Ursachen dafür verantwortlich zu sein:

  1. Google bremst neue Seiten und Änderungen an existierenden Seiten grundsätzlich aus.
  2. Der Google Algorithmus benötigt eine gewisse Zeit, um Änderungen an der Relevanz auszuwerten und diese Veränderungen in den SERPS zu berücksichtigen.

Oft wird auch vermutet, dass es sich bei den SERPS um eine Momentaufnahme handelt und diese nur bei Updates aktualisiert werden. Da der Google Algorithmus allerdings dynamisch ist, scheint dies nicht wirklich realistisch.

Eine zusätzliche wichtige Information: Das „Verzögerungsphänomen“ tritt erst seit einiger Zeit auf und betrifft in manchen Fällen auch die Indexierung neuer Seiten. Das, was vorher in wenigen Sekunden erfolgte, braucht oft ein paar Tage.

Auf Verzögerungen reagieren: Die richtigen Schritte & Mindsets

Die Riege der Suchmaschinenoptimierer scheint diese Beobachtungen zu bestätigen, doch Ausnahmen bestätigen wie immer Regel, weshalb auch nicht mit einhundertprozentiger Sicherheit bestätigt werden kann, dass immer und bei jedem Keyword und Inhalt eine Verzögerung auftritt. Doch um zumindest darauf vorbereitet zu sein, sollten SEO-Maßnahmen noch langfristiger als zuvor ausgelegt werden:

  • SEO-Maßnahmen benötigen Zeit um sich „zu entfalten“, Geduld ist ein wichtiger Erfolgsfaktor.
  • Es kann durchaus sein, dass Änderungen erst einmal einen Absturz in den SERPS bedeuten – nur um sich dann wieder zu erholen und besser zu ranken.
  • Zusätzlicher Linkaufbau kann zu weiteren Schwankungen führen – für die Verbesserung des Rankings ist er dennoch unabdingbar.
  • Maßnahmen sollten alle ein bis zwei Wochen untersucht werden, um die Verzögerungen ausreichend zu berücksichtigen.
  • Verschiedene Maßnahmen sollten (wenn möglich) zeitverzögert durchgeführt werden, um den Erfolg möglichst spezifisch zurückführen und bewerten zu können.
  • Clevere Suchmaschinenoptimierer führen ein detailiertes Logbuch zu jeder URL, um alles wirklich nachzuvollziehen können

Natürlich machen derartige Verzögerungen die Bewertung der SEO-Maßnahmen schwer, da der Zusammenhang scheinbar fehlt. Doch die Kenntnis darüber, dass es Verzögerungen geben kann, bedeutet, bereits einen wichtigen Schritt in die richtige Richtung – und damit wieder zu erfolgreichen SEO-Maßnahmen.

Titelbild © Adam Gregor – stock.adobe.com