menu x
menu x

Whitepaper Suchmaschinenoptimierung

SEO Optimierung – Tipps für ein besseres Google-Ranking

Dieses White Paper behandelt in Grundzügen das Thema Suchmaschinenoptimierung aus Sicht der AnalyticaA. Beginnend mit einer Einführung in die Grundlagen der OnPage- und OffPage-Optimierung werden bei Punkt 2 die wichtigsten Änderungen des Google-Ranking-Algorithmus in den letzten Jahren vorgestellt. Diskutiert wird unter anderem der mögliche Einfluss von User-Signalen, zum Beispiel der Click-Through-Rate (CTR) und des Pogo Stickings, auf das Google Ranking. Auch die Funktionsweise von Googles Künstlicher Intelligenz, RankBrain, wird erläutert. Da Backlinks – laut Google – nach wie vor ein wichtiger Rankingfaktor sind, ist der dritte Punkt dem Thema Linkbuilding gewidmet. Unter anderem werden hier einige zentrale Linkbuilding Strategien der AnalyticaA erläutert. Der nächste Punkt behandelt die 10 wichtigsten OnPage-Aspekte bei der konkreten Optimierung von Websites. Anschließend beantworten wir 5 Fragen, die häufig im Zusammenhang mit einer SEO -Optimierung aufkommen. Den Abschluss bilden Ausschnitte aus echten OnPage-Analysen von AnalyticaA Kunden, die aufzeigen, wie theoretisches Wissen über Suchmaschinenoptimierung in der Praxis Anwendung finden kann.

 

Grundlagen OnPage-/ OffPage-SEO

Im Prinzip ist das Schlagwort „SEO Optimierung“ redundant, denn SEO steht bereits für „Search Engine Optimization“, auf Deutsch Suchmaschinenoptimierung. Mit SEO wird die Gesamtheit aller Maßnahmen bezeichnet, die das Ziel haben, eine Webseite in den organischen Ergebnissen von Suchmaschinen höher erscheinen zu lassen. Von den organischen Suchergebnissen kann die Suchmaschinenwerbung (kurz: SEA – Search Engine Advertising) unterschieden werden, die zum Beispiel bei Google über AdWords gesteuert wird.

Grundsätzlich kann in SEO zwischen OnPage und OffPage Optimierung unterschieden werden. OnPage Maßnahmen finden auf der Website statt, während OffPage SEO alle Maßnahmen umfasst, die sich abseits der eigenen Website abspielen. Prominentestes Beispiel für OffPage SEO ist das Linkbuilding – auch wenn Backlinks heutzutage nur noch eine relative Einflussgröße sind. Google hat inzwischen seine Algorithmen mit zahlreichen Filtern gegen Linkspam ausgestattet, nach wie vor sind jedoch Anzahl und Qualität der Backlinks einer Seite mitentscheidend, ob diese rankt oder nicht.

Bekanntestes Aushängeschild der Bedeutung von Backlinks für die Google Suchmaschinenoptimierung war in der Vergangenheit der PageRank, benannt nach dem Google Gründer Larry Page. Dieser hatte zusammen mit seinem Partner die geniale Idee, einzelne Dokumente anhand der Gesamtstruktur des World Wide Web zu bewerten, was in der Praxis bedeutet, anhand ihrer Verlinkung durch andere Dokumente. Die PageRank Toolbar wurde inzwischen eingestellt, der PageRank einer Seite wird jedoch nach wie vor von Google intern berechnet.

Im OnPage Bereich kann grob zwischen Content und Technik unterschieden werden. Suchmaschinenoptimierter Content unterscheidet sich im klassischen SEO von gewöhnlichen Inhalten vor allem durch eins: der richtigen Verwendung der richtigen Keywords. Keywords (Schlüsselbegriffe) sind im Prinzip die Wörter, mit denen ein Benutzer bei Google & Co. nach einem Produkt oder nach einer Information sucht. Keywords sind bis heute in der Suchmaschinenoptimierung nicht zuletzt deswegen von so großer Bedeutung, weil die herkömmliche Suchmaschine mittels eines Keyword Analyser den Content eines Dokuments prüft und dann quasi entscheidet, ob die jeweilige Seite für eine bestimmte Suchanfrage relevant ist.

Hier ein YouTube-Video zum Thema „Funktionsweise von Suchmaschinen“. Matt Cutts, der ehemalige Chef des Google Web Spam-Teams, der in der Vergangenheit so etwas wie die Rolle des inoffiziellen Google Sprechers in Sachen SEO innehatte, erklärt in diesem Video die Funktionsweise von Google & Co. in ihren Grundzügen:

Keywords können auch aus mehreren Begriffen bestehen, in diesem Fall spricht man im SEO von Longtail Keywords. Die Bedeutung von Longtail Keywords wächst kontinuierlich. Unter anderem, weil bei vielen allgemeinen Keywords / Suchbegriffen der Wettbewerb inzwischen sehr hoch ist. Wie das Sprichwort sagt, kann Kleinvieh auch Mist machen, und dem entsprechend ein Haufen Kleinvieh auch einen Haufen Mist, was in jedem Fall besser ist, als von vornherein auf praktisch aussichtslose Keywords zu setzen. Hinzu kommt, dass die Spracheingabe bei Smartphones immer populärer wird und bei dieser häufig ganze Sätze, also im Prinzip Longtail Keywords, verwendet werden.

Google bildet zudem zunehmend auch sogenannte Keyword-Cluster, also Begriffsfelder, und berücksichtigt dabei sowohl logische als erfahrungsbasierte Beziehungen zwischen den unterschiedlichen Begriffen in seinem Ranking-Algorithmus (Stichwort RankBrain). Um für ein solches Keyword-Cluster zu ranken, muss die Seite allerdings überhaupt erst einmal ranken und das funktioniert im OnPage-Bereich nach wie vor am besten über einen sogenannten Keyword Fokus.

Grundsätzlich ist die oben getroffene Unterscheidung zwischen Content und Technik nicht zuletzt deswegen etwas unscharf, weil es als Drittes noch eine Anzahl von HTML-Elementen gibt, die Inhalte in bestimmter Weise auszeichnen und damit sowohl für Browser als auch für Suchmaschinen interpretierbar machen.

Zu diesen HTML Elementen zählen zum Beispiel der Title-Tag, der Description-Tag, die <H>-Tags (Überschriften) und die ALT-Tags bei Bildern. Einen Keyword Fokus zu erzeugen, bedeutet nun, den wichtigsten Suchbegriff einer Seite u. a. im Title-Tag, in der Meta-Description, in den Überschriften, aber auch im Text-Content einer Seite so unterzubringen, dass diese in Bezug auf das gewählte Keyword eine klare und für Suchmaschinen unmissverständliche Ausrichtung besitzt.

OnPageTV: Keyword Fokus

Auch im modernen SEO ist gegen eine klare Seitenaussage nichts einzuwenden, zu den oben genannten HTML-Tags sind in den letzten Jahren sogar noch weitere Elemente zur suchmaschinenfreundlichen Strukturierung des Contents hinzugekommen, die sogenannten „Strukturierten Daten“. Strukturierte Daten – Nomen est Omen – sind strukturierte Inhalte in tabellarischer Form und stellen Content in einer durch Browser, Crawler und Suchmaschinen interpretierbaren Art und Weise bereit.

Die bekanntesten Markups sind hier Mikroformate, Mikrodaten und RDFa, wobei Google inzwischen RDFa empfiehlt. In der Praxis der Suchmaschinenoptimierung ermöglichen strukturierte Daten vor allem das Ausspielen von Bewertungen, Bildern, Produktinformationen, Preisen, Events und Terminen in der Suchergebnisliste. Strukturierte Daten erweitern in der Regel das sogenannte Seiten-Snippet, was immer aus Seitentitel, Seitenbeschreibung (wenn gesetzt, häufig der Inhalt des Description-Tags) und URL besteht. Daher spricht man in diesem Zusammenhang auch von „Rich Snippets“.

Screenshot Rich Snippets

Generell ist technisches SEO ein wichtiger Teilaspekt der SEO Optimierung, die bei uns vor allem das Ziel hat, das Google Ranking zu verbessern. Google besitzt einen Marktanteil von knapp 92 Prozent (Stand: Februar 2018) in der deutschen Online-Suche, sodass es Sinn macht, die Optimierungen in erster Linie auf die Suchmaschine Google.de zu konzentrieren.

Technisches SEO bedeutet konkret, auf der eigenen Website die Technik so zu gestalten, dass Suchmaschinen Crawlern keine Hindernisse bei der Analyse der Website im Wege stehen und die Algorithmen sie anschließend optimal bewerten und ranken. Unter der Berücksichtigung der Serverkonfiguration, des Quellcodes und der Betriebssysteme werden im technischen SEO Themen wie Mobile Optimierung, Pagespeed, Seitenarchitektur, Sicherheit (Umstellung auf HTTPS), Verlinkung sowie Crawling und Indexierungsstatus behandelt.

Folgende Fragen können durch technisches SEO u. a. beantwortet werden:

  • Interne Verlinkung: Können Suchmaschinen anhand der internen Verlinkung ermitteln, welche Inhalte besonders wichtig sind?
  • Pagespeed Optimierung: Wie können die Ladezeiten weiter verbessert werden?
  • Mobile Optimierung: Entspricht die Mobile Optimierung den Google Standards?
  • Informationsarchitektur: Ist eine logisch stimmige und flache Seitenhierarchie vorhanden?
  • Crawling Optimierung: Besuchen die Suchmaschinen Crawler die relevantesten Seiten Ihrer Website regelmäßig?
  • Indexierungsmanagement: Wie kann eine bestmögliche Indexierung der Website ermöglicht werden (Stichwort u. a.: XML-Sitemaps)?
  • Duplicate Content: Kommen Canonical Tags und 301-Weiterleitung richtig zum Einsatz?
  • HTML-Optimierung: Werden semantische Auszeichnungen optimal verwendet?

Modernes SEO – User rückt in den Fokus

Modernes SEO unterscheidet sich von den klassischen Strategien dadurch, dass es auch auf den Nutzer zugeschnitten ist und nicht allein auf die Suchmaschine. User Experience und User Intent werden in der Suchmaschinenoptimierung immer wichtiger.

Ein Blick auf die wichtigsten Google Algorithmen Updates macht die tiefgreifenden Änderungen in der Suchmaschinenoptimierung in den letzten Jahren deutlich. Penguin (Links), Panda (Content) und Hummingbird (Content & Semantic Search) haben in der SEO-Welt große Wellen geschlagen.

Wie bereits weiter oben angesprochen, hängt der Erfolg einer Suchmaschine davon ab, ob sie ein der Intention des Nutzers entsprechendes Suchergebnis für die jeweilige Suchanfrage ausliefern kann. Vor diesem Hintergrund ist es nicht überraschend, dass auch der Reaktion des Suchenden auf den ausgespielten Treffer ein immer größerer Stellenwert in den Algorithmen eingeräumt wird.

Heutzutage ist man sich im Prinzip über die Bedeutung des Nutzerverhaltens als neues, entscheidendes Kriterium in SEO einig. Dissens herrscht nur bei der Frage, wie weit Google geht, um das Nutzerverhalten zu erfassen. An dieser Stelle sei darauf hingewiesen, dass die Äußerungen Googles zum eigenen Rankingalgorithmus sehr spärlich ausfallen, sodass er in weiten Teilen eine Blackbox darstellt, bei der die klare Funktionsweise nicht bekannt ist. Noch viel schwieriger ist es, die Interdependenzen zwischen den einzelnen Faktoren zu bewerten.

 

Unstrittig ist, dass Google alle Daten der Search auswertet, wie zum Beispiel auch das sogenannte Pogo Sticking. Von Pogo Sticking wird gesprochen, wenn der Suchende zwar eine Seite aufruft, diese aber direkt wieder verlässt und in die SERPs zurückkehrt. SERP ist die Abkürzung für “Search Engine Result Page”. Auf einer SERP werden von Suchmaschinen die Suchergebnisse in absteigender Relevanz aufgelistet.

User Signale gewinnen an Relevanz

Social Media Signals sind vermutlich auch Teil des Ranking-Algorithmus, auch wenn das von Google in der Vergangenheit häufig bestritten wurde, wahrscheinlich eingebettet in einer Art Gesamtzusammenhang der Aktivitäten rund um eine Website. Diesen Gesamtzusammenhang der Aktivitäten könnte man auch als „Buzz“ bezeichnen.

Vor nicht allzu langer Zeit herrschte um die Klickrate in den Suchergebnissen in der Suchmaschinenoptimierung ein großer Hype. Im Prinzip wird die sogenannte Click-Through-Rate (CTR) maßgeblich vom Seitentitel, der Meta-Description und eventuell vorhandenen Rich Snippets bestimmt. Hier sollen in der Vergangenheit – nach der Aussage verschiedener SEOs – auch Manipulationen möglich gewesen sein. Allerdings konnten in der Regel nur temporäre Erfolge erzielt werden. Im Gegensatz zu Links, die zumindest einen Webmaster mit einer Seite erfordern, im Fall einer gut sichtbaren Seite sogar einer erfolgreichen Seite, die einiges zu verlieren hat, war hier die Schwelle zu einer erfolgreichen Manipulation der Suchergebnisse wahrscheinlich einfach zu niedrig angesetzt.

Google bejaht zwar grundsätzlich, die CTR zur Verbesserung der „Search Quality“ zu verwenden, geht aber nicht soweit, von einem eigenständigen Rankingfaktor zu sprechen.

Wir gehen davon aus, dass die CTR im Prinzip ein nicht unwichtiger Bestandteil des Suchalgorithmus ist. Vor allem in Kombination mit der Rückkehrrate (Pogo-Sticking) ergibt sie ein valides Signal für die Relevanz eines Suchtreffers. In jedem Fall muss die jeweilige Seite erst einmal ausreichend Traffic besitzen, damit Google aussagekräftige Ergebnisse in Bezug auf die CTR erhält. Hierzu kann Google auch mit zeitlich begrenzten Testszenarien arbeiten, Seiten beispielsweise einen temporären Bonus geben, etwa beim Start der Seite, um die CTR, aber auch andere relevante User-Signale, zu ermitteln, um anschließend die Website u. a. vor diesem Hintergrund (neu) zu bewerten. Die Aussagen von Google zu dem Thema deuten auf jeden Fall auf ein solches oder ähnlich gelagertes Szenario hin.

Zusätzlich muss sich die gemessene CTR wahrscheinlich auch im groben Rahmen der von Google aus seinen bisherigen Daten ermittelten Erfahrungswerten befinden. Festzuhalten bleibt, dass sich die Datenkrake Google die gesammelten Daten über die CTR und Absprungrate zur Verbesserung der eigenen Suche mit sehr hoher Wahrscheinlichkeit nicht entgehen lässt, diese jedoch nur eingeschränkt und in sehr komplexen und zum Teil dafür eigens erzeugten Szenarien als wichtiger Bestandteil des Ranking-Algorithmus gelten können.

Click Through Rate (CTR) als Kennzahl (orangene Linie) in der Google Search Console:

Im Zusammenhang mit dem Stichwort „User Intent“ sollte auch auf Googles 2015 vollständig ausgerollte AI (Artificial Intelligence) namens RankBrain hingewiesen werden, die inzwischen der drittwichtigste Faktor im Google Algorithmus ist und bei ca. 15% der Suchanfragen greift.

RankBrain – Googles Artificial Intelligence

Grundlage des RankBrain Algorithmus ist ein von Google 2012  eingereichtes Patent mit dem Titel „Using concepts as contexts for query term substitutions”. Dieses Patent hat den ungefähren Inhalt, Konzepte („concepts“) menschlicher Sprache und eingeschränkt auch menschlichen Verhaltens einzusetzen, um aus dem Kontext (contexts) von Suchanfragen / Suchbegriffen so etwas Menschliches wie „Bedeutung“ oder „Sinn“ zu ermitteln. In der Praxis schreibt RankBrain Text dazu in mathematische Entitäten um, die in diesem Zusammenhang Vektoren genannt werden.

Der zweite wichtige Bestandteil von RankBrain ist Deep Learning. Während beim klassischen Machine Learning feste Modelle zur Identifizierung und Klassifizierung verwendet werden, entwickeln Deep Learning Algorithmen diese Modelle selbstständig weiter oder erstellen sogar neue.

RankBrain kommt vor allem bei Suchanfragen zum Einsatz, die vorher so noch nicht gestellt worden sind. Darunter befinden sich neue Begriffe, in Zeiten von Smartphones und Co. aber auch verstärkt ganze Fragesätze. Dabei greift RankBrain sowohl auf den Hummingbird Algorithmus, der bereits 2013 ausgerollt wurde und erstmals den Sinnzusammenhang von Suchanfragen für Google interpretierbar machte, als auch auf historische Daten zurück. Hummingbird beeinflusst laut Google inzwischen die Suchergebnisse von 90 Prozent aller Suchanfragen.

Google konnte mithilfe von RankBrain in kurzer Zeit tatsächlich seine Suchergebnisse verbessern. Eine der bekanntesten Verbesserungen stammt aus der US-amerikanischen Google Suche und betrifft Sicherheitslücken beim Portable Document Format, kurz PDF. Die beobachtete Suchanfrage lautete: „why are pdfs so weak“. Mit RankBrain konnte Google im Januar 2016 zweifelsfrei ermitteln, dass es sich hierbei um eine Suche rund um die Sicherheitsstandards bei Adobe PDFs handelt, und ein entsprechendes Ergebnis priorisieren. Im Juli 2015 hatte Google auf diese Suchanfrage hingegen noch die PDF-Version eines Memos des amerikanischen Think Tanks RAND Corporation als ersten Treffer ausgeliefert, das der Frage nachging, warum der Widerstand gegen die Invasion der „Koalition der Willigen“ in den Irak 2003 so schwach („so weak“) ausfiel.

Vor dem Hintergrund der technologischen Entwicklung wird es immer wichtiger, einen holistischen Ansatz in SEO zu verfolgen, der die Gesamtheit der Faktoren erfasst. Keywords bleiben relevant, jedoch gewinnen zunehmend auch Faktoren an Bedeutung, die es ermöglichen, das Ansinnen der Nutzer am besten zu befriedigen und damit gute User Signale zu generieren.

Es ist – wie oben schon erwähnt – in der Fachwelt weiterhin umstritten, wie weit Google geht, um die User Signale zu erfassen. Benutzt Google auch Datenquellen, die eigentlich nichts mit der Search zu tun haben, wie zum Beispiel Google Chrome, Analytics, Android, AMP, Google DNS Server oder Google+ Buttons?

Wir würden sagen, in einem gewissen Rahmen finden diese Daten sicher Verwendung, zum Beispiel können wir uns vorstellen, dass Google die Chrome und Android Daten auswertet. Diese Daten stellen u. a. eine gute Basis dar, um die Search grundsätzlich weiter zu verbessern. Durch sie können z. B. Faktoren auf einer Seite identifiziert werden, die im Schnitt eher positive oder negative User-Signale auslösen. Sehr unrealistisch erscheint uns hingegen das Szenario, dass z. B. die Analytics Daten in die konkrete Ranking-Berechnung einer Seite einfließen. Denn hierdurch hätten Analytics User grundsätzlich andere Startvoraussetzungen im Rennen um die besten Positionen in den Suchergebnissen, was fundamental allen Google Richtlinien und Praktiken widersprechen würde.

Wenn konkrete User-Signale in die Rankingberechnung miteinfließen, dann müssen sie zumindest vom Grundsatz her für alle Websites gleich ermittelbar sein.

Über 200 Ranking-Faktoren sind Bestandteil des Google Algorithmus. Dazu zählen die oben besprochenen User-Signale, Inhalten und Backlinks kommt allerdings nach wie vor eine größere Bedeutung im Google Ranking-Algorithmus zu. Das wurde inzwischen auch durch den “Search Quality Senior Strategist” Andrey Lipattsev von Google bestätigt. Die beiden wichtigsten Ranking-Faktoren sind laut seiner Aussage immer noch Backlinks und Content, auf Platz drei folgt – wie oben schon erwähnt- die Google AI “RankBrain”.

Linkbuilding muss immer auch Marketing bedeuten

Da Links weiterhin ein entscheidender Faktor für den Erfolg oder Misserfolg einer Website bzw. eines Online-Shops sind, halten wir Linkbuilding nach wie vor für einen notwendigen Bestandteil jeder zielführenden SEO Strategie. Auch beim Aufbau von Links setzen wir dabei auf einen ganzheitlichen Ansatz. Content Marketing und Linkbuilding gehen bei uns fließend ineinander über. So achten wir stets darauf, dass der Backlink natürlich und in einem sinnvollen Kontext gesetzt wird. Ein sinnvoller Kontext bedeutet konkret, dass der Artikel das Angebot unseres Kunden zumindest soweit bespricht, dass der Link in seinem Umfeld inhaltlich angebracht, ja quasi notwendig erscheint. Häufig handelt der Artikel auch vollständig über das jeweilige Angebot des Kunden, ohne dabei als Werbung identifizierbar zu sein. Durch diese Vorgehensweise können wir in der Regel nicht nur Links, sondern auch zusätzlichen Traffic für die Websites unserer Kunden akquirieren.

Selbstverständlich achten wir neben technischen Faktoren auch auf die thematische Nähe und Ausrichtung der gesamten Internetpräsenz, die wir für unser Linkbuilding in Betracht ziehen. Wir setzen ausschließlich auf High Quality Websites, die sowohl ausreichend Traffic als auch eine hohe Sichtbarkeit in den Google Suchergebnissen besitzen. Hierbei orientieren wir uns u. a. am Sistrix Sichtbarkeitsindex – die meisten Websites, die von uns für das Artikel-Marketing ausgesucht werden, besitzen eine Sistrix Sichtbarkeit über 1,00.

Und der Erfolg gibt unserem Ansatz Recht. Als Mitte September 2016 das  Penguin-Link-Update 4.0 von Google ausgerollt wurde, stieg die Sichtbarkeit praktisch aller der von uns im Linkbuilding betreuten Websites. Die beiden wesentlichen Neuerungen dieses Penguin Updates sind, dass es jetzt in Realtime arbeitet und “granularer” ist als bisher. Unter granularer kann man in diesem Zusammenhang verstehen, dass das Update stärker auf Einzelseitenebene greift und nicht immer die ganze Domain betroffen sein muss.

Beispiel: Sistrix Sichtbarkeit-Verlauf eines unserer Linkbuilding Kunden:

Lokales SEO

Google und andere Suchmaschinen werden immer häufiger dazu genutzt, um lokale Unternehmen zu finden. Nicht nur hat eine große Anzahl der Suchanfragen einen direkten lokalen Bezug, wie etwa die Suchanfrage „Augenarzt München“, Google versucht auch immer häufiger vor dem Hintergrund des Standortes des Nutzers, die allgemeinen Suchergebnisse mit lokalen Treffern anzureichern. Dennoch wird die Bedeutung der lokalen Suche oft unterschätzt. Dabei sucht fast die Hälfte der Internetnutzer  laut einer Google Studie aus dem Jahr 2014 nach den Adressen von Geschäften, ihren Öffnungszeiten, der lokalen Produktverfügbarkeit oder nach Wegbeschreibungen. Auch wer gerade in Shoppinglaune ist, recherchiert zuvor im Internet, bei den Desktop und Tablet Nutzern sind es laut der Studie 66%, bei den Smartphone Usern 57%. Und 50% der Smartphone-Nutzer und 34% der Computer und Tablet Nutzer besuchten im Anschluss ein Geschäft in ihrer Nähe.

Weitere wichtige Ergebnisse der Google Studie in der Übersicht:

  • 80% der Verbraucher nutzen Suchmaschinen, um sich über Lokales zu informieren
  • Durch lokale Suchanfragen werden mehr Käufe generiert als durch die nicht-lokale Suche
  • 18% der Smartphone Nutzer, die sich über ein Produkt informiert haben, kaufen innerhalb eines Tages. Bei der nicht-lokalen Online-Suche sind es nur 7%.
  • Wenn der Store in der Nähe ist; bevorzugen 30% ein lokales Geschäft gegenüber einem Online-Shop. 35% ziehen den stationären Handel vor, wenn die Produkte sofort verfügbar sind.
  • 53% recherchieren mit ihrem Smartphone, wenn sie etwas in der Werbung gesehen haben, was sie anspricht. Bei den Desktop und Tablet Nutzern sind es sogar stolze 83%.
Screenshot Google Think Local Consumer behaviour

Screenshot: google.com/think

Wer benötigt lokales SEO?

Im Prinzip jeder, der seine Waren und Dienstleistungen regional anbietet. Ob Kanzleien, Handwerker, Friseure, Fitnessstudios, Restaurants oder Niederlassungen großer Firmen. Wenn Sie also eine stationäre Geschäftsstelle haben, dann können Sie durch lokales SEO eventuell stark profitieren. AnalyticaA unterstützt Sie gerne bei Ihrer lokalen SEO-Strategie.

Was sind die wichtigsten lokalen Rankingfaktoren?

Laut einer Studie der Suchmaschinenexperten von MOZ sind u. a. folgende 8 Faktoren für das Ranking in der lokalen Suche entscheidend:

  • Google My Business (Nähe, Kategorien, Keyword im Business-Titel usw.)
  • Link Signale (verwendete Ankertexte, Domainautorität der verlinkenden Seiten, Anzahl der verlinkenden Domains usw.)
  • OnPage Signale (Vorhandensein von Name, Adresse, Telefonnummer; Keywords in den Titeln, Domainautorität usw.)
  • Externe Nennungen: Konsistenz der Geschäftsdaten bei Nennungen, Volumen der Nennungen etc..
  • Nutzer-Rezensionen (Anzahl, Bewertungsdiversität, etc.)
  • Usersignale (Klickrate, mobiles Click-to-Call, Check-in usw.)
  • Personalisierung – Nutzer-spezifische Faktoren
  • Social Media Signale (Google-Engagement, Twitter-Engagement, Facebook-Engagement)

MOZ - Local Search Ranking Factors

Google My Business

Google My Business ist ein kostenloser Service der Suchmaschine Google. Im Prinzip handelt es sich bei Google My Business um nichts Anderes als um ein digitales Branchenbuch, dessen Einträge von Google auf verschiedene Weise für die Anreicherung der Suchergebnisse genutzt werden. Jeder, der eine konkrete Geschäftsstelle und ein Google Konto besitzt, kann sich hier eintragen – auch Freiberufler. Einträge in Google My Business erscheinen dabei sowohl auf Google Maps als auch in den organischen Suchergebnissen von Google. Folgendes sollten Sie bei einem Eintrag in Google My Business auf jeden Fall beachten:

  • Name, Adresse und Telefonnummer sollten in Google My Business und auf der eignen Website identisch sein.
  • Aus den von Google vorgeschlagenen Kategorien sollten unbedingt die passenden gewählt werden. Es ist zu empfehlen, genau zur prüfen, welche Kategorien relevant sein könnten, denn diese fungieren in Google My Business quasi als Keywords.
  • Es sollte nur ein Eintrag bei Google My Business vorhanden sein, alte Einträge sollten gelöscht werden.
  • Es sollten hochauflösende Bilder hochgeladen werden: Außen, Innen, Produkte, Mitarbeiter. Für die Außenansichten können auch die Google Street View Daten genutzt werden.

Gerne unterstützen wir Sie bei der Erstellung eines SEO-gerechten Google My Business Eintrag.

Die 10 wichtigsten SEO OnPage-Aspekte

Kommen wir im OnPage-Bereich von der Theorie in die Praxis. Im Folgenden haben wir die nach unserer Ansicht 10 wichtigsten SEO OnPage-Aspekte aufgelistet:Die Optimierung einzelner Seiten ist nach wie vor wichtig, aber sie muss in ein stimmiges Gesamtkonzept eingebettet sein. Neben wertvollen Inhalten gehören dazu auch ein optimiertes Design und eine gute Architektur.

  1. Die gesamte Website muss überzeugen
    Die Optimierung einzelner Seiten ist nach wie vor wichtig, aber sie muss in ein stimmiges Gesamtkonzept eingebettet sein. Neben wertvollen Inhalten gehören dazu auch ein optimiertes Design und eine gute Architektur.
  2. Title-Tag
    Das Title-Tag ist immer noch einer der wichtigsten und effektivsten Faktoren für die Optimierung einer Seite. Ein optimiertes Title-Tag erhöht die Relevanz einer Seite für bestimmte Keywords bzw. Keyword-Kombinationen (Longtail Keywords) und beeinflusst so direkt die Positionierung. Ein Seitentitel, der den gesuchten Inhalt gut zusammenfasst, wird mit höherer Wahrscheinlichkeit geklickt als ein kryptischer oder gar leerer. Durch eine höhere Klickrate kann sich das Ranking auf indirektem Weg über die User-Signale verbessern.
  3. Content
    Google schätzt grundsätzlich einzigartige, ansprechende und hochqualitative Inhalte, die dem User einen Mehrwert bieten. Dabei sollten in Texten Keywords nach wie vor Verwendung finden und im besten Fall auch weitere relevante Terme fallen, die in einem spezifischen Themenzusammenhang häufig vorzufinden sind (Stichwort: WDF*IDF). Heutzutage empfiehlt es sich, auf eine Universal Content Strategie zu setzen. Universal Content besteht neben Text auch aus Rich Media Inhalten wie Bildern, Videos oder interaktiven Schaltflächen. Themen sollten ganzheitlich behandelt werden, jede Seite sollte jedoch eine klare und eindeutige Aussage besitzen, die sich auf der gesamten Website nicht wiederholt.
  4. Mobile Optimierung
    Da die Mehrheit der Besucher von Websites inzwischen Smartphones oder Tablets nutzen, sollte man auf eine gute mobile Optimierung auf jeden Fall achten. Vor dem Hintergrund, dass die Optimierung für mobile Endgeräte entscheidend zur Verbesserung der Usability beiträgt, hat Google diese bereits vor geraumer Zeit zum Ranking-Faktor erhoben. Zukünftig will Google sich sogar primär auf den mobilen Index konzentrieren (Stichwort: Mobile First) – ohne mobile Optimierung sieht also die Zukunft düster aus.
  5. Architektur und interne Verlinkung
    Eine nutzer- und suchmaschinenfreundliche Seitenarchitektur ist für die Sichtbarkeit einer Website von zentraler Bedeutung. Die Architektur sollte logisch und hierarchisch aufgebaut sein und alle Seiten sollten mit maximal 4 Klicks erreicht werden können. Die interne Verlinkung ist ein weiterer entscheidender Faktor für den Erfolg einer Seite. Jede Seite sollte mit klaren und im besten Fall keywordoptimierten Ankertexten verlinkt werden, damit Suchmaschinen erfassen können, welchen inhaltlichen Schwerpunkt die jeweilige Seite besitzt. Für eine einzelne Seite sollte dabei grundsätzlich immer der gleiche Ankertext verwendet werden.
  6. Keyword und Themen Fokus
    Aus SEO-Sicht stellen Keywords (deutsch: Suchbegriffe, Schlüsselwörter, Schlagworte) nach wie vor sehr wichtige Elemente auf einer Seite dar. Eine Suchmaschine ermittelt mittels eines Keyword Analyser die Relevanz eines Dokuments und prüft, ob die jeweilige Seite mit der Suchanfrage übereinstimmt. Wichtige Suchbegriffe sollten im Title-Tag, in der Meta-Description, in den Überschriften und im Content untergebracht werden, damit ein Keyword Fokus entsteht.
  7. Website-Geschwindigkeit
    Ladezeiten sind als Usability-Faktor ein sehr wichtiges Thema für Google. Daher ist die Website-Geschwindigkeit bereits seit 2010 ein Google-Ranking-Faktor. Zudem haben Ladezeiten Einfluss auf die Absprungrate, die nicht nur ebenfalls ein Google-Ranking-Faktor ist, sondern deren Minimierung auch im Interesse jedes Websitebetreibers liegt.
  8. Sicherheit (SSL Verschlüsselung)
    Das Thema Sicherheit wird für Google und andere Suchmaschinen immer wichtiger. Aber auch staatliche Stellen erhöhen ihre Anforderungen an Websitebetreiber. Etwa interpretieren einige Behörden, die am 20.05.2018 in Kraft getretene Datenschutz-Grundverordnung (EU-DSGVO) so, dass mit ihrem Inkrafttreten HTTPS für alle kommerziellen Websites Pflicht ist. Inzwischen werden Shops ohne SSL Verschlüsselung von verschiedenen Browsern auch als „nicht sicher“ gekennzeichnet. Grundsätzlich ist eine Umstellung auf HTTPS jedem Websitebetreiber zu empfehlen, die Umstellung sollte jedoch professionell erfolgen, weil sonst Rankingverluste drohen.
  9. Überschriften
    Google weist dem Text bzw. den Keywords innerhalb eines Überschriften-Tags eine höhere Relevanz zu. Zudem strukturieren Überschriften im besten Fall den Seiteninhalt für User und für Suchmaschinen gleichermaßen nachvollziehbar. Die Zahl hinter dem H indiziert die absteigende Hierarchiestufe(<H1> bis <H6>) des Tags. Der <H1>-Tag sollte nur einmal pro Seite gebraucht werden und sich inhaltlich seitenweit nicht wiederholen.
  10. Meta-Description
    Im Description-Tag kann eine Seitenbeschreibung hinterlegt werden. Ist diese gutgeschrieben und beinhaltet sie das durch den Nutzer gesuchte Keyword, wird sie von den Suchmaschinen in der Regel als Zusammenfassung in den Suchergebnissen benutzt. Eine saubere und verständliche Seitenbeschreibung führt zu einer höheren Klickrate und kann über diese User-Signale auch zu besseren Rankings führen.

Häufige Fragen zum Thema SEO

In der Praxis sind wir nicht selten auch mit grundsätzlichen Fragen zum Thema SEO Optimierung konfrontiert. Sowohl SEO Anfänger als auch Fortgeschrittene kommen oft auf uns zu, weil sie wissen wollen, was sich hinter gewissen Technologien, Begriffen und Verfahren verbirgt und wie Sie Ihr SEO weiter verbessern und aktuell halten können. Im Folgenden beantworten wir daher 5 der Fragen, die uns in der letzten Zeit häufig gestellt wurden.

Was ist holistischer Content und kann ich damit das Google Ranking verbessern?

Holistisch bedeutet so viel wie „das Ganze betreffend“, mit holistischem Content sind also ganzheitliche Inhalte gemeint. Seit einigen Jahren ist in SEO viel von ganzheitlichem bzw. holistischem Content die Rede. Holistischer Content bedeutet im Zusammenhang mit einer SEO Optimierung, dass ein Text nicht nur ein Keyword abhandelt, sondern das komplette Themengebiet, in dem das Keyword seinen Ursprung hat.

Die Frage, inwieweit möglichst ausführliche Texte zu einem Thema zielführend sind, um u. a. das Google Ranking zu verbessern, ist in der SEO-Welt umstritten. Fakt ist, dass die Wortanzahl bei den bestplatzierten Landingpages seit Jahren kontinuierlich steigt. Und meistens ranken diese Seiten für unterschiedliche Suchbegriffe zum selben Thema gut. Dabei ist allerdings die Wortanzahl bei den Top-Seiten in der mobilen Suche etwas geringer.

Wortanzahl auf Top-Positionen gerankten Landingpages – Quelle: Searchmetrics Ranking-Faktoren-Studie 2016.

Holistischer Content Wortanzahl Searchmetrics Studie

Es ist allerdings auch durch verschiedene Studien bewiesen, dass die Aufmerksamkeitsspanne des normalen Internetusers bzw. Online-Shop-Besuchers vergleichsweise gering ist. Wie verbindet man also den Suchmaschinen-Trend hin zu längeren Texten mit der fehlenden Geduld der User? Am besten indem man auch längere Texte durch Überschriften, Bulletpoints, Hervorhebungen, Links eventuell auch Grafiken und Videos, snackable, also leicht konsumierbar macht. Überschriften lassen zudem – wie bereits erwähnt – auch Suchmaschinen Inhalte besser verstehen und einordnen.

Wie die jüngste Searchmetrics Rankingfaktoren-Studie für den Bereich eCommerce ergab, ist strukturierter Content bei eCommerce-Seiten dabei deutlich häufiger vorzufinden als im Durchschnitt aller in den deutschen Top-Ergebnissen gerankten Landingpages. eCommerce-Seiten weisen nicht nur häufiger überhaupt eine Liste auf (Top 20: 68 Prozent) als der Durchschnitt aller Top-Seiten (Top 20: 61 Prozent), sondern die Listen sind auch länger. Während die branchenübergreifenden Seiten in den Top10-Suchergebnissen 11,5 Bullets pro Liste besitzen, haben die entsprechenden eCommerce-Seiten ein durchschnittliches Maximum von 14,7 Bullets pro Liste.

Bullets bei auf Top-Positionen gerankten eCommerce-Landingpages – Quelle: Searchmetrics eCommerce Ranking-Faktoren 2017

Anzahl der Bulletpoints auf E-Commerce Seiten Searchmetrics

Als Fazit kann man ziehen, dass man für verschiedene Wortstellungen, Synonyme und Füllwörter, aber auch für sehr ähnliche Keywords, heutzutage keine eigenständigen Seiten mehr erstellt. Denn moderne Suchmaschinen erfassen auch die Bedeutung von Begriffen und verstehen inzwischen ganz gut, was der Inhalt einer Seite ist. Sofern sie einen echten Informationsbedarf der Leser decken, können Inhalte daher auch gerne länger ausfallen. Dabei sollten Inhalte so aufbereitet sein, dass sie für die User leicht zu scannen sind, damit sie unkompliziert finden, was sie eigentlich interessiert.

Nach wie vor gilt es allerdings den Fokus nicht aus den Augen zu verlieren und nicht einfach willkürlich verschiedene Themen auf einer Seite abzuhandeln. Der Fokus wird bis zu einem gewissen Grad schon vom Title-Tag und der Meta-Description, dem sogenannten Snippet, vorgegeben, in dem nicht beliebig viele Informationen / Themen untergebracht werden können. Das Snippet ist sozusagen das Schaufenster einer Website in den Suchergebnissen und ihm kommt nach wie vor in SEO eine große Bedeutung zu. Grundlage einer erfolgreichen SEO Strategie ist immer eine gute Analyse der Nachfrage (User Intention) bzw. der offenen Fragen der Nutzer, auf die es die passenden Antworten zu finden gilt.

Ein guter Text ist in jedem Fall:

  • komplett einzigartig (unique)
  • auf die Zielgruppe(n) ausgerichtet
  • strukturiert (Überschriften, Bulletpoints & Co.)
  • korrekt in Rechtschreibung und Grammatik
  • suchmaschinenoptimiert und ggf. auch multimedial

Gibt es einen Zusammenhang zwischen Ladezeiten und Google Ranking?

Bereits vor Jahren erklärte Google die Ladezeiten zu einem offiziellen Ranking-Faktor. Aber wie groß ist der Einfluss der Ladezeiten und ab wann ist eine Seite schnell genug für Google?

Aussagen von Google zum Thema Pagespeed

Mit der Initiative „Let’s make the web faster“ legte Google schon Mitte 2009 den Grundstein für einen neuen Rankingfaktor, der dann 2010 offiziell verkündet wurde:

“You may have heard that here at Google we’re obsessed with speed, in our products and on the web. As part of that effort, today we’re including a new signal in our search ranking algorithms: site speed. Site speed reflects how quickly a website responds to web requests”.

In diesem Video aus dem Jahr 2010 erläutert Google Mitarbeiterin Maile Ohye noch einmal tiefergehend den Ranking-Faktor Pagespeed:

Ursprünglich hatte der Rankingfaktor „PageSpeed“ laut Google allerdings lediglich einen Einfluss auf weniger als ein Prozent der weltweiten Suchanfragen, wie folgende Aussage des ehemaligen inoffiziellen Google Sprechers Matt Cutts zeigt:

„[…] the current implementation mentions that fewer than 1% of search queries will change because of incorporating site speed into our ranking […]”.
– Matt Cutts, Distinguished Engineer at Google (https://www.mattcutts.com/blog/site-speed/)

Inzwischen wird der Einfluss der Ladezeiten auf das Ranking wohl größer sein. Aber was gilt für Google als schnell?

2016 setzte Googles John Mueller einen Twitter-Post ab, in dem er indirekt eine Ladezeit von zwei bis drei Sekunden als schnell bezeichnete. Gleichzeitig stellte er klar, dass die Zahl der HTTP-Requests dabei für Google keine Rolle spielt.

John Mueller Pagespeed Tweet

Googles John Mueller 2016 auf Twitter

Die Ladezeiten sind einerseits ein offizieller Google Rankingfaktor, andererseits wirken sie sich auch auf die Crawling-Rate des Googlebots aus. Seiten, bei denen der Googlebot länger als 2 Sekunden zum Download benötigt, werden laut einer Antwort von John Mueller auf einen Hilfe Thread seltener gecrawlt. Das kann vor allem für große Seiten mit rasch wechselnden Angebot ein Problem sein.

Langsamen Websites drohen auch in diesem Jahr Schwierigkeiten: Für Juli 2018 hat Google angekündigt, ein sogenanntes „Speed Update“ für die mobile Suche auszurollen. Natürlich verrät Google wie immer nicht, welchen Einfluss dieser Faktor haben wird, aber es ist davon auszugehen, dass er nicht ganz unwichtig sein wird.

Gerade im Mobile-Bereich treibt Google die Verbesserung der Ladezeiten auch selbst massiv voran.

So hat der weltgrößte Suchanbieter zum Beispiel Anfang 2016 das mobile Webseiten-Format Accelerated Mobile Pages (AMP) gelauncht. Ziel von AMP ist eine höhere Nutzerzufriedenheit mobiler User durch die drastische Verringerung von Ladezeiten zu erreichen. Dazu werden abgespeckte und auf Google-Servern gehostete Cache-Versionen der Seiten an die User ausgeliefert. Inzwischen scheint AMP auch im E-Commerce anzukommen – bisher wurde es vor allem durch Online-Medien wie Spiegel Online, BBC oder „The Guardian“ genutzt.

Neben der Einsparung von Crawling-Kapazitäten hat Google natürlich auch immer eine Verbesserung der Nutzerzufriedenheit mit den ausgespielten Suchergebnissen als Ziel. Untersuchungen haben ergeben, dass sich die Zufriedenheit eines Users um 16 Prozent pro Sekunde verstrichener Ladezeit verringert. Aber auch auf die Absprungrate hat die Ladezeit einen entscheidenden Einfluss.

Ladezeiten und Absprungrate

Der E-Commerce-Gigant Amazon hat bereits im Jahr 2006 errechnet, dass eine Ladezeit länger als 100 Millisekunden den Umsatz um etwa 1% reduziert. Eine Studie aus dem Jahr 2015 (https://t3n.de/news/wahre-konversionskiller-lange-594340/) zeigt, dass das erste Drittel der Kunden schon ab einer Ladezeit über drei Sekunden die Seite verlässt, ungefähr ein weiteres Drittel bis zu einer Ladezeit von fünf Sekunden abspringt, und nur 32 Prozent bereit waren, länger als fünf Sekunden auszuharren.

Im Bereich des Mobile Shopping sind die Absprungraten sogar noch höher. Hier brechen 40% der Kunden den Versuch ab, etwas zu kaufen, wenn die Seite nicht innerhalb von drei Sekunden geladen ist.

Absprungrate und Rankings 

Die Ladezeiten haben – wie beim vorherigen Punkt aufgezeigt – also erheblichen Einfluss auf das User-Verhalten. User-Signale gelten allgemein in der SEO-Welt als einer der neuen, entscheidenden Ranking-Faktoren. Dazu zählt natürlich auch die Absprungrate, welche nicht zuletzt entscheidend durch die Ladezeiten mitbeeinflusst wird.

So war auch in der Searchmetrics Studie von 2016 die Bounce Rate (Absprungrate) bei schlechter platzierten Seiten in den Top 20 höher.

Bounce Rate auf Top-Positionen gerankten Landingpages – Quelle: Searchmetrics Ranking-Faktoren-Studie 2016.

Absprungrate Searchmetrics Ranking Faktoren Studie 2016

U. a. folgende Tools können zur Ladezeiten Optimierung eingesetzt werden:

Im nächsten Abschnitt möchten wir kurz Googles hauseigenes Tool PageSpeed Insights vorstellen, das Anfang 2018 relaunched wurde.

PageSpeed Insights

Früher nutzte Google zur Berechnung der Ladezeiten vor allem die Google Toolbar, heute wird Google u. a. eventuell auf die PageSpeed Insights Daten zurückgreifen.

Im Januar 2018 hat Google das PageSpeed Insights Tool neugestaltet und arbeitet jetzt mit den Daten aus dem Chrome User Experience Report (CrUX). Damit entsprechen die Ergebnisse nun besser den realen Ladezeiten, wodurch Websitebetreiber die Möglichkeit haben, ein realistischeres Bild über die Performance ihrer Website zu erhalten.

Der Geschwindigkeitswert differenziert jetzt eine Seite nach drei Werten: „Fast“, „Average“ und „Slow“. Dieser Wert wird errechnet aus zwei Metriken: dem FCP (First Contentful Paint), was der Zeitpunkt ist, an dem der Browser den ersten Bit des Inhalts rendert, also dem User anzeigt, und dem DCL (DOM Content Loaded), dem Zeitpunkt, wenn das initiale HTML-Dokument vollständig geparst und geladen ist. Rangieren die beiden Messwerte im oberen Drittel, wird die Seite als schnell (Fast) von Google eingestuft.

Zu beachten ist, dass es sich dabei um die Durchschnittswerte realer Ladezeiten von durch Google über den Chrome-Browser überwachte Seiten handelt. Daher ist der Bericht für viele Seiten momentan (Stand: Juni 2018) auch noch nicht verfügbar.

In folgendem Video erklärt ein Google Mitarbeiter die Hintergründe und Probleme der Ladezeitenbestimmung und die Best Practices in Bezug auf eine Optimierung anlässlich des Chrome Dev Summit 2017.

Neu bei PageSpeed Insights ist auch der Punkt Seitenaufbauverteilung, bei dem zu sehen ist wie die FCP- und DCL-Ereignisse einer Seite verteilt sind. Auch diese Ereignisse werden mit den gesammelten Ereignissen des Chrome User Experience Reports verglichen und in die Kategorien „Fast“ (oberes Drittel), „Average“ (mittleres Drittel) und „Slow“ (unteres Drittel) eingeteilt.

Hinzugekommen ist auch der Punkt Seitenstatistiken, der eine Zusammenfassung enthält, wie viele zusätzliche Runden nötig sind, um Ressourcen zu laden, die das Rendering blockieren. Auch die Byte-Zahl dieser Ressourcen wird aufgezeigt.

Weiterhin vorhanden ist der Optimierungsgrad einer Website, der die Seite nach „Good“, „Medium“ und „Low“ kategorisiert. Hierbei wird der Optimierungsspielraum bei Beibehaltung des Aussehens und der Funktionalität einer Seite geschätzt.

Auch werden immer noch Optimierungsvorschläge gegeben. Zudem bietet PageSpeed Insights die Möglichkeit, optimierte Ressourcen, wie zum Beispiel in der Dateigröße reduzierte Bilder, JavaScript und CSS Dateien im Tool herunterzuladen.

PageSpeed Insights Screenshot Optimierungsvorschläge

Was gibt es bei einer HTTPS-Umstellung zu beachten?

Eine SSL- bzw. TLS-Verschlüsselung ist nicht nur ein bestätigter Google Rankingfaktor, sie stärkt auch das Vertrauen der Nutzer in die aufgerufene Website. Gerade für Seiten im eCommerce-Bereich ist HTTPS (Hypertext Transfer Protocol Secure) sehr wichtig – sowohl aufgrund der staatlichen Vorgaben zur Datensicherheit als auch vor dem Hintergrund des Umgangs von Browsern und Suchmaschinen mit dem Thema.

Zudem kann HTTPs als Trust-Signal auch die Absprungraten reduzieren, insbesondere, wenn zusätzlich noch ein Site Seal angezeigt wird, was nur durch eine Erweiterte Validierung (EV) möglich ist.

Screenshot Site Seal bei Zalando

Aber auch schon das grüne Schloss alleine entspricht einem Qualitätssiegel, da es Nutzern anzeigt, dass Ihre Daten verschlüsselt transferiert werden, was sie vor der Einsicht oder Manipulation durch Dritte schützt.

Befindet sich auf der Website eine Login-Möglichkeit, wird beispielsweise im Firefox Browser auch durch ein durchgestrichenes Schloss explizit darauf hingewiesen, dass die jeweilige Website nicht sicher ist.

Wie HTTPS funktioniert

Das Hypertext Transfer Protokoll (HTTP) dient zur Übertragung von Daten im World Wide Web. Stellt ein Client (Browser) eine Anfrage (Request), so erhält er vom Server eine Antwort (Response). Ruft man nun eine SSL-verschlüsselte Webseite auf, so sendet der Server zunächst ein Zertifikat. Dieses wird von einer sogenannten Certification Authority (CA) ausgestellt und garantiert die Identität der Website sowie die verschlüsselte Übertragung der Daten. Übrigens bezeichnen im Prinzip SSL (Secure Sockets Layer) und TLS (Transport Layer Security) das Gleiche, bei TLS handelt es sich schlicht um eine Weiterentwicklung, wobei die Bezeichnung SSL nach wie vor gebräuchlicher ist.

Welches Zertifikat brauche ich?

Um auf HTTPS umzustellen, benötigt man zuerst ein Zertifikat von einer Certification Authority (CA). Welches Zertifikat zu empfehlen ist, hängt immer von den individuellen Anforderungen ab. Wer einen Blog oder eine kleine Website ohne Login-Bereich betreibt, der kann auch zu einem kostenlosen Zertifikat von Let’s Encrypt greifen. Professionellen eCommerce-Seiten, bei denen auch hochsensible Nutzerdaten wie z. B. Kreditkarteninformationen übermittelt werden, sind natürlich aufwendigere Zertifikate zu empfehlen, die häufig nicht ganz billig sind.

Grundsätzlich unterscheiden sich SSL-Zertifikate bezüglich des Umfangs der Authentifizierung:

Domain-Validierung (DV)

Dies ist die schwächste Form der Authentifizierung. Hier wird lediglich geprüft, ob Zertifikat und Domain eine Einheit bilden und eventuell auch, ob der Antragsteller auch die jeweilige Domain besitzt, für welche er das Zertifikat beantragt hat.

Organisations-Validierung (OV)

Hier muss sich der Domaininhaber gegenüber der Certification Authority (CA) zusätzlich verifizieren. Konkret heißt das, dass die Ausgabestelle auch Unternehmensinformationen wie etwa den Handelsregister-Eintrag prüft oder bei privaten Websites z. B. den Personalausweis des Domaininhabers verlangt.

Erweiterte Validierung (EV)

Die Erweiterte Validierung (Extended Validation) ist die umfangreichste und höchste Form der Authentifizierung. Hier wird deswegen auch ein Site Seal bzw. eine grüne Adressleiste angezeigt, die zusätzlich beim Nutzer das Vertrauen in die Website stärkt. Nur speziell dafür autorisierte Certification Authorities dürfen eine EV vergeben und das antragstellende Unternehmen wird nach strengen Vergabekriterien ausführlich geprüft.

Umstellung von HTTP auf HTTPS

Eine manuelle Einbindung des Zertifikats erfordert technisches Know-how und ist generell nur möglich, wenn man vollen Zugriff auf den genutzten Server hat. Viele Hosting-Provider übernehmen die Umstellung, sodass man sein Paket häufig nur upgraden bzw. eine Aktivierung vornehmen muss, und / oder stellen eine detaillierte Installationsanleitung zur Verfügung. Grundsätzlich sollte immer darauf geachtet werden, dass ein gültiges und aktuelles SSL-Zertifikat vorliegt und die Server-Konfiguration korrekt ist.

SEO Checkliste für den Wechsel auf HTTPS

Um keine Ranking-Verluste durch die Umstellung auf HTTPS zu erleiden, müssen einige Dinge berücksichtigt werden. Hier eine Auswahl der wichtigsten Punkte:

301 Weiterleitungen

Für einen reibungslosen Wechsel auf HTTPS ist es unbedingt notwendig, dass mit der Umstellung 301-Redirects implementiert werden. Hierbei sollte jede HTTP-Seite auf die entsprechende HTTPS-Seite weiterleiten. Wenn keine sonstigen Änderungen an der Website vorgenommen werden, kann das relativ einfach etwa über den Server/Hosting Control Panel oder bei den gängigen Apache-Servern durch Integration eines Code-Schnippsels in die .htaccess-Datei umgesetzt werden.

Ein entsprechender Code zur Integration in die .htaccess kann etwa wie folgt aussehen:

IfModule mod_rewrite
RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]

Wenn der Code-Schnipsel nicht funktioniert, findet man viele weitere Lösungen im Netz, zum Beispiel hier. Auch sollte man immer darauf achten, welche Anweisungen in der .htaccess-Datei bereits vorhanden sind, damit es durch zum Beispiel sich widersprechende Anweisungen nicht zu Problemen kommt.

Wichtig ist, immer gleich zu testen, ob die 301-Weiterleitungen auch funktionieren, um zeitnah reagieren zu können, falls es irgendwo hängt. Weiterleitungsketten sollten vermieden werden, es sollte immer direkt auf die neuen HTTPS-URLS weitergeleitet werden. Hierfür müssen ggf. auch bestehende Weiterleitungen geändert werden.

Mixed Content

Wenn das Zertifikat korrekt implementiert wurde, jedoch trotzdem ein Warndreieck anstelle eines grünen Schlosses in der Adresszeile des Browsers angezeigt wird, liegt das in der Regel an Mixed Content, also unsicheren sprich weiterhin unter HTTP erreichbaren Inhalten auf der Website. Um dem vorzubeugen, müssen vorab alle Ressourcen (JS, CSS, Bilder, Videos, PDFs, Webfonts) ebenfalls unter HTTPS erreichbar sein. Während für Content Management Systeme wie WordPress und Co. häufig entsprechende Plugins verfügbar sind, die die Umstellung aller Ressourcen stark vereinfachen, kann bei komplexen Seiten schon einiges Nacharbeiten an verschiedenen Stellen nötig werden. Hier ein Artikel von Google zum Thema: https://developers.google.com/web/fundamentals/security/prevent-mixed-content/what-is-mixed-content

Canonical Tags, Hreflang, Header-Einträge und Strukturierte Daten

Ebenfalls ein häufiger Fehler ist, bei vorhandenen rel=“canonical“-Tags nicht die neue HTTPS-Version auszuweisen. Canonical Tags geben Suchmaschinen die Anweisung, eine bestimmte Version / URL einer Seite zu bevorzugen. Gleiches gilt auch für hreflang-Attribute, die bei mehrsprachigen oder länderübergreifenden Webprojekten zum Einsatz kommen. Auch diese müssen natürlich auf die neuen HTTPS-URLs zeigen. Bei rel=“next“ / rel=“prev“, speziellen Auszeichnung für mobile Versionen oder AMP-Seiten muss ebenfalls auf eine Umstellung geachtet werden.  Header Einträge wie Open Graph oder Base-URL (für relativen URLs) sowie Strukturierte Daten müssen selbstverständlich auch auf HTTPS verweisen.

Interne Verlinkung

Auch die internen Links in der Navigation oder den Fließtexten müssen angepasst werden, sofern sie nicht relativ sind, sondern die ganze Adresse (z. B. http://www.domain.de/seo) enthalten. Das kann ein wenig zeitaufwendig sein, ist aber in der Regel einfach umzusetzen. Für WordPress und Co. gibt es hierzu entsprechende Plugins.

Sitemaps

Auch gern übersehen wird, dass die Sitemap angepasst werden muss. In ihr müssen ebenfalls die neuen HTTPS-URLs ausgewiesen sein. Am besten wird die neue Sitemap, wenn alle anderen Punkte erfolgreich umgesetzt sind, gleich bei der Google Search Console eingereicht. Dazu mehr beim übernächsten Punkt.

robots.txt

Grundsätzlich muss auch die robots.txt-Datei unter der neuen HTTPS-URL erreichbar sein. Dabei sollte darauf geachtet werden, dass die HTTPS-URLS nicht für Crawler von Suchmaschinen gesperrt sind. Wenn die robots.txt einen Eintrag zu einer XML-Sitemap verfügt, muss dieser auf die neue HTTPS-Version der Sitemap verweisen.

Search Console und My Business

Wenn die Umstellung erfolgreich war, sollte auch ein neuer Eintrag für die HTTPS-Version der Website bei der Google Search Console angelegt werden, um u. a. den Traffic zu erfassen. Anschließend kann auch für eine schnelle Indexierung der HTTPS-URLs dort auch die neue XML-Sitemap eingereicht werden. Ebenfalls neu einreichen muss man ein eventuell vorhandenes Disavow-File, das für Google schlechte Links kennzeichnet. Ist die Search Console Property mit Google Analytics verbunden, muss eine neue Verknüpfung mit der HTTPS-Property vorgenommen werden. Lokale Websites müssen darauf achten, ihren Google My Business Account zeitnah zu aktualisieren.

Umstellung auf HTTPS aus SEO-Sicht

Auch eine Umstellung auf HTTPS ist mit einigem Aufwand verbunden und nicht ohne Risiken. Es kann immer zu (zeitweisen) Ranking-Verlusten kommen. Wenn Sie die Punkte in unserer SEO-Checkliste beachten, können Sie jedoch das Risiko minimieren und eventuell sogar das Google Ranking verbessern. Gerade eCommerce-Seiten werden mittelfristig sowieso nicht um eine Umstellung auf HTTPS herumkommen, weil hier die Anforderungen ständig verschärft werden. HTTPS ist zudem ein Google Rankingfaktor, der in den kommenden Jahren wahrscheinlich noch an Bedeutung gewinnen wird. Die Erfahrung zeigt, dass diese Punkte bei einem SEO Check nach erfolgter Umstellung besonders wichtig sind und immer gleich geprüft werden sollten:

  • Haben alle Seiten das grüne Schloss einer sicheren Verbindung?
  • Leiten alle Seiten korrekt von der HTTP auf die HTTPS-Version weiter?
  • Enthalten alle Seiten einen korrekten Canonical Tag auf die neue HTTPS-Version und sind die neuen URLs nicht durch die robots.txt gesperrt?
  • Erreicht die Website bei einem SSL-Test wie dem von SSL Labs ein A-Rating?

Diese Fragen sollten Sie immer mit „Ja“ beantworten können, und zwar möglichst zeitnah nach einer Umstellung auf HTTPS. Bei anderen Punkten kann in den meisten Fällen noch nachgebessert werden, ohne dass es zu einem gravierenden Ranking-Verlust kommt. Wenn Sie die Probleme nicht selbst lösen können, ist es zu empfehlen, einen Spezialisten zu kontaktieren, der Ihnen schnell helfen kann.

Welche Suchmaschinenoptimierung Tipps können eine SEO Website auch in Zukunft nach vorne bringen?

Grundsätzlich wird für die Google Suche zu optimieren, zukünftig natürlich nicht leichter, weil Google immer weniger auf die klassischen SEO-Signale achtet und zunehmend zu einem mehr holistischen Verständnis des Inhalts einer Seite oder einer ganzen Website kommt. Zudem gewinnen auch die User-Signale immer mehr an Bedeutung. So ergab schon die letzte branchenübergreifende Searchmetrics Studie, die das Jahr 2016 untersuchte, einen sinkenden Einfluss von Keywords im Title auf das Google Ranking. Vor nach einigen Jahren war ein keywordoptimierter Title schon die halbe Miete.

Keywords im Title Searchmetrics Ranking-Faktoren-Studie 2016.

Die Relevanz von einzelnen Suchbegriffen / Keywords im Title hat also von 2015 auf 2016 deutlich abgenommen – unter anderen bedingt durch die neuen Machine-Learning-Algorithmen, die Google in dieser Zeit ausgerollt hat.

Der Umkehrschluss, jetzt ganz auf eine Keywordoptimierung der Seitentitel und Co. zu verzichten, wäre allerdings auch falsch. Nach wie vor sind Keywords im Seitentitel ein wichtiges Signal, nicht zuletzt für den User. Denn durch die Verwendung des Suchbegriffs im Seitensnippet kann der User beim Scannen der Ergebnisse schnell und einfach erkennen, dass der Treffer für seine konkrete Suchanfrage relevant ist. Deshalb ist auch eine Keywordverwendung in der Meta-Description immer noch zu empfehlen, obwohl hier schon lange kein direkter Einfluss auf das Ranking mehr besteht. Stattdessen fettet Google Keywords in der Meta-Description und legt damit ganz den Fokus auf den User – ein Trend, der inzwischen die meisten der klassischen Rankingfaktoren erfasst hat.

Die Verwendung von Keywords in Titles, Meta-Descriptions, Überschriften (insbesondere H1) und Content sowie ggf. den ALT-Tags von Bildern und URLs gehört also nach wie vor zu den SEO Grundlagen. Diese sollten bei einer SEO Website auf keinen Fall vernachlässigt werden, auch wenn sie als direkte Ranking-Faktoren zunehmend an Bedeutung verlieren.

SEO Tipps für 2018

Im Folgenden werden 7 SEO Maßnahmen vorgestellt, mit denen Sie nach Umsetzung der Basics auch 2018 Chancen auf Top-Platzierungen bei Google und Co. haben:

  1. Im Mobile-First-Index von Google gut perfomen

Schon Ende 2016 hat Google angekündigt, dass zukünftig der Mobile Index als Hauptindex für Google fungieren wird. Das bedeutet nichts anderes als das Google zukünftig auf der Grundlage der mobilen Versionen von Websites die Suchergebnisse und Ranking ermitteln und organisieren wird. Am 26.03.2018 begann die erste Phase des Rollout-Prozesses. Laut Google werden Seitenbetreiber, deren Websites in den Mobile-First-Index aufgenommen wurden, darüber in der Google Search Console informiert. Der Schritt zur Implementierung des Mobile-First-Index ist für Google nur konsequent, denn bereits jetzt werden 60% der Suchanfragen von einem Mobilgerät getätigt – Tendenz steigend. Folgendes können Sie tun, damit Sie auch im Mobile First Index von Google gut performen:

  • Stellen Sie sicher, dass Ihre mobile Seite im Wesentlichen alle wichtigen Funktionalitäten und vor allem den gesamten Content den Nutzern bereitstellt. Immer noch viel zu häufig sind Mobile Seiten abgespeckte Versionen, längerer Inhalt wird den Nutzern häufig nicht zugemutet. Diese „versteckten“ Inhalte werden nach Umstellung auf den Mobile-First-Index eventuell vollständig von Google ignoriert. Achten Sie also darauf, dass auch mobile Besucher 100% des Inhalts Ihrer Desktop-Version angezeigt bekommen.
  • Wenn Sie keine mobile Website besitzen und noch nicht auf Responsive Design umgestellt haben, machen Sie es jetzt.
  • Ihre Seite sollte nicht nur „etwas“ für Mobile Besucher optimiert sein, sondern die bestmögliche Usability für Smartphones und Tablets bieten. Achten Sie zum Beispiel darauf, dass Ihre Seite via Touchscreen oder Spracheingabe einfach zu navigieren ist, mobile Endgeräte erkannt werden, alles auch auf kleineren Displays richtig dargestellt wird, Videos abspielbar sind und vor allem auch die Ladezeiten stimmen. Um herauszufinden, ob Ihre Mobile Lösung den Google Standards genügt, können Sie den Google Test auf Optimierung für Mobilgeräte durchführen.
  1. User Experience (UX) weiter verbessern

Die Bedeutung der User Experience wird auch 2018 weiter zunehmen. Um diesen Trend gerecht zu werden, ist eine neue Disziplin, das Agile Content Development, entstanden. Hierbei handelt es sich um eine Technologie-gestützte Methode, wettbewerbsfähigen Content zu erstellen und fortlaufend zu optimieren. Durch die konsequente Einbindung des Nutzers und Messung der Content Performance wird aus dem linearen Schreibprozess ein zyklisch verlaufender Kreislauf, bestehend aus folgenden Schritten:

  • Recherche
  • Erstellung / Optimierung
  • Veröffentlichung
  • Erfolgskontrolle und -messung.

Jedem Websitebetreiber ist zu empfehlen, sich die Daten von Google Analytics genauer anzuschauen und sich einige grundsätzliche Fragen zu stellen. Welche Absichten haben Nutzer, wenn sie auf meine Seite kommen? Was ist das eigentliche Ziel meiner Landingpage? Will sie informieren, soll eine Anfrage gestellt werden oder will sie weiterleiten?

Aus der Sicht der Suchmaschine ist vor allem wichtig, dass die Nutzer das ausgespielte Ergebnis als relevant erachten und sich auf der Seite wohl fühlen. Daher ist neben der Klickrate in den Suchergebnissen (CTR) auch die Verweildauer ein sehr wichtiges Kriterium für Google und Co.. Egal, ob sich die Besucher Ihrer Website durch ihre Bildergalerie klicken, ein Video ansehen, an Ihren Referenzen interessiert sind oder ein Produkt bestellen – wenn sie lange auf ihrer Website verweilen, ist das gut für das Ranking. Wiederkehrende Besucher sind natürlich ein großes Lob für Ihren Webauftritt – und genau so sehen es auch Suchmaschinen. Optimieren Sie daher Ihre Website weiter in Hinblick auf die User Experience und versuchen Sie Benutzer durch irgendetwas Besonderes an sich zu binden, auch wenn es sich nicht sofort auszahlt.

  1. Progressive Web Apps, AMP und Instant Apps nutzen

Google ist sehr daran gelegen, das Nutzererlebnis im Mobilen Web weiter zu verbessern. Websitebetreiber haben gleich mehrere Möglichkeiten, von diesem Trend zu profitieren:

  • Progressive Web-App (PWA): Hierbei handelt es sich um eine “App-ähnliche” Version einer Website, die die Vorteile von mobilen Apps und herkömmlichen Websites vereinen soll. PWAs funktionieren auch offline, senden Push-Nachrichten und besitzen deutlich bessere Ladezeiten als normale Websites. Gleichzeitig können PWAs über die Suche von Google & Co. gefunden, aufgerufen und genutzt werden. Eine aufwendige Installation und die Suche in einem App-Store entfallen damit. Hier finden Sie einen Überblick über eCommerce-Angebote, die die PWA-Technologie bereits nutzen: https://www.mobify.com/insights/10-best-ecommerce-progressive-web-apps/
  • Accelerated Mobile Pages (AMP): Diese ultraschnelle Lösung für das Mobile Web wurde 2016 von Google gelauncht und wird weiterhin regelmäßig upgedatet, um sie noch schneller und interessanter zu machen. Im Prinzip handelt es sich bei AMP um eine reduzierte Version einer Website, die durch konsequente Verschlankung des Codes (JavaScript, CSS und HTML) und einem Content Delivery Network (CDN), die Ladezeiten für mobile Endgeräte stark verbessern kann. Für einige gängige eCommerce-Lösungen wie Magento oder Shopware gibt es inzwischen auch AMP-Plugins. Vor allem reine Content-Seiten können von AMP profitieren.
  • Android Instant Apps: Android Instant Apps sind abgespeckte Versionen von Apps, die über einen Link freigegeben und aufgerufen werden können. Android Instant Apps setzen im Prinzip an der gleichen Stelle an wie Progressive Web-Apps: Sie wurden entwickelt, um die Vorteile von Apps und Websites zu vereinen, also schnell zu laden, eine benutzerfreundliche mobile Oberfläche zu bieten und zeit- und datenintensive Downloads zu vermeiden. In der Regel kann nach der Installation einer Android Instant App auch die vollständige Version der App heruntergeladen werden, um den vollen Funktionsumfang nutzen zu können. Dies ist jedoch möglich, ohne zusätzlich noch einen App-Store aufsuchen zu müssen.
  1. Für Sprachsuche und digitale Assistenten optimieren

Es ist davon auszugehen, dass die Bedeutung von Sprachsuche und digitalen Assistenten wie Google Now oder Siri 2018 weiter wächst. Über die Hälfte der Deutschen hatte 2017 entsprechende Programme bereits genutzt, die Akzeptanz wird mit einer weiteren Verbesserung der digitalen Assistenten in den nächsten Jahren wahrscheinlich stark ansteigen. Inzwischen erinnern Gespräche mit digitalen Assistenten zunehmend an normale Konversationen, auch die Spracherkennung wird immer besser, jedoch besteht vor dem Hintergrund der Entwicklungen im Bereich der Artificial Intelligence, über die Google-CEO Sundar Pichai Anfang 2018 sagte, sie sein grundlegender als die Erfindung von Feuer oder Elektrizität, hier noch viel Luft nach oben. Neben klassischen Smartphones gewinnen in Hinblick auf die Sprachsuche auch die zahlreichen Smart-Home-Hubs von Google, Apple und Amazon immer mehr an Bedeutung. So feierten beispielsweise die Amazon Echo-Produkte Weihnachten 2017 Verkaufsrekorde. In Hinblick auf die SEO Optimierung bedeutet die zunehmende Verbreitung von Sprachsuche und digitalen Assistenten vor allem drei Dinge:

  • der Fokus verschiebt sich weiter weg von Keywords hin zur natürlichen Sprache.
  • Longtail Keywords gewinnen immer mehr an Bedeutung
  • Es ist zu empfehlen, auch auf Fragen und ganze Sätze zu optimieren

Mit einer neuen Generation an Internetnutzern werden zunehmend Keywords wie „Angela Merkels Alter“ von Fragen wie „Wie alt ist Angela Merkel?“ verdrängt. Um für Fragen wie diese zu optimieren, sollte man erst eine Potenzialanalyse durchführen, um dann zu überlegen, wie man seinen Content am besten entsprechend ergänzen kann.

  1. Jetzt mit Video-Marketing beginnen

Bis 2021 werden laut dem US-amerikanischen Telekommunikationsunternehmen Cisco Videos 80 Prozent des Online Traffics ausmachen. Bereits jetzt ist YouTube die zweitgrößte Suchmaschine der Welt. Ja, der Wettbewerb ist hart, trotzdem sollten Sie sich eingehender mit dem Potenzial von Videos für Ihr Unternehmen auseinandersetzen. Denn immer mehr Menschen verbringen ihre Zeit mit Videos, vor allem auf YouTube und nutzen den Anbieter zur Suche nach Lösungen für ihre Probleme. Zudem enthalten auch viele Google Suchergebnisse Videos. Auf Folgendes sollten Sie bei der Erstellung von YouTube Videos unter anderem achten:

  • Identifizieren Sie die Mikro-Momente, in denen sich die Interessen Ihrer Zielgruppe mit dem Angebot Ihres Unternehmens überschneiden. Täglich kommen Millionen Menschen zu YouTube, um nach Videos zu suchen, die Ihren Vorlieben, Wünschen und Interessen entsprechen. Tools wie das io bieten Ihnen die Möglichkeit, die wichtigsten Suchanfragen zu einem Thema herauszufinden. Reflektieren Sie über die Fragen und Bedürfnisse Ihrer Kunden und überlegen sie sich, an welchen Punkt der Customer Journey ein Video eventuell hilfreich sein könnte.
  • Stellen Sie nützliche Inhalte zu Verfügung, die eine Lösung für die Probleme und Fragen Ihrer potenziellen Kunden bieten. Der erste Schritt besteht darin, hochwertigen und relevanten YouTube-Content zu erstellen, der genau an diesen Mikro-Moment, wo sich Ihre Ziele mit denen der Kunden überschneiden, die passende Lösung anbietet. Im zweiten Schritt gilt es zu überlegen, wie Sie potenzielle Kunden im richtigen Moment auf Ihre Lösung aufmerksam machen. Das kann sowohl über die organische Suche als über die unterschiedlichen YouTube-Werbemöglichkeiten geschehen.
  • Lernen Sie, was funktioniert. Mithilfe von Google Analytics können Sie erkennen, wie Ihre Zielgruppe mit Ihren Inhalten interagiert und wo noch Verbesserungsbedarf besteht. So können Sie Ihre Videos laufend optimieren und die Ergebnisse messen. Das ermöglicht Ihnen, immer bessere Videos zu erstellen und Ihre Strategie weiter anzupassen. Mit Analytics können Sie zudem Erkenntnisse über die Zuschauer und ihre Eigenschaften gewinnen. Stimmen Alter, Geschlecht und Standort mit der anvisierten Zielgruppe überein? Wenn nicht, können Sie Ihre Inhalte und Ihre Werbestrategie neu ausrichten, um genau die Zielgruppe zu erreichen, die für Ihr Angebot die richtige ist.
  1. Optimieren Sie auf Featured Snippets

Besonders Content-Seiten sollten auch auf Featured Snippets optimiert werden. Featured Snippets werden in einem hervorgehobenen Block über den Suchergebnissen angezeigt, befinden sich also sozusagen auf der Position 0, und enthalten meist eine kurze Zusammenfassung der wichtigsten Informationen zu einem Thema. Laut Google soll damit das Sucherlebnis verbessert werden. Natürlich enthalten Featured Snippets auch Links zu den Webseiten, von denen die Informationen stammen. Die Erfahrung zeigt, dass ein Featured Snippet einen Großteil des Traffics für einen bestimmten Suchbegriff auf sich zieht, von Vorteil für die Websites, von denen Featured Snippets stammen, ein großer Nachteil für die Seiten, die bisher für einen bestimmten Suchbegriff auf den vordersten Positionen rankten. Häufig werden Featured Snippets bei Fragen eingeblendet, aber auch bei normalen Keyword zu Informationsthemen sind sie nicht selten. Neben Text Snippets gibt es auch Listen & Tabellen Snippets und Video Snippets. Google kann damit einen Teil der Suchanfragen gleich in den eigenen Suchergebnissen abwickeln, ohne dass eine Website aufgesucht werden muss. Ein zentraler Aspekt insbesondere der Textboxen ist ihre Nutzung bei der Google Sprachsuche, da sie ermöglichen, eine gesprochene Anfrage gleich sprachlich zu beantworten. Grundsätzlich ist es schwer, konkret auf Featured Snippet zu optimieren, da Google eigenhändig und intransparent entscheidet, für welche Suchanfragen ein Featured Snippet angezeigt wird und von welcher Seite die Informationen stammen. Folgende SEO Tipps haben jedoch eine gewisse Aussicht auf Erfolg:

  • Arbeiten Sie mit Bulletpoints (gerade in Bezug auf diese scheint Google eine gewisse Präferenz zu haben), Tabellen und Listen. Wichtig ist dabei, dass man die entsprechenden HTML-Auszeichnungen nicht vergisst.
  • Identifizieren Sie häufige W-Fragen im Zusammenhang mit einem Thema und geben Sie auf diese die passenden Antworten.
  • Versuchen Sie Themen kurz und knackig zusammenzufassen. Heben Sie den Abschnitt am besten irgendwie hervor und sein Sie besser als der Wettbewerb.

Wer keine Lust hat, dass Google aus seinem Inhalt ein Featured Snippet zieht, kann das mit dem Tag „<meta name=“googlebot“ content=“nosnippet“> im Header verhindern. Im Gegensatz zu den Rich Snippets, für die Strukturierte Daten vorhanden sein müssen, sind ansonsten an sich für Featured Snippets keine besonderen Auszeichnungen notwendig.

Screenshot Featured Snippets in den Suchergebnissen

  1. Schauen sich nach anderen Kanälen um

Eine SEO Optimierung für Google wird nicht nur immer schwieriger, auch die Click-Through-Rate für organische Suchergebnisse ist in den letzten Jahren gesunken. Höchste Zeit also, sich nach anderen Kanälen umzuschauen, die je nach anvisierter Kundengruppe noch das Potenzial für nachhaltiges Wachstum haben. Amazon und eBay bieten z. B. Verkäufern neue Möglichkeiten, branchenspezifische Plattformen und Datenbanken sind für B2B-Dienstleister nicht uninteressant, Yelp und Tripadvisor können von Locations und Restaurants gezielt genutzt werden. Hinzu kommen natürlich auch noch die großen Social-Media-Kanäle wie Facebook, Twitter, YouTube und Co. Um fit zu sein für die Zukunft, sollten Sie sich – je nach Ihrer Branche und Zielgruppe – auch verstärkt abseits von Google um gute Positionen bemühen.

Was kann man unter einer WDF*IDF Analyse in der Google Suchmaschinenoptimierung verstehen?

WDF*IDF-Analysen sind ein Verfahren zur Textoptimierung für Suchmaschinen wie Google. Dabei wird im Gegensatz zur Bestimmung der Keyworddichte (Keyword Density) nicht nur die relative Häufigkeit eines Keywords in einem Text bestimmt, sondern auch von im Zusammenhang mit einen Keyword auftretenden Termen (Wörtern oder Wortkombinationen). Die Verwendungshäufigkeit der Terme in einem untersuchten Text wird in der Regel mit der von toprankenden Seiten abgeglichen. Ziel des WDF*IDF Verfahren ist es, anstelle eines einzelnen Keywords den gesamten Textinhalt des jeweiligen Dokuments bei der Google Suchmaschinenoptimierung zu berücksichtigen.

Grundsätzlich lässt sich mit der WDF*IDF Formel bestimmen, in welchem Verhältnis einzelne Wörter nicht nur innerhalb eines Dokuments bzw. einer Seite, sondern auch im Verhältnis zu allen möglichen Dokumenten gewichtet sind.

WDF

Die WDF*IDF-Formel besteht aus zwei Teilen. Der WDF steht für „Within Document Frequency“. Mit dem WDF-Wert wird ermittelt, wie häufig ein Term in einem Dokument vorkommt. Die „Within Document Frequency“ ist nichts prinzipiell anderes als die Keyworddichte, welche durch einen Logarithmus ergänzt wurde. Diese “Stauchung” ist der Natürlichkeit unserer Sprache geschuldet und verhindert, dass eine sehr häufige Verwendung des Terms / Keywords den WDF zu stark ansteigen lässt (Quelle: https://karlkratz.de/onlinemarketing-blog/termgewichtung-wdf-idf/).

Berechnung WDF

i=: Terme, für die der WDF bestimmt wird
j=: Dokument (z. B. Website)
L=: Gesamtzahl der Terme in Dokument j
Freq(i, j)=: Häufigkeit des Terms i im Dokument j

Praxisbeispiel:

Ein Term, der 50 Mal (Freq(i, j)) in einem Dokument von 1.000 Termen (L) vorkommt, hat einen WDF-Score von ca. 0,57. Die Keyworddichte / relative Häufigkeit ist in diesem Fall 5 Prozent.

IDF

Mit dem IDF („Inverse Document Frequency“) wird der WDF in Relation zur Gesamtheit des World Wide Web gesetzt. Je mehr Potenzial ein Term hat, das heißt, je weniger Dokumente dieses Keyword bereits enthalten, desto höher ist der IDF. Ein Term wie Impressum hat beispielsweise einen sehr niedrigen IDF-Score, weil er praktisch auf jeder Website vorkommt.

Um den IDF zu berechnen, setzt man die Zahl der Dokumente, welche den Term enthalten, ins Verhältnis zu der Anzahl aller bekannten Dokumente in einem Dokumentkorpus. Auch hier dient der Logarithmus zur Stauchung der Ergebnisse.

Berechnung IDF

i=: Terme, für die der WDF bestimmt wird
ND=: Anzahl aller Dokumente in einem Dokumentenkorpus (stark vereinfacht gesagt: die Summe aller Resultate von Suchmaschinen für alle Terme innerhalb eines Dokuments).
fi=: Anzahl aller Dokumente, die den Term i enthalten

ND ist in der WDF-Theorie ein wenig unbestimmt, theoretisch sind als Dokumentenkorpus auch alle Dokumente des World Wide Web vorstellbar, der Praktikabilität wegen wird sich jedoch in der Regel auf die addierte Anzahl der Suchergebnisse aller in einem Dokument enthaltenen relevanten Terme beschränkt.

Praxisbeispiel:

Um hier noch einmal zu verdeutlichen, was ND eigentlich ist, hier ein kurzes Beispiel:

Angenommen wir haben ein Dokument, welches nur aus zwei Wörtern / Termen besteht: „SEO“ und „Optimierung“.

„SEO“ hat laut Google (Stand: Januar 2018) ungefähr 144.000.000 Treffer

Optimierung besitzt (Stand: Januar 2018) ungefähr 15.200.000 Treffer

ND würde sich in diesem stark vereinfachten Beispiel also wie folgt berechnen:

ND=144.000.000 +15.200.000=159.200.000

In der Regel werden bei der Berechnung des WDF*IDF-Scores bestimmte Stopwörter ausgeklammert und nur sinntragende Terme berücksichtigt.

WDF*IDF Formel

Da mit dem WDF die Relevanz eines Terms / Keywords in einem bestimmten Dokument berechnet wird und der IDF das Potential eines Terms / Keywords in Bezug auf den gesamten Dokumentkorpus widerspiegelt, ermöglicht die Multiplikation von WDF und IDF einen tiefen Einblick in die Gesamtwertigkeit der verwendeten Terme / Begriffe vor dem Horizont des World Wide Web.

WDF*IDF Formel

WDF*IDF in der Praxis

Soweit zur Theorie: In der Praxis der WDF*IDF Formel / Analyse kommen SEO-Tools zum Einsatz und es dreht sich alles um Vergleichswerte und Proof-Keywords, also die wichtigsten Terme in einem Dokument. Ziel ist es einen WDF*IDF-Wert zu erzielen, der neben dem eigentlichen Keyword auch für die Hauptterme höher ist als der Durchschnitt, aber weniger hoch als die Ausreißer mit dem höchsten WDF, da ansonsten der Text / die Seite von Suchmaschinen als Spam bewertet werden kann.

Hat man sich bei einem WDF*IDF-Tool für ein zu untersuchendes Keyword entschieden, werden die WDF*IDF-Werte auch für alle anderen wichtigen Terme im Zusammenhang mit diesem Hauptkeyword berechnet. Diese Terme kann man auch als Proof-Keywords bezeichnen, da sie Suchmaschinen beweisen können, dass ein Text / eine Seite für einen Suchbegriff relevant ist, weil dort Begriffe vorzufinden sind, die häufiger in diesem Kontext – konkret auf den topplatzierten Seiten – bei diesem Suchbegriff fallen. Die Termgewichtung ermittelt über den WDF*IDF-Score dieser Proof-Keywords sollte dabei natürlich ähnlich ausfallen, wie bei “den besten” Dokumenten zu diesem Thema / Keyword.

Beispiel

Hauptkeyword „bikini“ (450.000 monatliche Suchanfragen laut Google AdWords Keyword Planer)

Wie so oft, rankt hier der Zalando Online-Shop an der ersten Position, sodass wir für diese WDF*IDF-Analyse https://www.zalando.de/bikini/ (gestrichelte Linie) als Beispiel-URL gewählt haben.

Screenshot WDF*IDF Berechnung durch Ryte

  1. Das oberste Ende des grün eingefärbten Balkens markiert den maximalen WDF*IDF-Score, der in diesem URL-Set gefunden wurde – er stellt zudem damit auch die Spam-Linie dar. Hier ist Zalando für das Keyword „bikini“ schon nahe dran – aber noch unterhalb.
  2. Der heller gefärbte blaue Balken markiert den Bereich des durchschnittlichen WDF*IDF-Scores der Seiten, die den Term enthalten. Im Idealfall befindet sich die Termverwendung für die wichtigsten Begriffe im eigenen Text / Dokument leicht darüber – also im grünen Bereich.
  3. Der dunklere blaue Balken markiert den Bereich des durchschnittlichen WDF*IDF für alle Seiten – ob sie den Term enthalten oder nicht.

Vorteile des WDF*IDF-Verfahrens für die Suchmaschinenoptimierung

Das WDF*IDF Verfahren kann ein mächtiges Instrument zur SEO Optimierung von Texten darstellen, weil es ermöglicht Texte zu verfassen, die:

  • alle wichtigen Begriffe / Unterthemen zu einem Thema enthalten
  • frei von Keyword-Spam sind
  • einzigartig und innovativ sind, ohne dass der Fokus verloren geht
  • sowohl dokumentenspezifische als auch übergreifende Faktoren berücksichtigen

Onsite Optimierung in der Praxis: SEO Onpage Analysen

Bisher lag der Schwerpunkt dieses White Papers auf Wissen und Strategien rund um die Suchmaschinenoptimierung. Aber was empfiehlt man Kunden bei konkreten Problemen? Um den Praxisbezug noch einmal zu verstärken, folgen hier im letzten Punkt fünf Ausschnitte aus echten Onpage Analysen unserer Kunden, die aus Datenschutzgründen allerdings anonymisiert wurden

1.  Keyword-Analyse (Ausschnitt – Beispiel Schönheitschirurg)

Bezugnehmend auf die Antworten im Fragebogen haben wir die darin genannten Keywords / Keyword-Gruppen untersucht. Abgesehen von technischen Optimierungen (Pagespeed, Rich Snippets etc.) und SEO-Fehlern (Duplicate Content, Broken Links etc.) knüpft ein Großteil der SEO-Maßnahmen (Titles, Überschriften, Texte, interne Verlinkung, alt-Tags) an der Keyword-Analyse / Keyword-Recherche an.

Wichtig: Die folgenden unter den Keywordgruppen aufgelisteten Keywords stellen nur eine Auswahl dar, weil ansonsten der Rahmen dieser Analyse gesprengt würde. Kriterien neben dem Trafficvolumen waren u. a. Relevanz und momentanes Ranking, insbesondere aber auch das Rankingpotenzial. Eine komplette Liste der momentanen Rankings – sortiert etwa nach Seiteneindrücken – schicken wir auf Anfrage gerne zu.

Keywordgruppe 1 Brustvergrößerung (Stand: 12.06.2015):

2. Title-Tag Optimierung (Ausschnitt aus einer Kurzanalyse – Beispiel Modehändler)

Grundsätzlich sollte jede Seite im optimalen Fall genau einen einzigartigen Title pro Seite besitzen. Damit können Suchmaschinen das Thema der Seite identifizieren und für einen relevanten Begriff ranken.

Leider bekommt beispiel.de von generischen Keywords bisher kaum Traffic. Das könnte u. a. daran liegen, dass Seitentitel zwar automatisch für alle Seiten erstellt werden, diese aber zu wenig zugespitzt sind, um echte Rankingchancen zu besitzen. Umso präziser das Keyword in einem Seitentitel ist, desto weniger Wettbewerb besteht und desto besser sind daher auch die Rankingchancen. Auch die bereits integrierten SEO-Texte sind auf entsprechende zugespitzte Keywords optimiert, da für allgemeine Begriffe der Wettbewerb einfach zu hoch ist.

Wir würden daher mit sehr hoher Priorität empfehlen, auf allen wichtigen Seiten manuell erstellte Seitentitel zu integrieren, die den Wettbewerb, aber auch das Trafficvolumen und die Relevanz der verwende Keywords berücksichtigen können.

Beispieloptimierung:

URL: https://www.beispiel.de/kollektion/pullover-strickjacken

Momentaner “Title”:

Pullover & Strickjacken | Kollektion  | BEISPIEL Online Shop

Nachfolgend eine einfache Optimierung:

Damen Strickjacken & Strickpullover | BEISPIEL Online Shop

„damen strickjacken“ kommt als eigenständiges Keyword auf 1.900 monatliche Anfragen laut Google AdWords Keyword Planer, „strickpullover“ auf 5.400 monatliche Suchanfragen, „damen strickpullover“ noch einmal auf 480 monatliche Suchanfragen.

Shortfacts Title:

  • Jede URL sollte einen einzigartigen Title besitzen.
  • Das Keyword, für das die URL primär ranken möchte, sollte im Title enthalten sein.
  • Die Title-Länge sollte 512px nicht überschreiten, damit der Title vollständig angezeigt wird.
  • Der Title sollte auch für den User optimiert sein (zum Klicken animieren und inhaltlich relevant für den Inhalt der Seite sein).
  • Keywords zu Beginn des Seitentitels werden von Suchmaschinen stärker berücksichtigt.

Bevor eine Optimierung der Seitentitel stattfinden kann, muss eine Keywordrecherche erfolgen. Keywords (deutsch: Suchbegriffe, Schlüsselwörter, Schlagworte) sind in der Suchmaschinenoptimierung mit die wichtigsten Elemente. Eine Suchmaschine ermittelt mittels eines Keyword Analyser die Relevanz eines Dokuments und prüft, ob jene Seite mit einer Suchanfrage übereinstimmt. Wichtige Suchbegriffe sollten im Title-Tag, in der Meta-Description, in den Überschriften und im Content untergebracht werden, sodass ein Keyword-Fokus entsteht.

Folgende Tools und Methoden können zur Keywordrecherche u. a. eingesetzt werden:

  • Google-AdWords-Keyword-Planer (kostenlos, Google Konto für AdWords Anmeldung notwendig. Genaue Zahl der Suchanfragen wird leider nur noch bei laufenden Google AdWords Kampagnen angegeben – aber man enthält auch jetzt noch einen groben Überblick – z. B. 10-100 Suchanfragen).
  • Google Suggest: Die Autocomplete Funktion der Google Eingabe kann verwendet werden, um Longtail Keywords, also Keywords die aus mehreren Begriffen bestehen, zu ermitteln. Denn Google Suggest führt hier immer die wichtigsten Longtail Keywords rund um einen Begriff geordnet nach Trafficvolumen auf.
  • Wettbewerb: Den SEO-Wettbewerb für ein Keyword kann man praktisch nur mit kostenpflichtigen Tools ermitteln. Einen ersten Eindruck erhält man jedoch auch durch einen Blick in die Suchergebnisse, da man hierdurch erfahren kann, wie viele Seitentitel schon auf das jeweilige Keyword optimiert sind.
  • Relevanz: Auch hier hilft ein Blick in die Google Suchergebnisse. Sind beispielsweise Online-Shops mit einem ähnlichen Angebot auf der ersten Seite der Suchergebnisse aufgeführt? Nur wenn das der Fall ist, kann man auch davon ausgehen, dass Google das eigene Angebot für eine entsprechende Suchanfrage ebenfalls als relevant einstuft.

3. Text-Content WDF*IDF (Ausschnitt – Beispiel Modehändler)

Pros:

  • Textlänge: sehr gut (581 Wörter)
  • Automatisch geprüfte Lesbarkeit: gut
  • Keywordhäufigkeit („kleider“ – 201.000 monatliche Suchanfragen): gut (2%)

Cons:

  • Keywordverwendung in Überschriften: keine
  • Keine Verwendung des Longtail-Keywords „elegante kleider“ (12.000 monatliche Suchanfragen) analog des Seitentitels

Eine einleitende Erklärung zur WDF*IDF-Analyse: Die Kernannahme hinter der WDF*IDF-Theorie ist, dass Suchmaschinen die Relevanz von Texten bzw. Seiten zu bestimmten Themen / Keywords durch Begriffscluster bestimmen, also durch das begriffliche Umfeld, in dem ein Keyword fällt – und das sowohl innerhalb als auch außerhalb der Website. Hier wurde eine spezielle Form der WDF*IDF Analyse eingesetzt. Es wurde sowohl der WDF*IDF für den vorliegenden Text (blauer Punkt) als auch für die jeweilige URL (grüner Punkt) ermittelt. Dies hat den Hintergrund, dass es hier einerseits natürlich um die Optimierung des vorliegenden Texte gehen muss, andererseits der Vergleichs-WDF*IDF (hellblauer Bereich: durchschnittlicher WDF*IDF Score des Terms auf Seiten, die diesen Term verwenden) von den toprankenden Seiten nur auf URL – und nicht auf Text-Ebene – ermittelt werden kann. Entscheidend ist also letztendlich die Häufigkeit der Verwendung der Terme auf der gesamten Seite / unter einer spezifischen URL.

WDF*IDF Analyse URL / Text (Keyword: kleider):

Fazit: Der Hauptterm „kleider“ kommt auf der gesamten Seite fast ein wenig zu oft vor. Weitere relevante Begriffe (strickkleid, abendkleid, größen) sollten ergänzt werden. Kannibalisierungseffekte mit der Seite „Alle Kleider“ (https://www.beispiel.de/kollektion/kleider/alle-kleider.html) können u. a. durch eine konsequente Ausrichtung auf Longtail Keywords (Startseite z. B.: elegante kleider – 12.100 monatliche Suchanfragen, „Alle Kleider“ z. B.:  „damen kleider“ – 14.000 monatliche Suchanfragen) verhindert werden.

4. Architektur / URLs (Ausschnitt – Beispiel Online-Shop für Betriebshygiene-Artikel)

Die Architektur des Beispiel Online-Shops ist in Teilen sehr unübersichtlich. Generell würden wir aus SEO-Sicht u. a. zumindest Folgendes empfehlen:

  • Indexierung der Startseite unter https://shop.beispiel.de/ anstelle von https://shop.beispiel.de/de/DE/EUR/ – wenn möglich.
  • Zumindest alle Hauptkategorien (betrifft vor allem die Hauptkategorie: „Produktkategorien“) sollten auf den ersten Blick und ohne Klick auf der Startseite ersichtlich sein. Der Nutzer sollte dabei sofort verstehen, was sich unter einem Obergriff an Kategorien und Produkten befindet.

Besonders dem zweiten Punkt (alle Hauptkategorien auf den ersten Blick ersichtlich) kommt dabei nach unserer Ansicht eine hohe Priorität zu.

So war bei unserem Test in vielen Fällen der Klickpfad für die Produkt- und Kategorieseiten auch vergleichsweise lang:

Der lange Klickpfad bzw. die tiefe Verschachtelung des Beispiel Online-Shops – insbesondere bei der Hauptkategorie: „Produktkategorien“ wirkt sich auch auf die Indexierung aus.

So war in unserem Test die URL / Seite https://shop.beispiel.de/Produktkategorien/Desinfektionsmittel/148730070204.cid/1487.cid/de/DE/EUR/, die das wichtige Keyword „desinfektionsmittel“ (12.100 Suchanfragen) beinhalten würde, nicht in den Google Suchergebnissen indexiert.

In unserem manuellen Test waren auch andere URLs ab der vierten Ebene (4 Klicks) in vielen Fällen nicht mehr in den Google Suchergebnissen indexiert. Betroffen waren z. B. URLs wie:

https://shop.beispiel.de/Produktkategorien/Geschirrreiniger/148738878413.cid/1487.cid/de/DE/EUR/

https://shop.beispiel.de/Produktkategorien/Toilettenpapier/148785828286.cid/1487.cid/de/DE/EUR/

https://shop.beispiel.de/Produktkategorien/Raumduft/148785828218.cid/1487.cid/de/DE/EUR/

Bei den aufgeführten Fällen handelt es sich um Übersichtsseiten, die vom Prinzip her gute Rankingchancen besitzen würden. Ob eine XML-Sitemap dieses Problem lösen kann, müsste getestet werden. Wichtige Übersichts- und Produktseiten können zudem natürlich direkt von der Startseite angelinkt werden, was ihre Indexierung in der Regel gewährleistet (Mehr dazu beim Thema „Interne Verlinkung“).

Auf shop.beispiel.de wurden zudem zahlreiche URLs gefunden, die länger als 100 Zeichen sind – in den Suchergebnissen werden URLs, die länger als 74 Zeichen sind, abgeschnitten.

Generell gilt, dass URLs so kurz wie möglich gehalten werden sollten – nicht zuletzt wegen der Nutzerfreundlichkeit – auch wenn Suchmaschinen-Crawler mit langen URLs in der Regel keine Probleme haben und wir daher diesem Problem auch keinen allzu großen Stellenwert einräumen möchten.

Grundsätzlich ist eigentlich von URLs mit Großbuchstaben abzuraten. Diese führen nicht nur regelmäßig zu falschen Verlinkungen, sondern können auch Duplicate Content verursachen, wobei diesem Problem auf shop.beispiel.de durch rel=“canonical“-Tags vorgebeugt wurde.

Daher würden wir diesem Problem nur eine niedrige bis mittlere Priorität zuweisen, vor allem, weil direkt positive Effekte bei einer aufwendigen Umstellung zweifelhaft sind, auch wenn ein Großteil der URLs von shop.beispiel.de betroffen ist.

5. Duplicate Content (Ausschnitt – Beispiel Online-Shop für Betriebshygiene-Artikel)

Duplicate Content Typ 2 ist nicht über die Navigation erreichbar, sondern auf ihn wird ausschließlich kanonisch (rel=“canonical“) aus dem Quellcode verlinkt, die URL enthält das Kürzel „sk“ und auf der Seiten finden sich in den von uns getesteten Fällen „Technische Informationen“.

Typ 2 – Verlinkung ausschließlich aus dem Quellcode:

Das Problem ist allerdings noch deutlich komplexer, als diese Darstellung vermuten lässt. Geht man nämlich den rel=“canonical“-Tags nach, landet man nicht unbedingt sofort auf einer Seite die direkt anklickbar ist, nein, hier gibt es ein ganzes Geflecht von weiter verweisenden rel=“canonical“-Tags und normalen Links, durch das man einem Pfad suchen muss, bis man schließlich auf einer Seite landet, die normal verlinkt ist und damit letztendlich dafür verantwortlich, dass Google die Seite indexiert.

Unabhängig davon sehen wir aus SEO-Sicht keinerlei Vorteil in der Parallelität dieser URL-Struktur, die ausschließlich über die Google Suchergebnisse aufgrund von kanonischen Verweisen erreichbar ist und mit dem eigentlichen Shop nichts zu tun hat. Man sollte stattdessen versuchen, sich auf eine URL pro Produkt zu konzentrieren und diese möglichst stark zu pushen.

Daher empfehlen wir mit sehr hoher Priorität:

Ausschließlich die URLs, die Teil der Navigationsstruktur des Shops sind, als Ziel von rel=“canonical“-Tags zu verwenden. Die nicht verlinkte parallele URL-Struktur sollte beseitigt werden.

Insgesamt befanden sich bei unserem Test laut dem OnPage.org Tool 439 URLs in dieser nicht verlinkten, aber indexierten Parallelstruktur.

Suchmaschinenoptimierung ist eines der komplexesten Themen im Online-Marketing. Da sie sich ständig weiterentwickelt, wird auch dieses White Paper durchgehend verbessert um bei verschiedenen Google Updates und Trends immer auf dem aktuellen Stand zu sein. Gerne beraten wir Sie als SEO-Experten mit Erfahrung seit 1998 und der erfolgreichen Zusammenarbeit mit über 80 bekannten Marken bei Ihrem Projekt.

Lesen Sie sich in Ruhe unsere SEO-Leistungen durch oder kontaktieren Sie uns direkt über das Kontaktformular. Wir freuen uns von Ihnen zu hören.

Sie haben Fragen?

Rufen Sie mich an unter 
089/381535350
oder schreiben Sie mir:

Über uns

Als mehrfach zertifizierte Agentur bieten wir Leistungen im Online-Marketing mit den Schwerpunkten SEA, SEO, Affiliate-Marketing und digitale Beratung.

Sie haben Fragen? Wir beraten Sie gerne

Ihre Online-Marketing-Agentur in München und Berlin