SEO mit bitfolge – mit simple and nice index files (snif)

Suchmaschinen-Rankings sind ein Spiel, bei dem man alles gewinnt. Die ersten drei Ergebnisse haben Klickraten von 30 % – 10 %; bei Position neun ist das auf nur 2 % gesunken. Wenn Ihre Website bei relevanten Suchbegriffen nicht auf Seite eins erscheint, erreicht sie nicht ihr volles Potenzial.

An dieser Stelle kommt die Suchmaschinenoptimierung (SEO) ins Spiel.

 

Was ist Suchmaschinenoptimierung mit simple and nice index files (snif)?

SEO ist der Sammelbegriff für alles, was Marken tun, um organischen Traffic von Suchmaschinen auf ihre Websites zu bekommen. SEO umfasst sowohl technische Aspekte wie die Architektur der Website als auch phantasievollere Elemente wie die Erstellung von Inhalten und die Benutzererfahrung.

Klingt relativ einfach. Aber SEO ist ein bewegliches Ziel, selbst für erfahrene digitale Vermarkter. Mythen gibt es im Überfluss, Algorithmen ändern sich, und SEO-Taktiken, die einmal funktioniert haben, können Ihnen plötzlich eine Strafe einbringen. Um eine Website optimiert zu halten, benötigen Sie fundierte Kenntnisse darüber, wie Suchmaschinen “denken” und wie echte Menschen mit Ihren Webinhalten denken und reagieren. Durch diese Mischung aus Benutzerfreundlichkeit, Website-Architektur und Inhaltserstellung fühlt sich die Suchmaschinenoptimierung wie ein Hybrid an.

Für folgende Städte bieten wir SEO unter Berücksichtigung von simple and nice index files (snif) an:

SEO Heidelberg

SEO Mannheim

SEO Frankfurt

SEO Mainz

SEO Wiesbaden

SEO Heilbronn

SEO Karlsruhe

SEO Aschaffenburg

SEO Augsburg

SEO Freiburg

SEO Koblenz

SEO Nürnberg

SEO Regensburg

SEO Rosenheim

SEO Saarbrücken

SEO Trier

SEO Ulm

SEO Würzburg

Wie Suchmaschinen funktionieren:

Allein Google bearbeitet über 3,5 Milliarden Suchanfragen pro Tag. Die Suchmaschine durchkämmt die geschätzten 1,9B Websites der Welt und liefert relevante Ergebnisse in weniger als 0,5 Sekunden. Was geht also hinter den Kulissen vor sich?

Um relevante Ergebnisse zurückzugeben, muss eine Suchmaschine drei Dinge tun:

  • eine Liste oder einen Index von Seiten im Web erstellen
  • Sofortiger Zugriff auf diese Liste
  • Entscheiden, welche Seiten für jede Suche relevant sind

In der Welt der SEO wird dieser Prozess normalerweise als Crawling und Indexierung beschrieben.

 

Crawling und Indizierung – Vorwort zu snif (simple and nice index files)

Das Web besteht aus einer immer größer werdenden Masse von Seiten, die durch Links miteinander verbunden sind. Suchmaschinen müssen diese Seiten finden, verstehen, was sich auf ihnen befindet, und sie in einer riesigen Datenhorde, einem so genannten Index, speichern.

Zu diesem Zweck verwenden sie Bots – bekannt als Spider oder Crawler – um das Web nach gehosteten Domains zu durchsuchen. Die Crawler speichern eine Liste aller Server, die sie finden, und der auf ihnen gehosteten Websites. Dann besuchen sie systematisch jede Website und “crawlen” sie nach Informationen, wobei sie Inhaltsarten (Text, Video, JavaScript usw.) und die Anzahl der Seiten registrieren. Schließlich verwenden sie Code-Tags wie HREF und SRC, um Links zu anderen Seiten zu erkennen, die sie dann in die Liste der zu durchsuchenden Websites aufnehmen. Dadurch können die Spider ein immer größeres Netz von indizierten Seiten weben, von Seite zu Seite hüpfen und sie in den Index aufnehmen.

Suchmaschinen speichern diese Informationen in riesigen physischen Datenbanken, aus denen sie Daten abrufen, wenn jemand eine Suche durchführt. Google verfügt über Rechenzentren auf der ganzen Welt; ihr Mammutzentrum in Pryor Creek, Oklahoma, hat eine geschätzte Fläche von 980.000 Quadratmetern. Dieses Netzwerk ermöglicht es Google, Milliarden von Seiten auf vielen Rechnern zu speichern.

Suchmaschinen crawlen und indizieren kontinuierlich und behalten dabei den Überblick über neu hinzugefügte Seiten, gelöschte Seiten, neue Links und frischen Content. Wenn eine Person eine Suche durchführt, hält die Suchmaschine einen vollständig aktualisierten Index mit Milliarden möglicher Antworten für den Suchenden bereit.

Alles, was noch zu tun bleibt, ist, diese Ergebnisse nach Relevanz und Qualität zu ordnen.

 

Wie Suchmaschinen relevante Ergebnisse einstufen

Wenn ein Suchbegriff Hunderttausende von Ergebnissen liefert, wie entscheidet eine Suchmaschine, in welcher Reihenfolge sie dem Suchenden am besten angezeigt wird?

Die Ermittlung relevanter Ergebnisse wird nicht von einem Team von Menschen im Hauptquartier der Suchmaschine durchgeführt. Stattdessen verwenden Suchmaschinen Algorithmen (mathematische Gleichungen und Regeln), um die Absicht des Suchenden zu verstehen, relevante Ergebnisse zu finden und diese Ergebnisse dann nach Autorität und Popularität zu ordnen.

Um Black-Hat-SEO zu stoppen, sind Suchmaschinen bekanntlich nicht bereit, die Funktionsweise ihrer Ranking-Algorithmen offenzulegen. Dennoch wissen Suchmaschinenvermarkter, dass algorithmische Entscheidungen auf über 200 Faktoren basieren, darunter die folgenden:

  • Inhaltstyp: Suchende suchen nach verschiedenen Arten von Inhalten, von Videos und Bildern bis hin zu Nachrichten. Suchmaschinen priorisieren verschiedene Arten von Inhalten je nach Absicht.
  • Qualität des Inhalts: Suchmaschinen geben nützlichen und informativen Inhalten den Vorrang. Das sind subjektive Maße, aber SEO-Fachleute verstehen darunter im Allgemeinen Inhalte, die gründlich, originell, objektiv und lösungsorientiert sind.
  • Inhaltliche Frische: Suchmaschinen zeigen den Suchenden die neuesten Ergebnisse, ausgewogen gegen andere Ranking-Faktoren. Von zwei Stücken, die vom Algorithmus als qualitativ gleichwertig beurteilt werden, erscheint das jüngste Stück wahrscheinlich zuerst.
  • Popularität der Seite: Google verwendet immer noch eine Variante seines ursprünglichen PageRank-Algorithmus aus den 1990er Jahren, der die Qualität einer Seite anhand der Anzahl der auf sie verweisenden Links und der Qualität dieser Links beurteilt.
  • Qualität der Website: Schlechte Qualität: Spam-geplagte Websites werden von Suchmaschinen in den Rankings nach unten gerückt (mehr dazu weiter unten).
  • Sprache: Sprache: Nicht jeder sucht auf Englisch. Suchmaschinen priorisieren Ergebnisse in derselben Sprache wie der Suchbegriff.
  • Standort: Viele Suchanfragen sind lokal (z.B. “Restaurants in meiner Nähe”); Suchmaschinen verstehen dies und priorisieren lokale Ergebnisse, wenn dies angemessen ist.

Wenn diese Faktoren berücksichtigt werden, können Suchmaschinenvermarkter Inhalte erstellen, die von Suchmaschinen mit größerer Wahrscheinlichkeit gefunden und eingestuft werden.

 

Arten von Suchergebnissen

In den frühen Tagen der Suche wurden die Ergebnisse als einfache Liste mit beschreibenden Schnipseln und Links präsentiert, wie wir auf dem vorherigen Bild gesehen haben. In den letzten Jahren wurden diese Standardergebnisse durch SERP-Features, angereicherte Ergebnisse, die Bilder und Zusatzinformationen enthalten, ergänzt. Wenn wir zum Beispiel nach Philz Coffee New England Patriots suchen, erscheint ein Merkmalsergebnis mit zusätzlichen Informationen, die für den Suchenden von Interesse sein könnten:

Sie können nicht garantieren, dass Ihre Website zusätzliche SERP-Funktionen erhält, aber Sie können dazu beitragen, Ihre Chancen zu erhöhen, indem Sie

Erstellen Sie eine Site-Struktur, die sowohl für Suchmaschinen als auch für Benutzer sinnvoll ist.
Strukturieren Sie Ihren Inhalt auf der Seite so, dass er sowohl für Suchmaschinen als auch für Benutzer scannbar ist.
Die Verwendung von Schema-Markup oder strukturiertem Code, der Crawlern hilft, eine Website besser zu verstehen.

Zu den häufigsten organischen SERP-Funktionen gehören die folgenden:

  • Rich Snippet: Zusätzliche visuelle Komponente in einem traditionellen Ergebnis (z.B. Bewertungssterne für eine Restaurantauflistung). rezeptreiches Snippet
  • Featured Snippet: Hervorgehobener Block am oberen Rand der Suchergebnisseite, oft mit einer zusammengefassten Antwort auf eine Suchanfrage und einem Link zur Quell-URL.
  • Leute fragen auch: Diese auch als verwandte Fragen bezeichneten Fragen sind ein Block mit erweiterbaren verwandten Fragen, die von den Suchenden gestellt werden. people also ask
  • Wissenskarten: Rechtsbündige Tafeln mit Schlüsselinformationen zu einem Suchbegriff. Das Philz Coffee-Beispiel von oben zeigt eine Wissenstafel mit ihrem Logo, Firmeninformationen und sozialen Profilen.
  • Image Packs (Karussells): Horizontale Reihe von Bild-Links, die für Suchen erscheinen, bei denen visuelle Inhalte nützlich sind. karussell in search
  • Sofortige Antworten: Diese Ergebnisse werden angezeigt, wenn Google eine schnelle Antwort auf eine Suchanfrage geben kann, z. B. wenn Sie nach dem Wetter suchen, wo Sie sich gerade befinden. Im Gegensatz zu den vorgestellten Snippets gibt es keinen Link zu einer Quell-Website. sofortige Antworten bei der Suche

Suchmaschinen priorisieren die Rückgabe relevanter, qualitativ hochwertiger Inhalte auf der Grundlage der Wörter, die von Personen verwendet werden, die online nach Informationen suchen. Sie tun dies, indem sie alle Seiten, die sie finden können, indexieren, Algorithmen um die Relevanz herum aufbauen und die Ergebnisse auf verschiedene Arten präsentieren, die für die Suchabsicht am relevantesten sind.

Wenn Sie verstehen, wie Suchmaschinen Webseiten finden und bewerten, sind Sie besser in der Lage, Websites zu erstellen, die ein höheres Ranking und mehr Verkehr erhalten. Dazu benötigen Sie eine Strategie, die auf drei Arten von SEO basiert: technisch, on page und off page.

 

Was ist technisches SEO mit snif – simple and nice index files

Technisches SEO – die Kunst, eine Website für das Crawling und die Indizierung zu optimieren – ist ein wichtiger Schritt, um eine Website auf einen höheren Rang zu bringen. Wenn Sie eine Website auf wackeligen technischen Grundlagen aufbauen, werden Sie wahrscheinlich keine Ergebnisse sehen, egal wie hochwertig Ihr On-Page-Content ist. Das liegt daran, dass Websites so aufgebaut sein müssen, dass Crawler auf den Inhalt zugreifen und ihn “verstehen” können. Aus diesem Grund sind snif, also simple and nice index files mithilfe von HTML, CSS etc. so wichtig:

Technisches SEO hat nichts mit der Erstellung von Inhalten, Link-Building-Strategien oder Content-Promotion zu tun. Stattdessen konzentriert sie sich auf die Website-Architektur und -Infrastruktur. Da Suchmaschinen immer “intelligenter” werden, müssen sich technische SEO-Best-Practices anpassen und immer ausgefeilter werden. Dennoch gibt es einige grundlegende Konstanten der technischen SEO, die es zu berücksichtigen gilt.

URL-Hierarchie und -Struktur

Es ist wichtig, eine Website-weite URL-Struktur zu definieren, die für Crawler zugänglich und für Benutzer nützlich ist. Das bedeutet nicht, dass Sie jede einzelne Seite, die Ihre Website jemals haben wird, abbilden müssen; das wäre unmöglich. Aber es bedeutet, einen logischen Fluss von URLs zu definieren, der von domaUrl-Struktur

Websites, die diesen Schritt überspringen, enden mit einer Masse von unintuitiven Subdomains und “verwaisten Seiten” ohne interne Links. Dies ist nicht nur für Benutzer ein Albtraum; es verwirrt auch die Crawler und erhöht die Wahrscheinlichkeit, dass sie die Indizierung Ihrer Seite aufgeben.

Auf granularer Ebene sollten SEO-freundliche URLs so strukturiert sein, dass sie den Inhalt der Seite sowohl für Crawler als auch für Benutzer beschreiben. Das bedeutet, dass wichtige Suchbegriffe so nah wie möglich an der Root-Domain eingefügt werden und die URL-Länge auf 60 Zeichen oder 512 Pixel beschränkt wird. Wenn sie richtig optimiert sind, wirken URLs als positiver Ranking-Faktor für Crawler und motivieren Benutzer zum Durchklicken.

Geschwindigkeit der Seite

Je schneller eine Webseite geladen wird, desto besser für die Platzierung in Suchmaschinen. Dies beruht auf der Präferenz der Benutzer für blitzschnelles Laden: 40% der Suchenden brechen eine Seite ab, deren Laden länger als drei Sekunden dauert.

Die technische SEO konzentriert sich darauf, den Einsatz von Elementen zu reduzieren, die das Laden der Seite verlangsamen. Das bedeutet, dass Plug-ins, Tracking-Codes und Widgets auf ein Minimum reduziert werden müssen und Bilder/Videos in Größe und Gewicht komprimiert werden müssen. Online-Vermarkter und Designer müssen zusammenarbeiten, um ein Seitendesign zu erreichen, das alle notwendigen Designfunktionen enthält, aber dennoch in weniger als drei Sekunden geladen wird.

XML-Sitemaps

Eine XML-Sitemap ist eine Datei, die alle Seiten einer Website auflistet, einschließlich der Blog-Einträge. Suchmaschinen verwenden diese Datei beim Crawlen des Inhalts einer Website, daher ist es wichtig, dass die Sitemap keine Seiten enthält, die Sie nicht in den Suchergebnissen einordnen möchten, wie z. B. Autorenseiten.

HTTP oder HTTPs?

Wenn Sie auf einer Webseite surfen, online bezahlen oder persönliche Daten in ein Webformular eingeben, senden Sie Informationen über das Internet. In den frühen Tagen verwendeten die Server ein System namens HTTP, Hypertext Transfer Protocol. HTTP ist ein schneller Weg, um Daten zu senden, aber es ist nicht sicher, da Ihre Verbindung zur Website nicht verschlüsselt ist. Das bedeutet, dass Dritte auf Ihre Daten zugreifen können.

Aus diesem Grund kündigte Google 2014 an, dass Websites, die mit HTTPS (Secure Hypertext Transfer Protocol) betrieben werden, einen kleinen Rankingaufschwung erhalten würden. HTTPS verschiebt Daten zwischen Browsern auf die gleiche Weise wie HTTP, aber mit einem zusätzlichen Protokoll auf der obersten Ebene – SSL, einem Secure Sockets Layer, der Daten verschlüsselt und sicher über das Web transportiert.

All dies kann für Suchmaschinen-Neulinge überwältigend klingen. Der Vorteil ist, dass es für Ihre Website besser ist, vom ersten Tag an für HTTPS ausgelegt zu sein oder auf HTTPS umzustellen.

AMP

AMP (Accelerated Mobile Pages ) ist eine von Google gesponserte Open-Source-Plattform, die es ermöglicht, Website-Inhalte fast augenblicklich auf mobilen Geräten darzustellen. Inhalte, die einst langsam auf Mobilgeräten geladen wurden – Videos, Anzeigen, Animationen – werden jetzt schnell geladen, unabhängig davon, welches Gerät die Besucher verwenden.

Die Auswirkungen auf SEO sind zweifacher Art. Erstens verlassen Benutzer Websites, deren Ladezeiten länger dauern, wie wir bereits wissen, und mobile Benutzer benötigen noch schnellere Ladezeiten. Wenn Ihre Website nur langsam auf Mobilgeräten geladen wird, erhöht sich die Absprungrate, und das wirkt sich negativ auf die Rankings aus. Zweitens gibt es Hinweise darauf, dass Suchmaschinen (zumindest Google) AMP-optimierten Ergebnissen in den Rankings Vorrang einräumen.

Crawler “verstehen” Inhalte nicht wie ein menschliches Gehirn; sie benötigen bestimmte technische Strukturen und Markierungen, um Ihre Inhalte effektiv einzuordnen. Glücklicherweise geben Suchmaschinen selbst Tipps, wie die technische SEO einer Website verbessert werden kann – schauen Sie sich unsere Infografik zum technischen SEO-Audit hier an.