Zuletzt aktualisiert vor 31 Mai, 2023 | Veröffentlicht: 16 März, 2023
Nur wer für seine Zielgruppe relevante Texte schreibt und aus der Masse der Suchergebnisse heraussticht, erreicht eine hohe Sichtbarkeit bei seiner Zielgruppe. Gezielte Suchmaschinenoptimierung (Search Engine Optimization, SEO) bildet die Grundlage, in der organischen Suche sehr weit oben zu ranken.
SEO basiert auf vier Säulen. Sind alle gut gepflegt und optimiert, steigt die Relevanz Ihrer Inhalte automatisch – und Google belohnt dies mit einem entsprechenden Ranking. Die vier Säulen gezielter SEO sind:
- Säule 1: Technische SEO
- Säule 2: Domain-Autorität
- Säule 3: Relevanz
- Säule 4: Benutzererfahrung (UX) und Benutzerfreundlichkeit
Im ersten Teil unserer 4-teiligen Serie zeigen wir Ihnen, wie technische SEO die optimalen Voraussetzungen für ein gutes Ranking schafft. Unter technischer SEO versteht man in erster Linie die technische Optimierung Ihrer Webseite. Im Folgenden stellen wir Ihnen die neun wichtigsten Faktoren der technischen Suchmaschinenoptimierung vor. Diese sind:
1. Gute Seitengeschwindigkeit
Die Google User Experience kombiniert die Core Web Vitals mit den bereits vorhandenen Suchkriterien. Dazu gehören Mobilfreundlichkeit, sicheres Browsing, HTTPS-Sicherheit sowie Cookie und Tracking Richtlinien.
Die Core Web Vitals von Google bestehen aus drei Faktoren:
- Der First Input Delay (FID) analysiert, wann jemand zum ersten Mal mit einer Seite interagieren kann. Um ein gutes Nutzererlebnis zu gewährleisten, sollte die Seite eine FID von weniger als 100 ms haben.
- Largest Contentful Paint (LCP) misst die Ladeleistung des größten inhaltsreichen Elements auf dem Bildschirm. Dies sollte innerhalb von 2,5 Sekunden geschehen, um ein gutes Benutzererlebnis zu gewährleisten.
- Cumulative Layout Shift (CLS) misst die visuelle Stabilität der Elemente auf dem Bildschirm. Setzen Sie sich eine CLS von weniger als 0,1 Sekunden zum Ziel.
Diese Rankingfaktoren können in einem Bericht in der Google Search Console gemessen werden. Doch die verschiedenen Fehlermeldungen und Warnungen der Core Web Vitals sind für nicht-Informatiker häufig schwer zu interpretieren. Fehlermeldungen wie „Browserseitig cachen“ sind oftmals nicht selbsterklärend. Die rellify One-Click-Analyse bietet hier Unterstützung: Mit nur einem Klick können Sie Ihre Domain kostenlos analysieren lassen. Innerhalb weniger Tage erhalten Sie einen detaillierten Bericht mit allen identifizierten Problemen samt entsprechenden Erläuterungen und Empfehlungen. Gute Core Web Vitals werden durch eine Gesamtbewertung ab 75 % definiert.
2. Crawlen Sie Ihre Webseite
Stellen Sie sicher, dass Ihre Webseite frei von Crawling-Fehlern ist. Crawling-Fehler treten auf, wenn eine Suchmaschine versucht, eine Seite Ihrer Webseite zu erreichen, dies aber nicht gelingt. Um Ihre Seite zu crawlen, verwenden Sie Tools wie z. B. Screaming Frog SEO Spider, Lumar oder seoClarity. Ebenfalls eignet sich die Google Search Console. Haben Sie Ihre Seite gecrawlt, suchen Sie nach Crawling-Fehlern. Um die Fehler zu beheben achten Sie auf folgende Punkte:
- Setzen Sie alle Weiterleitungen korrekt mit 301-Weiterleitungen um
- Prüfen Sie alle 4xx- und 5xx-Fehler und richten die korrekte Weiterleitung ein
- Suchen Sie nach Umleitungsketten oder Schleifen, bei denen URLs mehrfach auf eine andere URL umgeleitet werden.
3. Beheben Sie fehlerhafte interne und externe Links
Eine schlechte Linkstruktur kann sowohl für den Benutzer als auch für Suchmaschinen zu einem schlechten Nutzererlebnis führen. Für den Benutzer ist es frustrierend, wenn ein Link nicht funktioniert oder auf eine falsche Seite führt.
Achten Sie daher auf folgende Faktoren:
- Links, die per 301 oder 302 auf eine andere Seite umgeleitet werden
- Links, die zu einer 4XX-Fehlerseite führen
- Verwaiste Seiten (Seiten, auf die überhaupt nicht verlinkt wird)
- Eine zu tiefe interne Linkstruktur
Um defekte Links zu beheben, aktualisieren Sie die Ziel-URL oder entfernen Sie den Link komplett.
4. Entfernen Sie doppelte Inhalte
Stellen Sie sicher, dass es auf Ihrer Webseite keine doppelten oder sich kannibalisierenden Inhalte gibt. Doppelte Inhalte können durch viele Faktoren entstehen, z. B. durch mehrere Versionen einer Seite, verschobene oder kopierte Inhalte. Es ist wichtig, dass Google nur eine Version Ihrer Webseite indizieren kann. Suchmaschinen sehen z. B. die folgenden Domains als verschiedene Webseiten und nicht als eine Webseite an:
- https://www.rellify.dev
- https://rellify.dev
- http://www.rellify.dev
- http://rellify.dev
Die Beseitigung doppelter Inhalte kann auf folgende Weise erfolgen:
- Richten Sie 301-Weiterleitungen zur Primärseite Ihrer URL ein. Ist Ihre Primärseite https://www.rellify.dev, sollten die anderen drei Seiten per 301-Weiterleitung direkt auf die Primärseite verweisen.
- Einrichten von no-index- oder canonical-Tags auf doppelten Seiten
- Einrichten der bevorzugten Domain in der Google Search Console
- Einrichten der Parameterbehandlung in der Google Search Console
- Löschen von doppeltem Inhalt, wo immer möglich
5. Migrieren Sie Ihre Webseite auf das HTTPS-Protokoll
Bereits 2014 gab Google bekannt, dass das HTTPS-Protokoll ein technischer SEO-Rankingfaktor ist. Basiert Ihre Webseite im Jahr 2023 immer noch auf HTTP, ist es absolut an der Zeit für eine Migration. HTTPS schützt die Daten Ihrer Besucher und sorgt dafür, dass die Daten verschlüsselt werden, um Hackerangriffe oder Datenverluste zu verhindern.
6. Stellen Sie sicher, dass Ihre URLs eine saubere Struktur haben
Laut Google sollte „die URL-Struktur einer Webseite … so einfach wie möglich sein“. Zu komplexe URLs können den Crawlern Probleme bereiten: Denn sie erzeugen eine unnötig hohe Anzahl von URLs, die auf identische oder ähnliche Inhalte Ihrer Webseite verweisen. Infolgedessen ist der Google-Bot möglicherweise nicht in der Lage, den gesamten Inhalt Ihrer Webseite vollständig zu indizieren. Dies könnte folgende Gründe haben:
Sortierungsparameter: Einige große Shopping-Websiten bieten mehrere Möglichkeiten, dieselben Artikel zu sortieren, was zu einer viel höheren Anzahl von URLs führt. Ein Beispiel hierfür ist „http://www.example.com/results?search_type=search_videos&search_query=tpb&search_sort=relevance&search_category=25“
Irrelevante Parameter in der URL: Ein Beispiel hierfür sind Referenzparameter, wie in http://www.example.com/search/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&clickPage=OPD+Produkt+Seite&cat=79
Wenn möglich, sollten Sie URLs kürzen, indem Sie diese unnötigen Parameter entfernen.
7. Stellen Sie sicher, dass Ihre Webseite eine optimierte XML-Sitemap hat
XML-Sitemaps informieren Suchmaschinen über die Struktur Ihrer Webseite und darüber, was in den Suchergebnissen (SERPs, Search Engine Result Pages) indiziert wird. Eine optimierte XML-Sitemap sollte Folgendes enthalten:
- Alle neuen Inhalte, die zu Ihrer Webseite hinzugefügt wurden (aktuelle Blogbeiträge, Produkte usw.)
- Nur URLs mit dem Status 200
- Nicht mehr als 50.000 URLs. Wenn Ihre Webseite mehr URLs hat, sollten Sie mehrere XML-Sitemaps erstellen, um den Crawl-Erfolg zu maximieren.
Schließlich sollten Sie den Speicherort der XML-Sitemap in die robots.txt-Datei aufnehmen. Sie können den robots.txt-Tester von Google verwenden, um zu prüfen, ob Ihre Datei korrekt funktioniert.
8. Stellen Sie sicher, dass Ihre Webseite eine optimierte robots.txt-Datei hat
Robots.txt-Dateien sind Anweisungen für Suchmaschinenroboter, wie sie Ihre Webseite crawlen sollen. Jede Webseite hat ein „Crawl-Budget“, d. h. eine begrenzte Anzahl von Seiten, die in einen Crawl einbezogen werden können. Daher werden nur Ihre wichtigsten Seiten indexiert.
Andererseits sollten Sie darauf achten, dass Ihre robots.txt-Datei keine Seiten blockiert, die Sie unbedingt indizieren möchten. Hier sind einige Beispiel-URLs, die Sie in Ihrer robots.txt-Datei vermeiden sollten:
- Temporäre Dateien
- Verwaltungsseiten
- Einkaufswagen- und Kassenseiten
- Suchbezogene Seiten
- URLs, die Parameter enthalten
Schließlich sollten Sie den Speicherort der XML-Sitemap in die robots.txt-Datei aufnehmen. Sie können den robots.txt-Tester von Google verwenden, um zu prüfen, ob Ihre Datei korrekt funktioniert.
9. Fügen Sie strukturierte Daten oder Schema-Markup hinzu
Strukturierte Daten helfen dabei, Informationen über eine Seite und deren Inhalt bereitzustellen. Sie geben Google Aufschluss über die Bedeutung einer Seite und helfen, ihre organischen Einträge in den Suchergebnissen hervorzuheben. Eine der gebräuchlichsten Arten von strukturierten Daten ist das Schema-Markup.
Es gibt viele Arten von Schema-Markup zur Strukturierung von Daten über Personen, Orte, Organisationen, lokale Unternehmen, Bewertungen und vieles mehr. Sie können das Google-Tool zum Testen strukturierter Daten verwenden, um Schema-Auszeichnungen für Ihre Webseite zu erstellen.
Ausblick – Säule 2: Domain-Autorität
Im nächsten Beitrag unserer vierteiligen Serie widmen wir uns der Domain Authority, bzw. Domain Authorität. Mit anderen Worten, wie Sie die Relevanz erhöhen können, indem Sie relevante Quellen auf sie verweisen lassen und umgekehrt.
Wollen Sie mit rellify™ Content Intelligence relevantere Inhalte anbieten?
Dann sprechen Sie mit unseren Beratern: