Der erste Teil unserer Tutorial-Reihe über Suchmaschinenoptimierung behandelt das Thema technisches SEO. Während Teil 2 und Teil 3 auf Inhalte in Form von OnPage-Optimierungen und Reputation-Management im OffPage-Bereich eingehen, befasst sich der erste Teil mit technischen Fragestellungen und Problemen bei der Optimierung einer Webseite – sowohl für Google, als auch für den Nutzer.

Dass die technische Suchmaschinenoptimierung als erster Teil unseres Tutorials auftritt, hat einen bestimmten Grund: Viele Faktoren, die in das technische SEO mit hineinspielen, beginnen bereits vor den anderen Optimierungsmaßnahmen, teilweise sogar schon bei der Registrierung der Domain oder der Konfiguration des Content Management Systems.

Die korrekte Domain wählen

Der Domain-Name war früher ein sehr wichtiger Faktor für die Gewichtung einer Seite in den Google Suchergebnissen. Im Laufe der Zeit wurde Google jedoch immer besser im Erkennen von zuverlässigeren Faktoren, die eine Aussage über die Qualität einer Seite und deren Inhalte zulassen, sodass der Domainname heute nur noch einen geringen Einfluss auf das Ranking hat.

Hostname . Domain . TLD

Hostname . Domain . TLD (by Christian Schmidt)

Nichts desto trotz sollte der Domainname so gewählt werden, dass dieser bereits eine Brand, also eine Marke darstellt, oder dass er dem Suchmaschinennutzer auf der Ergebnisseite bereits mitteilt, welches Thema die Website behandelt. Auf diese Weise kannst du die Klickrate steigern, was zu besseren User Signalen führt und damit auch die Rankings deiner Website positiv beeinflussen kann.

Die Wahl der Top-Level-Domain spielt ebenfalls nur eine sehr geringe Rolle bei der Suchmaschinenoptimierung. Zwar haben länderspezifische Top Level Domains (TLDs) in den jeweiligen Ländern geringe Vorteile, allerdings sind diese so gering, dass im Prinzip jede Top Level Domain, die verfügbar ist, gewählt werden kann. Auch nTLDs, also neue Top-Level-Domains, wie beispielsweise .berlin, .hamburg oder .xyz, können gewählt werden ohne das diese negative Auswirkungen auf das Ranking einer Website haben.

Webhosting – Anbieter und Server-Standort

Die Wahl des richtigen Webhosters ist schwierig, denn es muss ein Mittelweg aus Preis-Leistungs-Verhältnis und Server-Performance / -Ausstattung gefunden werden. Mit einem der großen Anbieter wie Strato, 1&1, All-Inkl. oder einem vergleichbaren Hoster, macht man am Anfang prinzipiell nichts falsch, allerdings gibt es auch hier Unterschiede, was die Service-Qualität und andere Faktoren angeht.

Auch wenn die Internet-Verbindungen immer schneller werden und der folgende Faktor bei großen Seiten kaum mehr ins Gewicht fällt, sollte der Serverstandort des Webhosters unbedingt Deutschland sein, bzw. das Land, indem die Seite hauptsächlich agieren wird. Dies hat in erster Linie Performance-Vorteile, da so keine langen Leitungen durchquert werden müssen, wenn die Inhalte beispielsweise von einem Server in den USA zum Nutzer nach Deutschland ausgeliefert werden..

HTML oder CMS Webseite?

Grundsätzlich spielt es kaum eine Rolle, ob eine Seite auf HTML oder einem Content Management System wie WordPress, Drupal, Typo3 oder einer anderen Software basiert. Für dynamische Websites wie Blogs, Magazine oder Online-Shops eignen sich Content-Management-Systeme (auch CMS gennant) durchaus, da Inhalte sehr leicht eingepflegt werden können und keine HTML- oder CSS-Kenntnisse erforderlich sind.

Reine HTML Seiten wiederum verfügen über den großen Vorteil, dass diese von den Besuchern sehr geladen werden können, da keine Anfragen an eine Datenbank gestellt werden muss und auch auf dem Server keine Scripte irgendwelche Funktionen ausführen müssen. Für einfache Firmenseiten oder statische „Visitenkarten im Netz“ eignen sich deshalb HTML-Seiten hervorragend.

PageSpeed und Mobilfreundlichkeit

Bei, bzw. vor der Erstellung deiner Webseite, ist es wichtig, dass du die Website-Geschwindigkeit (PageSpeed) und die Anpassungsfähigkeit der fertigen Seite an mobile Endgeräte (Mobilfreundlichkeit) im Auge behältst. Diese beiden Faktoren sind für Google Ranking-Kriterien und in der Vergangenheit immer wichtiger geworden. Auch in Zukunft werden diese Faktoren eine große Rolle spielen.

PageSpeed Insights von keywordmonitor.de

PageSpeed Insights von keywordmonitor.de (by Google)

Der PageSpeed ist besonders in der heutigen Zeit wichtig, wo viele Nutzer über mobile Endgeräte auf Websites zugreifen. Mobiles Internet ist oftmals nicht besonders schnell und das begrenzte Datenvolumen der meisten Tarife stellt weitere Anforderungen an die Performance einer Webseite. Wichtige Optimierungspunkte für den PageSpeed sind zum Beispiel:

  • Server-Anfragen (Requests) verringern
  • Caching nutzen (z.B. über PlugIns)
  • Bilder komprimieren (Siehe: Bilder SEO)
  • CSS- und JavaScript-Dateien zusammenfassen

Auch die Mobilfreundlichkeit hat durch das Mobile Friendly Update von Google weitere Bedeutung erhalten. Da bereits heute viele Seiten mehr als die Hälfte ihres Traffics über Mobilgeräte beziehen, gibt Google Webseiten mit einer starken mobilen Version einen Ranking-Vorteil. Bei der Wahl des CMS-Themes sollte deshalb unbedingt auf Responsiveness geachtet werden.

Ob deine Webseite einen guten PageSpeed-Wert besitzt oder nach Googles Auffassung mobil-freundlich ist, lässt sich leicht herausfinden, denn Google stellt hierzu zwei Dienste zur Verfügung: Die PageSpeed Insights und der Test auf Mobilfreundlichkeit.

Robots.txt und .htaccess-Datei

Zwei Dateien, die im Root-Verzeichnis des Website-Servers liegen sollten, sind sehr wichtig für technisches SEO: Die Robots.txt-Datei und die .htaccess-Datei.

Vor allem die Robots.txt-Datei ist wichtig, denn diese bestimmt den Umgang von Crawlern mit deiner Seite. Crawler sind Computerprogramme, die von einem Suchmaschinenbetreiber initialisiert werden, um Websites zu entdecken und in den Suchmaschinen-Index aufzunehmen. Mit Hilfe der Robots.txt-Datei teilst du einem Crawler wichtige Informationen zu deiner Seite mit.

Es kann das Auslesen bestimmter Dateien durch den Crawler verhindert werden wie beispielsweise den AGB oder eines internen Mitgliederbereichs. Unter keinen Umständen sollten jedoch Media Dateien wie Bilder, JavaScript oder CSS blockiert werden, wenn diese für das Rendering einer Unterseite erforderlich sind. Wenn Google eine Seite nicht rendern, also „sehen“ kann, werden diese Seiten entsprechend abgewertet. Eine Robots.txt-Datei könnte folgendermaßen aussehen:

User-Agent: *
Disallow: /wp-admin/
Sitemap: http://www.domain.de/sitemap.xml

Über diese Anweisungen teilst du mit, dass alle Crawler angesprochen werden sollen (User-Agent: *). In der zweiten Zeile folgt die Anweisung, den Ordner /wp-admin/ nicht zu indexieren, da dieser bei WordPress für die Administrationsbereiche reserviert ist. Alle anderen Verzeichnisse werden dann erlaubt. In der letzten Zeile teilen wir dem Crawler die URL unserer Sitemap mit.

Die .htaccess-Datei (für Apache Webserver) dient insofern der Suchmaschinenoptimierung, da mit Hilfe dieser Datei Weiterleitungen von nicht mehr existierenden Unterseiten geschaltet werden können. Wird eine Seite gelöscht, so fließt der auf diese Seite zeigende Linkjuice ins Leere, denn Google wertet überhaupt keine ins Nichts fließenden Links. Umleitungen können folgendermaßen umgesetzt werden:

RedirectPermanent /alte-index.html http://www.meine-domain.de/verzeichnisname/neue-index.html

Zunächst wird der Befehl „RedirectPermanent“ in die Zeile eingegeben und dann, jeweils mit einem Leerzeichen getrennt, erst die alte URL und dann die neue. Es können so viele Weiterleitungen geschaltet werden, wie du möchtest – für jede Weiterleitung muss einfach eine neue Zeile mit neuem Redirect-Befehl angeben werden. Auch absolute Pfade (d.h. mit http:// am Anfang) können eingegeben werden.