SEO, Search Engine Optimization oder zu deutsch: Suchmaschinenoptimierung ist, seit es Google gibt, ein Begriff, mit dem sich Webseiteninhaber beschäftigen. Zumindest sollten sie das, denn die Suchmaschine als Lieferant für qualifizierten Traffic wird immer wichtiger. Schnell ein Restaurant in der Nähe übers Smartphone finden, abends auf der Couch die genau richtigen Anzugschuhe suchen, oder endlich eine ewige Diskussion in der Bar mit einem schnellen Googlen der Informationen beenden.
Was aber tun, wenn die eigene Website erst an abgelegener Stelle (eine Leiche versteckt man am besten auf Seite 2 der Google Ergebnisse, lautet ein altes SEO-Sprichwort), oder gar nicht gefunden wird? Ein Profi muss her, denken sich viele – und oft stimmt das auch. Aber ein paar kleine Checks lassen sich schon selber machen.
NOINDEX, NOFOLLOW: NO TRAFFIC
Als erstes sollte überprüft werden, ob die Website überhaupt von Google indexiert ist, sprich ob Google die eigene Website überhaupt in einer Suche berücksichtigt. Das lässt sich mit einer einfachen Abfrage machen:
site:deinedomain.com (deinedomain.com bitte durch die eigene Domain ersetzen) in die Suchmaschine getippt, schon erscheinen alle indexierten Seiten. Oder eben keine – dann ist die abgefragte Website nicht indexiert. Sollte das der Fall sein, sofort an den Webmaster wenden und nachfragen! Seiten lassen sich übrigens auch ganz gezielt aus der Suchmaschine ausschließen. Zum Beispiel das Impressum, oder eine Datenschutzerklärung – diese haben für den Kunden im Suchprozess meist keinen Mehrwert, und können ganz bewusst “aus dem Index” genommen werden.
ERROR 404: PAGE NOT FOUND… BY CLIENT
Wenn die eigene Website oder der Online Shop zwar indexiert, aber zu den wichtigsten Suchbegriffen nicht gefunden wird, muss die SEO-Trickkiste her. Hier fangen auch die Profis meist mit einfachen technischen Checks an, die im Normalfall einfach beim Webmaster angefordert oder selbst durchgeführt werden können.
- Gib dem Crawler Zucker: Der sogenannte Crawler (oder auf gut deutsch die Suchmaschine) benötigt Hilfe beim Lesen der Seite. Um es ihm so einfach wie möglich zu machen, auf alle relevanten Informationen zuzugreifen, gibt es robots.txt und XML Sitemap Dateien. robots.txt verrät dem Crawler, was er überhaupt lesen soll, die Sitemap sagt diesem, wie ein Inhaltsverzeichnis wo es lang geht. Der gängigste Weg, diese beiden Dateien zu überprüfen, ist es nach der domain URL /robots.txt bzw. /sitemap.xml einzugeben. Manchmal heißt die Sitemap auch anders, das sollte dann in der robots.txt Datei vermerkt sein.
- Auf die Metaebene: Tags & Descriptions. Zumindest Title-Tag und Meta-Description jeder Seite sollten gepflegt sein. Bei dieser Gelegenheit können auch die Alt- und Title-Tags von Bildern überprüft werden!
- Better safe than sorry – https. Das “s” hinter dem http verspricht, dass Daten der Website verschlüsselt übergeben werden. Das ist nicht nur dem User, sondern auch der Suchmaschine sehr wichtig.
- Faster, better, stronger. Lange Ladezeiten sind nicht nur für den Besucher nervtötend, sondern werden auch von der Suchmaschine nicht gerne gesehen.
- Funktionieren alle Seiten, Formulare und Co.? Hier kommt der Hausverstand ins Spiel – durchklicken und testen lautet die Devise, wenn keine Tools für diesen Zweck zur Verfügung stehen.
- Mobile first war 2017. Und ist immer noch wichtig – eine moderne Website sollte auf allen Geräten problemlos funktionieren, gut lesbar und übersichtlich sein.
DANN WÄRE DA NOCH DIE KLEINIGKEIT MIT DEM CONTENT… UND DEN USERN
Ist die Website technisch auf einem Stand mit dem sich arbeiten lässt, gehts an den Inhalt. Hier wird es für den Laien zugegebenermaßen schwierig zu optimieren. Aber auf was kommt es an?
- Blinded by the Company. Ein häufiger Fehler in der Erstellung von Websites ist die berühmte Unternehmensblindheit. Für wen ist die Seite gemacht? Versteht die Zielgruppe die abgebildeten Informationen auch?
- Struktur! Einfache Navigation, eine logische Seitenstruktur und das “Führen” des Besuchers auf der Website sollten die Grundsätze beim Erstellen des Content sein. Hier hilft es oft, einen externen User über die Seite schauen zu lassen und seine Gedanken als Feedback aufzunehmen.
- Ordnung! Nicht nur die Navigation, auch jede Unterseite sollte einem logischen Aufbau folgen. Faustregel: eine einzige Hauptüberschrift (H1), darunter Content gegliedert nach untergeordneten Überschriften.
- Richtig guter Content ist Key(words). Guter, lesbarer und auch für die Suchmaschine wertvoller Content beginnt immer noch mit bei den Keywords und dem klugen Einsatz dieser. Keyword-Recherche und professioneller Einsatz dieser (inkl. Variationen) im Inhalt sind unabdingbar.
- Funktionieren alle Seiten, Formulare und Co.? Hier kommt der Hausverstand ins Spiel – durchklicken und testen lautet die Devise, wenn keine Tools für diesen Zweck zur Verfügung stehen.
- Mobile first war 2017. Und ist immer noch wichtig – eine moderne Website sollte auf allen Geräten problemlos funktionieren, gut lesbar und übersichtlich sein.
DIE ZAUBERFORMEL FÜR DIE SUCHMASCHINENOPTIMIERUNG…
…gibt es nicht. Grundsätzlich weiß nur Google selbst ganz genau, wie welcher Faktor gewichtet und wo Seiten zu Keywords indexiert werden. Userorientierte, responsive, funktionale, einfach zu bedienende Websites mit unterhaltsamem & informativem Content sind der Schlüssel zu Erfolg im Web. Websites werden immer noch für den User gebaut, und nicht für die Suchmaschine – und das ist paradoxerweise auch der beste Weg zur guten Position in eben dieser.
Vieles lässt sich mit etwas Verständnis für die Funktionsweise von Suchmaschinen im Jahr 2018 regeln, doch oft braucht es einen Fachmann, um die kleinen Stellschrauben zu finden und einzustellen. Wir machen das übrigens gerne.