Google wird immer besser darin, Webseiten so zu beurteilen, wie auch ein menschlicher User sie zu Gesicht bekommt. Um eine Seite optimal indexieren zu können, braucht der Googlebot daher freien Zugriff auf alle wichtigen Ressourcen, die zum Rendern benötigt werden. Häufig aber werden JavaScript- oder CSS-Dateien blockiert, was sich negativ auf Crawling, Indexierung und Ranking auswirken kann.
11. Google «sieht» also so gut wie ein moderner Browser
Aber eben auch so schlecht…
Google versteht nicht jede Technologie!
Daher: Macht es dem Googlebot leicht!
Accessibility! Mobile First!
12. Worauf achten?
Schnelle Ladezeiten = effiziente Indexierung!
Download unnötiger Ressourcen vermeiden
CSS- und JS-Ressourcen komprimieren
Webserver konfigurieren für Komprimierung (gzip)
Serverlast wird steigen!