R-Skripte für effizientere SEO-Arbeit

JavaScript SEO: Pre- vs. Post-Rendering-Abgleich von Screaming-Frog-Crawls mit R

Patrick Lürwer: Javascript SEO: Pre- vs. Post-Rendering-Abgleich von Screaming-Frog-Crawls mit R

tl;dr Der Blogbeitrag beschreibt ein Framework in Form eines R-Skripts, das ich zum Analysieren von Screaming-Frog-Crawls verwende. Dazu wird die entsprechende Website mit aktiviertem und deaktiviertem JavaScript-Rendering gecrawlt. Die Crawls werden dann in R eingelesen und um einige Metriken angereichert: Indexierbarkeit von Seiten Segmentierung der URLs Google-Analytics-Daten (hier: PageViews) Google-Search-Appearance-Daten (hier: Impressions, Clicks) Interner PageRank der URLs Interne Links werden … Read More

SEO-Monitoring mit Screaming Frog & R: Websiteveränderungen ermitteln

Der Kollege Stefan Keil ist in seinem Blogpost bereits auf SEO-Alerting mittels Testomato eingegangen. Während es sich beim Alerting um ein proaktives Warnsystem handelt, das sofort anschlägt, wenn ein Fehler an meiner Website auftritt, geht es beim SEO-Monitoring darum, wöchentlich über den Status des Systems informiert zu werden. Neben den wöchentlichen Reports aus der GSC, Sistrix und Google Analytics schauen … Read More

Google Search Console & R: Nicht relevante Crawling-Fehler automatisch beheben & löschen

Bei get:traction gehen wir üblicherweise so vor, dass wir bei Neukunden erst einmal einen Blick in die Google Search Console (GSC) werfen, um uns bspw. einen Überblick über die dort aufgeführten Crawling-Fehler zu verschaffen. Insbesondere die 404-Fehler („Nicht gefunden“) sind hinsichtlich der Nutzer besonders unerfreulich, da sie keine gute User Experience bieten. Notfalls kann der Nutzer über eine gut gemachte … Read More