R-Skripte für effizientere SEO-Arbeit

SEO-Monitoring mit Crawlabgleichen in R – 2020 Version

Bekanntlich ist es sinnvoll eine Website während der Umsetzung des SEO-Konzepts sowie im Rahmen der Betreuung genaustens im Auge zu behalten. Eine der mächtigsten Instrumente um immer auf dem neusten Stand zu sein, ist das zeitversetzte Crawlen und Abgleichen der Website basierend auf der URL Basis. Um den regelmäßigen Zeitaufwand dafür auf ein Minimum zu reduzieren, werden wir in diesem … Read More

R4SEO – Dokumentation, Reproduktion und Kommunikation von SEO-Analysen mit R

r4seo: Dokumentation und Reproduktion von SEO-Anasylen mit R

Ich muss leider mit einem Problem beginnen, das wohl viele von uns kennen. Stell Dir dazu kurz vor, dass Dein Kunde Deine Analyse nach einem halben Jahr in der Schublade wiedergefunden hat und jetzt gerne mit der Umsetzung Deiner Maßnahmen beginnen möchte. Oder Du bist Angestellter in einem Unterneh-men und das Management hat Dir endlich die Ressourcen zur Verwirklichung bereitgestellt. … Read More

JavaScript SEO: Pre- vs. Post-Rendering-Abgleich von Screaming-Frog-Crawls mit R

Patrick Lürwer: Javascript SEO: Pre- vs. Post-Rendering-Abgleich von Screaming-Frog-Crawls mit R

tl;dr Der Blogbeitrag beschreibt ein Framework in Form eines R-Skripts, das ich zum Analysieren von Screaming-Frog-Crawls verwende. Dazu wird die entsprechende Website mit aktiviertem und deaktiviertem JavaScript-Rendering gecrawlt. Die Crawls werden dann in R eingelesen und um einige Metriken angereichert: Indexierbarkeit von Seiten Segmentierung der URLs Google-Analytics-Daten (hier: PageViews) Google-Search-Appearance-Daten (hier: Impressions, Clicks) Interner PageRank der URLs Interne Links werden … Read More

Google Search Console & R: Nicht relevante Crawling-Fehler automatisch beheben & löschen

Google Search Console & R: gsc_r

Bei get:traction gehen wir üblicherweise so vor, dass wir bei Neukunden erst einmal einen Blick in die Google Search Console (GSC) werfen, um uns bspw. einen Überblick über die dort aufgeführten Crawling-Fehler zu verschaffen. Insbesondere die 404-Fehler („Nicht gefunden“) sind hinsichtlich der Nutzer besonders unerfreulich, da sie keine gute User Experience bieten. Notfalls kann der Nutzer über eine gut gemachte … Read More