Inhaltverzeichnis
Hört sich immer gut an, oder: wenig Arbeit viel Ergebnis. Aber wie kommt man mit einfachen Kniffen und Prozessen zu dauerhaft mehr Zugkraft im SEO? Unsere Kollegin Anna hat auf der virtuellen SMX 2021 einen Vortrag gehalten, den wir hier als Beitrag zum Nachlesen posten.
Wer möchte der kann sich hier auch Annas Präsentation auf SlideShare ansehen.
Die Datei zum KNIME Workflow könnt ihr hier runterladen.
Viel Spaß!
Das ist der Untertitel zu dem Vortrag und was sich erstmal so locker liest, bedeutet eigentlich, dass man durch eine zielgerichtete Kombination der GSC-Leistungsdaten mit dem Crawling der Domain und mit dem Tool KNIME zu Workflows mit Hands-on-Optimierungspotenzialen kommt.
Der hier gezeigte leicht reproduzierbare Workflow eignet sich insbesondere für Content-lastige Seiten, Shops, oder z.B. auch für einzelne Seitenbereiche der Website wie z.B. Ratgeber.
Bei Webseiten mittlerer Größen entfalten sich die Vorteile des Workflows am stärksten. Als Endprodukt bekommt man eine Arbeitsdatei mit drei Optimierungspaketen, die dann nur noch darauf wartet, abgearbeitet zu werden.
Der Prozess beinhaltet die Kombination der Datenmengen aus einem Crawl (hier wurde der Screaming Frog verwendet) und der GSC. Diese kombinierten Daten werden anschließend zusammengeführt und auf die relevanten Spalten reduziert, um an URL-Sets zu gelangen, welche das Optimierungspotential zur Klicksteigerung in der organischen Suche aufweisen.
In dem Vorgehen geht es daher um Optimierung von Bestandscontent. Es wird keine neue Reichweite erschlossen, sondern es müssen bereits ausbaufähige Rankings vorhanden sein.
Hier wird ein Prozess gezeigt, der einfach umzusetzen und zu wiederholen ist. Daher eignet sich das Vorgehen sehr gut als Regeltätigkeit. Egal, ob man als SEO in einer Agentur verschiedene Kundenwebseiten oder als Inhouse-SEOs wenige eigene Webseiten betreut.
Welchen Vorteil zieht man aus einem solchen Vorgehen?
Überzeugt, aber keine Erfahrungen mit KNIME? Dann einfach unseren Blogartikel KNIME für Anfänger lesen!
Grafisch dargestellt, ergibt sich ein Arbeitsprozess, der folgendermaßen aussieht:
Abb. 1: Übersicht über SEO-Workflow zur Identifizierung von Ad-Hoc Hebeln
Gehen wir also Schritt für Schritt vor und beginnen mit dem Crawling der Domain inklusive Anschließen der GSC API. Als Crawling-Tool verwenden wir hier den Screaming Frog.
Hinweis: Es kann natürlich auch ein anderes Crawling-Tool bei euch zum Einsatz kommen. Ist dies der Fall, muss der Workflow in KNIME dahingehend angepasst werden.
Anschließend werden 3 CSV-Dateien für die Weiterverarbeitung exportiert , und in KNIME importiert und hier kann man Schwellwerte individuell festlegen. Zum Schluss liegt es an einem selbst, die Arbeitsdatei und die Optimierungspakete (Content-, Link- und Datenpaket) zu prüfen und umzusetzen.
Abb. 2: Schritt 1 des Workflows: Crawling & GSC Api
Für die erfolgreiche Abfrage der Daten müssen folgende Konfigurationen im Screaming Frog vorgenommen werden:
Configuration > Spider Configuration> Extraction > Structured Data > JSON-LD
Abb. 3: Crawl Konfiguration Screaming Frog
Im nächsten Schritt werden im Screaming Frog folgende Einstellungen vorgenommen, um die GSC API anzuschließen:
Abb. 4: GSC API im Screaming Frog anbinden
Wo Ihr die drei nötigen Exporte im Screaming Frog findet, haben wir hier skizziert:
Abb. 5: Klickwege der nötigen CSV-Exporte im Screaming Frog
Danach kommt der zweite Teil unseres Workflows, bei dem mit KNIME gearbeitet wird. In diesem Schritt werden die erforderlichen Daten importiert und auf Basis individuell zu setzender Schwellwerte optimierbare oder deoptimierbare URL-Sets identifiziert.
Abb. 6: Schritt 2: Datenimport und Weiterbearbeitung der Daten in KNIME
Der KNIME-Workflow zum Einlesen und Segmentieren der Leistungs- und Crawldaten sieht folgendermaßen aus:
Abb. 7: KNIME Workflow
1) Einlesen der drei CSV-Exporte mittels Knoten File Reader
Abb. 8: Einlesen der Crawl Exporte in KNIME
Konfigurationshinweis für File Reader: Zunächst muss man mit einem Rechtsklick auf File Reader -> Configure die Konfiguration des Knotens öffnen (1). Danach empfiehlt es sich unter dem Punkt 2 den Haken bei Preserve user settings for new location zu setzen. Dann wählt man über „Browse“ den Pfad der exportierten CSV-Datei aus und klickt auf „OK“, um die Konfiguration zu speichern. Anschließend muss man die Ausführung des Knotens nur noch starten, z.B. mit F7. Dann wählt man über „Browse“ den Pfad der exportierten CSV-Datei aus und klickt auf „OK“, um die Konfiguration zu speichern. Anschließend muss man die Ausführung des Knotens nur noch starten, z.B. mit F7.
2) Definition der individuellen Schwellwerte für Impressionen, Klickrate, Position
Für die spätere Auswertungen definiert man auf Basis individueller Schwellwerte zwei verschiedene URL-Sets 1) optimierbare URL Sets (Oben), 2) deoptimierbare URL-Sets. Zur Segmentierung der URLs werden folgende Metriken der Google Search Console herangezogen:
Als optimierbare URLs sollen in die Betrachtung URLs einfließen, die in unserem Betrachtungszeitraum relativ viele Impressionen erzielen konnten, jedoch nur eine geringe Klickrate, aber gleichzeitig eine optimierbare Position haben. Als deoptimierbare URLs fließen v.a. URLs ein, die relativ wenige Impressionen erzielt hatten.
Mittels der Knoten Row Filter kann man Schwellwerte individuell festlegen. Hier geht man erneut in die Konfiguration (Rechtsklick-> Configure) und aktualisiert die dort definierten Ober- und Untergrenzen für jede Metrik. Anschließend klickt man auf „OK“ und führt die Knoten aus (F7).
Abb. 9: Schwellwerte zur Zusammensetzung der URL-Sets in KNIME definieren
3) Output Excel Datei erstellen & Arbeitsblätter ergänzenZum Festlegen des Namens und der Output-Location der Excel Arbeitsdatei startet man mit dem Knoten Excel Writer. Dies legt man ebenfalls über die Konfiguration fest. Alle weiteren Einstellungen können beibehalten werden. Anschließend klickt man auf „OK“, und führt den Knoten Excel Writer aus.
Anschließend werden der neu erstellten Arbeitsdatei weitere Arbeitsblätter hinzugefügt. Dies setzt man anhand der Knoten Excel Sheet Appender um. Hier geht man für jeden der 5 Excel Sheet Appender erneut in die Konfiguration, und wählt via Browse die eben neu erstellte Excel Datei aus, klickt auf „OK“ und führt die Knoten aus.
Abb. 10: Exportdatei in KNIME erstellen und Arbeitsblätter ergänzen
Nun ist man mit der Erstellung der Arbeitsdatei fertig.
Durch den Arbeitsprozess mit KNIME erhält man eine vorpriorisierte Auswahl an URLs. Für jedes URL-Set ergeben sich mögliche Handlungsempfehlungen aus folgenden Bereichen:
Bedenkt, dass die Zusammensetzung der URL-Sets rein auf Basis numerischer Schwellwerte basiert. Daher solltet ihr im Anschluss alle URLs noch einmal manuell prüfen und bewerten, ob die Ausarbeitung der Maßnahmenempfehlungen für euren Kontext auch tatsächlich sinnvoll und umsetzbar sind.
Der letzte Schritt des Workflows ist es daher, die fertige Excel-Arbeitsdatei zu öffnen und die URL-Sets und die damit verbundenen Handlungsempfehlungen für jede URL zum einen auf Sinnhaftigkeit und zum anderen auf deren Umsetzbarkeit zu prüfen und anschließend umzusetzen.
Anbei eine Beispiel-Output-Datei:
Abb. 11: Fertige Arbeitsdatei zur Prüfung auf Ad-Hoc SEO-Hebel zur Klicksteigerung über die organische Suche
Die Datei enthält für alle identifizierten URL-Sets die für die Bearbeitung der Optimierungs-Chancen relevanten Spalten, und die To-Dos lassen sich direkt an der Benennung der Arbeitsblätter ablesen.
Anschließend kann an loslegen und mit der Abarbeitung der Handlungsempfehlungen beginnen. Die ableitbaren Tätigkeiten lassen sich in folgende drei Arbeitspakete zusammenfassen.
Beispiele aus der Praxis gefällig? Mit einem Blick in die Folien findet ihr von Folie 26 an für jedes dieser drei Arbeitspakete anschauliche Beispiele aus der Praxis.
Klicken Sie auf den unteren Button, um den Inhalt von www.slideshare.net zu laden.
Nachfolgend findet ihr eine Zusammenstellung, welche Tätigkeiten Ihr auf Basis der Optimierungs-Datei prüfen und umsetzen könnt.
Eine Übersicht der möglichen Prüfpunkte des Link-Pakets findet man hier:
Eine Übersicht der möglichen Prüfpunkte des Content-Pakets findet man hier:
Um diese Prüfungen optimal durchzuführen, empfehlen wir, für jeden dieser Punkte weitere Tools zur Hand zu nehmen: den Leistungsreport der GSC und ein Tool zur Content-Prüfung. Zur Prüfung der inhaltlichen Relevanz nutzen wir bei get:traction immer TermLabs.io. Anhand dieses Beispiels kann man erkennen, das noch sehr viele relevante Terme fehlen, die man mit weiterem Content ergänzen sollte.
Eine Übersicht der möglichen Prüfpunkte des Daten-Pakets findet ihr hier:
Ist diese Prüfung abgeschlossen, dann ist auch der Workflow abgearbeitet und ihr habt den Prozess abgeschlossen. Idealerweise beobachtet ihr nach der Umsetzung der ausgewählten Empfehlungen natürlich wie immer die Entwicklung. In der Regel können ein paar Wochen vergehen, bis die Maßnahmen ihre Wirkung entfalten, und Ihr euch dank der Optimierungsmaßnahmen über eine Steigerung der Klickrate freuen könnt. Damit ihr den SEO-Erfolg eurer Maßnahmen optimal beobachten könnt, empfehlen wir euch die optimierten URLs in euer SEO-Reporting zu integrieren.
Wie bereits erwähnt, handelt es sich bei dem Workflow um eine ideale Regeltätigkeit. Daher empfehlen wir, einen geeigneten Turnus zu wählen und die Auswertung regelmäßig quartalsweise oder halbjährlich zu wiederholen.
Viel Spaß beim Ausprobieren!
Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.
SEO Berlin – [sichtbar & erfolgreich]
Wielandstraße 9, 12159 Berlin
030 / 296 73 998
berlin@gettraction.de
SEO Darmstadt- [sichtbar & erfolgreich]
Berliner Allee 58, 64295 Darmstadt
06151 / 860 69 85
darmstadt@gettraction.de
5 Gründe für get:traction:
Patrick
Sehr interessant, danke für den guten Artikel und die Bereitstellung des workflows.
Blöderweise bekomme ich bei der execution in der console immer die Fehlermeldung: „Column range filter: Input table doesn’t contain specified column name“. Hab schon unterschiedliche crawl-dateien probiert. Immer das selbe. Was mach ich verkehrt?
Anna Danzer
Hi Patrick,
vielen Dank und freut mich, dass du den Workflow ausprobierst. Vermutlich liegt es an unterschiedlichen Screaming Frog Versionen der Crawl Exporte. Ich würde dir empfehlen bei den Knoten mit der Meldung in der Konfiguration zu prüfen, ob sich die Spaltenbenennung geändert hat und du hier eine neue Benennung der entsprechenden Spalte auswählen kannst. Ich hoffe das hilft dir weiter, falls nicht melde dich gerne noch einmal! 😊
Liebe Grüße
Anna