• ✓ individuelle SEO-Beratung & -Betreuung
  • ✓ keine Abnahmeverpflichtung
  • ✓ zertifizierte SEO-Experten
  • ✓ transparente & faire Arbeitsweise
  • ✓ nachhaltige SEO-Strategien
CAMPIXX 2019

CAMPIXX 2019

Inhaltsverzeichnis

Vorbericht zur CAMPIXX am 21.03.2019

Johannes Kunze: GSC im Live-Coding

JupyterLab und Python: Deine Secret Superpower jenseits von Excel und Spreadsheets

CAMPIXX: Tag 1 | Raum #8 | 15:15 – 16:00 Uhr Du arbeitest oft mit Daten? Du fühlst Dich in Excel zu Hause, und verschachtelte WENN-Formeln und Power Query machen Dir schon lange keine Angst mehr? Dennoch nervt Excel gelegentlich: Es stürzt ab, friert ein, oder es passieren nahezu magisch erscheinende Fehler. Und selbst wenn alles klappt, ist es oft unmöglich bzw. sehr aufwändig, die gleiche Analyse ohne genaue Dokumentation der Arbeitsschritte ein zweites Mal durchzuführen. Ich sage: Bleib‘ auf deiner Reise des lebenslangen Lernens nicht stehen! Wenn Du so weit gekommen bist, ist der Schritt zu Python, R und Co. ein kleiner. Dabei ist die Wahl Deiner Waffe eigentlich egal. Ob KNIME, R, Python oder andere Tools – wichtig ist, aus der Excel-Hölle auszubrechen und das „spinning wheel of death“ hinter sich zu lassen. Außerdem dokumentieren Analysen sich mit den genannten Tools quasi selbst und können jederzeit auf Knopfdruck wiederholt werden. In meinem Vortrag möchte ich Euch eine solche „hidden superpower“ näherbringen, und zwar Python! Neben Tools wie R oder KNIME gehört auch Python längst in das Analyse-Tool-Set. Mit Packages wie Pandas und interaktiven Umgebungen wie JupyterLab, Jupyter Notebook oder Google Colaboratory muss niemand mehr Angst haben, sich mit Coding zu beschäftigen. Wie sieht so etwas aus? Wer Lust hat, kann sich gerne im GitHub-Repository ein Beispiel-Notebook ansehen, mit dem man Daten aus Google-Trends abfragen kann – oder einfach direkt in Google Colaboratory ausprobieren. 😉 Auf der CAMPIXX zeige ich Euch im Live-Coding, wie Ihr die Google-Search-Console-Suchanalyse abfragt und aus den Daten ein paar nette Plots generiert. Natürlich speichern wir die Daten auch, damit die Analyse wiederholt werden kann, ohne die API zu bemühen. Das alles ist als Jupyter Notebook in Python reproduzierbar und steht nach der CAMPIXX zum Download zur Verfügung. Ich freue mich auf Euch! 😊 Bis dahin! CAMPIXX: Tag 1 | Raum #8 | 15:15 – 16:00 Uhr Und wer nach dem Vortrag noch nicht genug davon hat: Direkt im nächsten Slot zeigt Euch mein Kollege Patrick, wie Ihr mit R glücklich werdet! Raum #10 | 16:30 – 17:15 Uhr

Patrick Lürwer: R4SEO – Dokumentation, Reproduktion und Kommunikation von SEO-Analyse mit R

Campixx: Tag 1 | Raum #10 | 16:30 – 17:15 Uhr Wir analysieren ständig Daten und kommunizieren die Ergebnisse an unsere Kunden oder Kollegen — oder unser zukünftiges Ich. Leider häufig in einer Art, die es uns erschwert, diese Analysen zu einem späteren Zeitpunkt im Detail nachzuvollziehen oder mit aktualisierten Daten zu reproduzieren. Der Grund liegt darin, dass Analyse und Kommunikation mit unterschiedlichen Programmen umgesetzt werden. Die Daten werden bspw. in Excel aufbereitet und untersucht, die Ergebnisse dann aber manuell in ein Word oder eine PowerPoint übertragen. In meinem Vortrag möchte ich Euch eine Möglichkeit zeigen, wie Ihr Analyse und Kommunikation in einer Anwendung umsetzen könnt – und zwar mittels R und RMarkdown. R ist eine statistische Programmiersprache, die sich sehr gut auf die Verarbeitung von tabellarischen Daten versteht – also genau das, womit wir tagtäglich zu tun haben. RMarkdown ist ein Format, welches es ermöglicht, R-Code und (Markdown-)Text in einem Skript nebeneinander stehen zu lassen. Das RMarkdown-Dokument kann schließlich in Word, PowerPoint, PDF u. a. exportiert werden. Dadurch bleiben der Code und die textliche Analyse in einer Einheit erhalten. → Die Nachvollziehbarkeit der Analyse wird folglich dadurch gewährleistet, dass die einzelnen Schritte der Datentransformation anhand des (kommentierten) Codes jederzeit einzusehen sind. → Die Reproduzierbarkeit ist sichergestellt, da es sich um ein Skript handelt, das jederzeit erneut (mit einer aktualisierten Datenbasis) ausgeführt werden kann Exemplarisch werde ich live einen Screaming-Frog-Crawl einlesen und aufbereiten. Außerdem zapfen wir kurz die Google-Search-Console-API an, um mit den Performance-Daten den Crawl anzureichern. Ihr werdet also kaum Folien, sondern vor allem Code sehen! Aber ich bin der Meinung, dass R-Code so verständlich ist, dass Ihr mir ohne Probleme werdet folgen können. Allerdings werdet Ihr nachher kein R können. Die Zeit ist einfach zu knapp, um auch nur die Grundlagen von R zu vermitteln. Hier geht es um das grundsätzliche Verständnis des Konzepts! Zumindest werdet Ihr nach der Session eine Möglichkeit kennen, die Euch das Leben etwas einfacher macht. Und ich hoffe, Ihr werdet danach Bock haben, Euch diese Alternative genauer anzugucken. Wenn Ihr Euch zuvor bei meinem Kollegen Johannes (Raum #8, 15:15 – 16:00 Uhr) einen Überblick über JupyterLab und Python verschafft habt, freue ich mich darauf, Euch R im Vergleich zu zeigen. (Wir nehmen uns da gegenseitig nichts. 😉 ) Ihr findet mich am ersten Tag in Raum #10 von 16:30 bis 17:15 Uhr – bis dahin!
get:traction Mitarbeiter Rebecca Schwarz

Rebecca Schwarz

SEO CONSULTANT

Mein Interesse für Online-Marketing und seine vielen Facetten wurden schon früh geweckt. Bereits während meines Studiums der Informationswissenschaft an der Hochschule Darmstadt fiel meine Wahl durch erfolgreiche Projekte und erste Berufserfahrungen auf die Suchmaschinenoptimierung. Hier habe ich gerade durch das Zusammenspiel aus Technik, Marketing, Kreativität und dem analytischen Denken meine Leidenschaft gefunden. In meiner Rolle als SEO-Consultant stelle ich mich immer wieder gerne neuen Herausforderungen, um mein Wissen praktisch anzuwenden und in der Zusammenarbeit mit Kunden Erfolge zu erzielen.

5/5 - (6 votes)

1 Kommentar:

Marcel Schliessersagt:

Stehen die beiden Foliensätze öffentlich zur Verfügung?


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert