• ✓ individuelle SEO-Beratung & -Betreuung
  • ✓ keine Abnahmeverpflichtung
  • ✓ zertifizierte SEO-Experten
  • ✓ transparente & faire Arbeitsweise
  • ✓ nachhaltige SEO-Strategien
Recap: SMX Advanced Europe 2022 Andreas Föll Beitragsbild

Recap zur SMX Advanced Europe 2022 in Berlin

Inhaltsverzeichnis

Keynote: Do you understand the Google Ecosystem or are you stuck in the dark ages

Mit einem Paukenschlag beginnt die SMX Advanced Europe 2022 in Berlin – Jes Scholzs mitreißende Keynote zur Eröffnung des englischsprachigen Ablegers der SEO-Leitkonferenz macht keinen Hehl daraus, was auf die SEO- und SEA-Welt (kurz SMX) zukommt: Doomsday, Todesstern, Dinosaurier, Asteroideneinschlag! Naja, oder zumindest ein radikaler Umbruch, der irgendwie auch eher schleichend und im Verdeckten stattfindet. Aber hey, das Datum, ja das genaue Datum für diese Zeitenwende im Online-Marketing steht schon fest. Und ja, ihr ahnt es, am 1. Juli 2023 wird die Datenerhebung über Universal Analytics eingestellt und die Online-Welt, wie wir sie bis dahin mit Google analysiert haben, ist vorbei, finito – instantly! Und ja, das ist quasi morgen. Und ja, das ist so gar nicht grundlos. Wie, was? Ja, denn eins muss man zugestehen: „we’ve been spoiled with exact tracking for a very long time“, meint Jes – für eine sehr lange Zeit wurden wir mit genauestem Tracking geradezu verwöhnt.

Abb.: Jes Scholz (Group CMO bei Ringier) eröffnet die SMX Advanced Europe

Eine Verwöhnung ist die SMX Advanced ja allemal, die nach einer gefühlten Ewigkeit erstmals wieder als Präsenzveranstaltung stattfindet; Videoaufzeichnungen oder Onlineübertragungen gibt es (mit Absicht) nicht. „You need to take notes“ lautet die Devise. Jes beschreibt, wie und vor allem warum das Online-Marketing vor einem Umbruch steht. Drei wichtige Punkte sind, da sind sich während der nächsten zwei Tage alle einig: „being critical of data is crucial“, „it’s about Google“ und etwas dramatisch „content is your product – distribute or die“. Wer nicht weiter optimiert, auch darin sind sich alle einig, wird wie eh und je gnadenlos zurückbleiben bzw. in der SERP nach unten gereicht. Und das immer schneller.

Aber stopp, ist das jemals anders gewesen? War es nicht schon immer so? Online-Marketing erfindet sich doch ständig neu. Korrekte und nützliche Daten zu haben, ist entscheidend. Sich an die Google Richtlinien zu halten, ist entscheidend. Inhalte mit Mehrwert für Nutzer zu schaffen, ist entscheidend. Stimmt alles, aber es wird auch immer offensichtlicher, dass es in erster Linie nicht um uns geht, sondern um Google, besser gesagt um Googles Ecosystem.

  • Ein Ecosystem, das sich in seiner ganzen Fülle nicht in einer Session messen lässt, sondern viel effektiver und individueller mit Events arbeiten kann.
  • Ein Ecosystem, das mit Machine Learning und AI weitaus effektiver läuft und deshalb mit strukturierten Daten gefüttert werden muss.
  • Ein Ecosystem, das nicht für genaueres Tracking sorgen will, sondern nach Conversions giert und Inhalte den richtigen Zielgruppen ausspielen will.

Altbekannte Begriffe wie „Fathead“ und „Longtail“ fallen – warum sollte Google Kategorieseiten im Longtail ausspielen? Es reicht nicht, einfach eine Seite zu veröffentlichen. Jes prophezeit „the rise of the deep page“ – also den Aufstieg der Detailseite. Denn hier liegt meist der wahre Mehrwert für Nutzer – und das weiß auch Google.

Google möchte die Inhalte im eigenen Ecosystem so effektiv wie möglich verteilen. Und um diese Attribution angemessen darstellen zu können und in seiner Gänze zu sehen, reichen „organisch“ und „cpc“ schlichtweg nicht aus. Sieht man es so, scheint es sinnvoll.

Individuelle Events können über die Zeit hinweg mehrere Sessions und eine Vielzahl von Touchpoints bei Google bedeuten. Und die Wege, die Nutzer nehmen, fallen nun mal höchst individuell aus. Und Google, ja auch das wird immer bedrückender, übernimmt zunehmend das Spielfeld – die Phasen im Funnel. Jes nennt es „Google is encroaching the funnel“.  Wenn wir Nutzer nicht zu Conversions führen, macht es Google eben selbst. Und das ist bereits im vollen Gange. Was gestern noch Platz 1 war, wird schon länger durch Position 0, News-Karussell und Shopping, Jobs, Hotels, etc. ersetzt. Platz 1 ist schon lange nicht mehr Platz 1. Jess Lösung lautet: „crawl into the new era“ – man soll in die neue Zeitrechnung „crawlen“. Es wird essenziell, den Google Crawl effektiv zu optimieren. Womit sich der Kreis schließt, Google den Inhalt so zu liefern, dass er bei der richtigen Zielgruppe im Ecosystem landet. Mit der effektiven Crawl-Optimierung trifft sie einen simplen wie ebenso komplexen SEO-Nerv, der vieles zusammenführt und am Ende ein wichtiger Teil der „Google Ecosystem Optimization“ ist.

Abb.: Jes zeigt, wie sich Crawling effektiv optimierien lässt

Server-side Tagging: 10 praktische Tipps von Simon Ahava 

Ist Server-side-tagging die Antwort auf alle (Cookie-Consent)-Fragen? Nein, lautet die klare Antwort von Simon Ahava (Mitgründer der Firma Simmer), der in seinem Vortrag 10 praktische Tipps zum Trendthema Server-side Tagging gibt. Aber es gibt natürlich Vorteile. Unter anderem macht Server-side tagging es viel einfacher, Java-Skripte und Datentransfers zu konsolidieren („offload client-side resources [and] consolidate data streams“). Zudem spricht er davon, wie man Cookies „ITP-proof“ machen kann, um den immer höher werdenden Datenschutzanforderungen zu begegnen. Spannend ist auch die Erstellung von „First-Party Collectors“ auf eigenen Domains, was neben der Kontrolle über die Cookies wohl auch den Nebeneffekt haben kann, Werbeblockern entgegenzuwirken.

Es geht so weit, dass sich auch „Geheimnisse“ wie bspw. geschäftssensible Daten (Profitmargen, etc.) in den Datentransfer kodieren lassen, da alles auf den „eigenen“ Servern bleibt – ganz nach dem „Vegas-Motto“, was auf dem Server passiert, bleibt auf dem Server. Und nicht zuletzt erlaubt das Server-side tagging theoretisch auch den Aufbau eines eigenen Analytics-Systems zur Datensammlung über die BigQuery etwa. Unter anderem um Kosten zu sparen, rät Simon dazu, „custom cloudsolutions“ von Google, AWS oder Azure zu nutzen.

„Es geht vor allem darum, dass man dadurch die Kontrolle über den Transfer der Daten zurückerlangen kann. Aber diese Kontrolle hat natürlich einen Preis: Maintenance und Ressourcen.“, so Simon. Und die Frage lautet dann, wie stehen die Kosten und der Aufwand im Verhältnis zum Nutzen. Für die meisten lohnt sich dieser Aufwand wohl eher nicht, meint er. Eine Lösung zur Cookie-Consent-Banner-Flut und dem Datentransfer wird es früher oder später flächendeckend geben (müssen). Und die wahre Frage lautet eh: Brauchen wir den Datentransfer zur Drittanwendung überhaupt oder geht es auch ohne? Abschließend rät Simon noch, SQL zu lernen, die für ihn eine der nützlichsten Sprachen ist, um zu verstehen, wie man Daten korrekt abfragt.

Abb.: Simon Ahava mit den Takeaways zum Server-side Tagging

Google-Updates: “Method and Madness” (Tom Capper)

Da hilft es, von Tom Capper (Search Scientist bei MOZ) nochmal bestätigt zu bekommen, dass alle früher oder später mal verlieren und von einzelnen Google-Updates „getroffen“ werden. Aber wozu das Ganze? Wohin soll das führen? Tom untersucht unter anderem, wie aufgeheizt die Algorithmen von Google sind, also wie oft es für ein festes Keyword-Set Ranking-Änderungen gibt, und stellt das Ganze wie eine Temperatur im Wetterbericht dar. Schnell wird klar, es brodelt ständig. Vor allem um das Mobil-First-Update herum. Seine Erklärung: Hier scheint Google möglicherweise erkannt zu haben, dass viele der wichtigen Seiten, die Ranken müssen, wie bspw. Behörden, einfach schlechte mobile Seiten hatten und abgestürzt sind. Das musste natürlich korrigiert werden. Irgendwie banal, es trifft jeden, egal in welche Richtung. Das klingt nach Anarchie – fast. Denn entscheidend ist der Trend und der geht für die allermeisten, branchenunspezifisch, über längere Zeit nach oben, was auch die Verbindungen zwischen den Google Updates bestätigt. Passend dazu fallen Ratschläge wie „don’t time the market“ aus der Finanzbranche oder „return of the refresh“, also die Erholung zwischen zwei Updates, die für Tom klar erkennbar ist. Und er unterscheidet zwei Typen von Updates: spezifisch und vage. Das letzte große Helpful Content-Update, das natürlich in aller Munde ist, fällt laut Tom eher ins Spezifische, so unspezifisch die Beschreibung in Google Doku auch klingen mag. Somit ist es für ihn kein Core Update. Die Devise lautet hier also mal wieder – „making good content will pay off, sooner or later”.

Abb.: Tom Capper und der MozCast

Die Bedeutung von Synthetic Media für SEO (Tom Anthony)

Aber was wäre, wenn Google den Content für die Suchergebnisseirgendwann einfach selbst erstellt, basierend auf der Suchanfrage? Was ein wenig nach Science-Fiction klingt, ist laut Tom Anthony (CTO bei SearchPilot) gar nicht so unrealistisch und weit entfernt. Er nennt es „Synthetic Search“. Größte Barriere ist dabei vor allem die juristische: Wem gehört der von einer künstlichen Intelligenz zusammengestellte Inhalt? Tom hat sich die Historie der Algorithmen angeschaut und den aktuellen Einfluss der Deep Learning Algorithmen (bzw. AI oder KI) auf die Google Suche betrachtet. Seine Beispiele sind relativ beeindruckend. Die Text-zu-Text-Modelle GPT-3 und LaMDA sind (schon länger) in der Lage, kontextuelle Antworten zu geben und eine Unterhaltung zu führen. Sei es, wie man einen Gürtel anzieht (was sehr genau und korrekt beantwortet wird) oder die (hoffentlich) etwas sarkastische Antwort darauf, ob Menschen sich als Sklaven für AI eignen (ja, letztendlich würden sie das generell wohl irgendwie schon). In einem Chat kann die KI-Fragen korrekt beantworten und dabei in den richtigen Kontext bringen (die Waschmaschine und der TV funktionieren wohl darum beide gleichzeitig nicht, weil der Strom ausgefallen ist).

Abb.: Antworten von GPT-3 und LaMDA (Quelle: Synthetic Search; Tom Anthony)

Zudem gibt es Text-zu-Bild Modelle, die bereits mit Leichtigkeit kontextuelle Bilder kreieren können und bspw. einen Fantasie-Salat erstellen (Gurke, Avocado, Johannesbeere, rote Zwiebel). Verbindet man diese Technologien mit den Suchalgorithmen von Google, wird es etwas unheimlich. Aber gleichzeitig ist es auch eine logische Weiterentwicklung der Google-Suche. Toms Vorhersage ist eindeutig: Mit dem angekündigten, aber noch nicht ausgeführten, MUM-Update wird die Deep Learning Technologie ab 2023 verstärkt zum Einsatz kommen und von da an vor allem eines tun: lernen, lernen, lernen – und zwar mit uns in der Google-Suche. Wir dürfen gespannt sein. Bis dahin, viel Spaß bei der Text-zu-Bild-Erstellung.

Bild: Tom Anthony und der Einfluss von Deep Learning auf die Google Suche

Marketing für Maschinen (Jono Aldersson)

Dass Maschinen wichtiger werden, betont auch Jono Aldersson (Head of SEO bei Yoast), der ein begeisterndes Plädoyer für die Wichtigkeit von strukturierten Daten hält und dabei so weit geht, zu sagen, „structured data is where EAT lives [and] you need to proof of being worthy to fit the query“. Und damit meint er nicht den gewöhnlichen Content, sondern die wichtigen Signale an Google, die eben vor allem mit den strukturierten Daten erreicht werden. Denn eine der großen Herausforderungen im Marketing wird unter Umständen die, dass man den Inhalt und die redaktionelle „Story“ der Webeseite möglichst effektiv und verständlich einer Maschine erzählen muss.

Abb.: Jono Alderson zeigt, wie mit strukturierten Daten Zusammenhänge dargestellt werden können

Die Maschine (in dem Fall natürlich Google) entscheidet wie, wann, wo und an wen der Inhalt an Menschen weitergegeben wird. Dafür eignen sich die strukturierten Daten eben hervorragend. Die Antwort auf die Frage, wie man in Googles Ecosystem gesehen und platziert wird, kann eben zu einem großen Teil in den strukturierten Daten liegen. Und hier sieht Jono noch großen Aufholbedarf. Jede Seite kann in den strukturierten Daten individuell dargestellt werden. Schema.org bietet hier eine hohe Flexibilität. Größter gemeinsamer Nenner der unterschiedlichen Elemente und Properties ist die „ID“. Sie hält die „Story“ zusammen und stellt eine Referenz zu einzelnen properties sicher. Der Schema Visualizer veranschaulicht die Zusammenhänge der einzelnen properties auf eine sehr ansehnliche Weise. Einzige „Downside“ bei der ganzen Sache ist, wie so oft, dass Google ganz spezielle Vorstellungen hat, wie schema.org angewendet und verstanden werden soll. Umso interessanter, dass die Diskussion über die Richtlinien und Guidelines teils öffentlich über GitHub und Twitter ausgetragen wird. Wer sich einbringen und die Anforderungen von morgen beeinflussen möchte – bitte sehr.

Abb.: Jono Aldersson ist fest davon überzeugt, dass ein Teil der Antwort auf die Frage, wie Marketing für Maschinen aussehen kann, in den strukturierten Daten von Webseiten liegt

Bei der SMX Advanced geht es um Prozesse, Analysen, Planung, Tools, Argumente. Man merkt, es wird höchst technisch und höchst strategisch. Für viele SEOs beschreibt das den Alltag. Kunden oder Stakeholdern erklären, worum es bei den geplanten SEO-Maßnahmen geht, warum diese sinnvoll sind, und wie sie mit dem übergeordneten Unternehmensziel verbunden sind.

„Hi, could you send me a forecast you’ll regret later?” (Robin Lord)

Teamwork und Kommunikation sind essenziell für die Umsetzung erfolgreicher SEO-Maßnahmen. Da sind sich alle einig. SEOs müssen sich nicht nur bei Entwicklern gut stellen, sondern ihre Vorhaben auch mit Business KPIs verbinden – mit harten Zahlen. Diese vorherzusagen ohne eine Garantie abzugeben ist eine Kunst. Das weiß auch Robin Lord (Strategy and Innovation bei aira), der die Zuhörer anhand einer Beispielgeschichte gekonnt durch die verschiedenen Phasen im Forecasting führt und den schmalen Grat zwischen Opportunity, Forecast und Guarantee in der „great scale of commitment“ aufweist. Am Ende ist es ein Prozess und der Aufbau von Verständnis und der bewussten Anwendung von Techniken und Methoden, der zum Erfolg führt. Denn eines ist sicher: „nobody can predict the future“.

Daher blicke ich vorerst auch lieber zurück auf eine SMX Advanced Europe 2022 mit durchweg spannenden, unterhaltsamen und interessanten SEO-Vorträgen, von denen ich hier leider nur einige anreißen konnte (die komplette Liste der SEO-Vorträge findet ihr unten). Wer auf der Suche nach überzeugenden Argumenten, Tools und Best-Practices in der Branche war, wurde nicht enttäuscht, sondern vielmehr noch vom engagierten und kritischen Publikum mit anschließenden Q&As belohnt. Die Vorträge boten einen ebenso erfrischenden wie auch bestätigenden Blickwinkel auf die eigene Arbeit mit Empfehlungen für Tools und Arbeitsweisen. Insgesamt war die SMX Advanced 2022 ein SEO-Feuerwerk und ich kann nur sagen: Bitte ganz bald wieder, es war eine Freude.

Vorträge der SMX Advanced Europe im Überblick

Diese erstklassigen Vorträge und Themen habe ich beim SEO-Track auf der SMX Advanced Europe angehört.

Tag 1:

  • Do you understand the Google ecosystem or are you stuck in the dark ages? (Jes Scholz)
  • Your CMS is Holding You Back: How to Tap into Your CMS’s Potential to Support Exponential Growth (Joanna Booth)
  • Algorithm updates: Methods and Madness (Tom Capper)
  • Enough with the theory! Advanced Search Marketers, here are 10 things you can do with server side tagging (Simo Ahava)
  • Getting more out of SEO data (Dominic Woodman)
  • Synthetic Search – When search results are created on demand (Tom Anthony)
  • Marketing to machines (Jono Alderson)

Tag 2:

  • The Engineer Playbook to Enterprise SEO (Jordan Koene)
  • Hi, could you quickly send me a forecast you’ll regret later? (Robin Lord)
  • Good from far, but far from good – How to use waterfall charts to resolve the most common misconceptions affecting site performance (Lisa Fellinger & Alin Radulescu)
  • Next level internal linking: the most underestimated, yet most powerful SEO field (Johan Hülsen)
  • Auditing new JavaScript websites under development (Ulrika Viberg)
  • Neuro-Loyalty: The Better Way to Attract and Keep Great Customers (Roger Dooley)
get:traction Mitarbeiter Andreas Föll

Andreas Föll

SEO Consultant

2008 weckte ein Webdesign-Seminar im Rahmen meines International Business Studiums in England meine Faszination für den Onlinebereich. Neben den Grundkonzepten eignete ich mir schnell HTML- und CSS Kenntnisse an, um Internetseiten zu bauen, zu pflegen und sichtbar zu machen. Mich begeistert die Kombination aus technischem Verständnis, Struktur und kreativem Denken. Im anschließenden Marketingstudium konzentrierte ich mich weiter auf den Onlinebereich und vertiefte mein Marketingwissen; beruflich war in verschiedenen Branchen teils auch international im Online-Marketing und E-Commerce tätig. Bei get:traction kann ich mich seit Anfang 2022 voll auf die organische Suchmaschinenoptimierung konzentrieren – mein absoluter Lieblingsbereich – und freue mich, in einem brillanten Team aus SEOs, Analysten und Redakteuren, erfolgreich spannende Kundenprojekte voranzubringen und umzusetzen.

4.7/5 - (47 votes)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert