Am Samstag fand eine der beliebstesten MeasureCamp-Veranstaltungen – das 11. MeasureCamp in London – statt. Das Event war sehr gut besucht und das internationale Publikum konnte Vorträgen aus einem sehr breiten Themenspektrum lauschen. Haupt-Topics waren Data Science, künstliche Intelligenz, Datenvisualisierungstools, Umgang mit GDPR (GDPR – Die neue EU-Datenschutz-Grundverordnung), Testing und Optimierung, sowie viele weitere spannende Themen.
Workshops & Trainings am Vortag
Am Vortag (Freitag) des MeasureCamp fanden eine Reihe von Workshops und Trainings statt, bei denen man, dank theoretischen und praktischen Beispielen, Übungen und Diskussionen, Einblick in ausgewählte Bereiche erhalten konnte. In meinem Fall habe ich mir den Data Studio Workshop angesehen (gehalten von Anna Lewis).
MeasureCamp: Vorträge
Die Struktur des MeasureCamp wurde auch in London beibehalten, sodass erst nach der Einführungssession alle mit Spannung erwarteten Sessions und Slots nach und nach bekannt gegeben wurden. Insgesamt gab es 8 Slots mit jeweils fast 9 parallellaufenden Sessions, die zur Auswahl standen.
Die Spenden-Tradition aller MeasureCamps wurde auch diesmal fortgeführt. Die gesammelten Spenden richten sich an „Dorothy House“ (Hospice care).
Session 1: The Leapthree GA Set-Up Reference Guide by Peter O’Neill
Im ersten Slot habe ich mir die Session von Peter angeschaut, bei der er seinen Reference-Guide für das initiale Setup von Google Analytics vorgestellt hat. Dieser Guide vermittelt vor allem das Verständnis für gemachte Einstellungen bei einem Analytics Set-Up und nutzt so nicht nur den Analysten sondern bringt zukünftigen Verwendern auch das Thema generell näher.
Dabei besteht der Guide aus einer manuell zusammengefassten und ausgefüllten Excel-Tabelle mit folgenden Bereichen zur Einrichtung:
- Page naming convention
- Events
- Content Grouping
- Custom Dimensions
- Custom Metrics
- Goals
- Defined list of names
- Custom names
Ein Tipp von Peter am Rande: „Use obvious and user-friendly naming!“
Diese sehr hilfreiche Legende aller Einstellungen, Regeln und Definitionen rund um Analytics ist als Dokumentation für einen Setup gedacht, um auch später gemachte Einstellungen nachvollziehen und einordnen zu können. Durch die manuelle Aktualisierung macht es die Anwendung jedoch je nach Kundengröße sehr aufwändig und kompliziert.
In der Diskussion kamen weitere Ideen und Anregungen für die vereinfachte Instandhaltung zu Tage. Hier wurden z.B. automatische API-Exporte oder die Verwendung von GA-Plugins wie Supermetrics und Next Analytics genannt.
Session 2: Data science with GA by Alexandros Papageorgiou
Alexandros hat seine Methodik für Data Science Analysen basierend auf Google Analytics Daten vorgestellt. Dabei bezieht er sich auf folgenden Ablauf:
Um mehrere Dimensionen und eine höhere Granularität der Daten abzufragen, ist es möglich mehrere Abfragen zu fahren und diese basierend auf bestimmten „key dimensions“ (z.B. Custom Dimension mit Unique User ID) zusammenzuführen.
5. Daten archivieren: sammelt und speichert die gewonnenen Daten
Schlussendlich ist es wichtig, nicht unbedingt alle, aber genug Daten zu haben, um repräsentative Analysen zu machen und Aussagen (predictions) zu treffen.
Die Beispiele von Alexandros basierten auf Daten der Google Analytics free edition.
Beim Verwenden von Google Analytics 360 empfiehlt sich der Rohdaten-Export via BigQuery.
Session 3: Firebase or not to Firebase by Mateo Fava (Discussion)
Mateo hat eine offene Diskussion gestartet, bei der viele Probleme angesprochen wurden, auf die er selbst und seine Agentur bei der Implementierung von Firebase für Apps stoßen. Wie sich während der Diskussion gezeigt hat, sind dies Probleme, mit denen auch viele andere Analysten und Developer zu tun haben.
Die meistverwendete Lösung ist aktuell die zweigleisige Implementierung von Google Analytics und Firebase für Apps (über den Google Tag Manager). Das Hauptproblem dabei ist die Dateninkonsistenz, die trotz gleichem SDK und Versenden der Daten in zwei Richtungen (einmal zu Firebase und einmal zu Google Analytics) besteht. Je höher der Datentraffic wird, desto weniger Daten werden an Google Analytics im direkten Vergleich zu Firebase übermittelt.
Eine Vermutung für einen möglichen Grund der Datendiskrepanz bzw. des Datenverlustes in GA bei erhöhtem Traffic: Der Google Tag Manager sendet die Daten erst zu Firebase und hängt Google Analytics dann hinten dran.
Amüsant war hier auch, dass Mateo die meisten Probleme mit der Dateninkonsistenz erst mit „Livegang“ der Apps feststellen konnte, da bei den vorherigen Tests alles funktionierte. Dafür gibt es aktuell allerdings keine Erklärung, auch nicht von Seiten des Google Supports, der diese Problematik aktuell untersucht.
Außerdem wurden Pros und Contras in Bezug auf Firebase diskutiert.
Weitere Probleme bei der Verwendung von Firebase Analytics stellen dar:
- Die Akquisitions-Kanäle in Firebase Analytics: Hier werden nur die vordefinierten Kanäle erkannt und überhaupt erfasst
- Sessions: es gibt kein Session-Level in Firebase
- Spezielle Regel für Firebase SDK: z.B. wird kein Unterstrich (underscore) akzeptiert und die Daten werden bei Verwendung dieses Formats gar nicht erfasst
- BigQuery: Die Integration per Default vs. Schema ist total unterschiedlich.
Mit den Entwicklungen der letzten Zeit haben sich im Endeffekt alle Developer dazu gezwungen gesehen für das Tracking von Apps, auf GTM v5 umzuziehen (Firebase SDK), da die alten SDKs nicht mehr aktualisiert und von vielen Netzwerken nicht mehr unterstützt werden.
Für kleine Apps ist Firebase als bevorzugte und alleinige Lösung vollkommen ausreichend, bei größeren Apps muss man aber nach aktuellem Stand der Entwicklungen weiterhin zweigleisig mit zusätzlicher GA-Implementierung fahren.
Session 4: Google Tag Manager: 5 years, what have we learned by Simo Ahava
Simo hat kurz den Weg und die Entwicklung vom Google Tag Manager in den letzten 5 Jahren vorgestellt, sowie interessante Denkanreize für die Weiterentwicklung gegeben.
Tag Management im Web, wie mit Hilfe des Google Tag Managers (GTM) umsetzbar, basiert auf JavaScript. Es ist „stateless“: Dynamik ist seine Natur und es werden zunächst keine Zustandsinformationen (wie Sitzungen oder Sitzungsverläufe) gespeichert, allein schon, weil das Web an sich zustandslos ist, muss es auch das Tag Management sein.
Ein System, das Anfragen getrennt voneinander betrachtet und keine Sitzungsinformationen austauscht, kommuniziert mit einem System das eben diese Informationen über seinen Zustand speichern kann. Ein einsehbarer Response-Mechanismus seitens Google Analytics wäre hier praktisch, um Regel im GTM daraufbasierend erstellen zu können. Da alle Kalkulationen aber on the fly stattfinden und viele Daten erst am Ende des Tages verfügbar sind, ist diese Idee recht problematisch.
Google Optimize basiert jedoch auf der GTM-Technologie und verfügt eben über einen solchen Response-Mechanismus mit Google Analytics. Dies bringt allerdings zum Nachdenken , warum das im Falle des GTM nicht möglich ist.
Anschließend hat Simo die wichtigsten Aspekte des Nutzens vom Google Tag Manger zusammengefasst:
Hauptziel und gleichzeitig das, bei dem der GTM bestens performt, bleibt das Deployment von Tags.
Die Keywords für die Entwicklung von GTM für die nächsten 5 Jahren sind laut Simo:
- Intelligence
- Collaboration
- Enterprise
- Full stack
- (Google) Integrations
Session 5: Attribution – the arguments for & against by Peter O’Neill
PS – I am anti.
Peter hat eine Diskussion angeboten und den Nutzen sowie die Richtigkeit von Attribution-Tools abgewogen. Es gab sehr viele Pros und Contras, nicht nur bzgl. der Tools aber auch bzgl. dem, was Richtig oder Besser bedeutet. Peters Aussage war, dass ein besseres Modell für Attributionen ein solches ist, dass einen höheren ROI aufzeigt.
Attribution und die Attributionsmodelle machen am meisten Sinn, wenn nicht nur Online sondern auch Offline Daten einbezogen werden. Nur dann ist das Gesamtbild des Zusammenspielens der Kanäle nachvollziehbar und umfassend bewertbar.
Schlussendlich waren sich alle einig, dass auch wenn nicht alles zu hundert Prozent korrekt ist, die Attributionstools aber auf jeden Fall als wichtige Insight-Tools dienen.
Session 6: Data whispering for analysts and the one graph that measures the universe by John Woods
John hat anhand von einem beispielhaften Data-Set unterschiedliche Abbildungsmöglichkeiten, basierend auf der Grafiken-Vielfalt in Excel, vorgestellt. Je nach gewählter Diagrammform wurden unterschiedliche Aspekte oder Auffälligkeiten betont, die zu einer besseren Analyse und Ansprache unterschiedlicher Nutzersegmente führen kann.
Seine Gedanken unterstützte er mit einem historischen Beispiel für die grafische Darstellung der Abhängigkeiten bei der Lichtintensität / Farbe/ Entfernung der Sterne.
Am Ende gab er noch ein Beispiel für Feature Engineering und Anwendung von Algorithmen, sodass Daten trotz Veränderungen der Bedingungen in der Zeit, weiterhin zusammenzuführen sind.
Session 7: I didn’t know you could do that by Julie Hoang
Julie hat uns eine Palette von Tipps und Tricks aus ihrem Google Analytics Alltag vorgestellt. Durch das Arbeiten und die konkreten Beispiele live im Tool haben alle viele praktische Ideen für den eigenen Analysten-Alltag mitgenommen.
Julie ging auf Kohorten- und Session Data-Segmente ein, sowie auf Custom funnels und darauf basierende Segmenterstellung. Des Weiteren stellte sie ihre Herangehensweise vor, um Funnels in Google Sheets mithilfe des Query Explorer zu erfassen. Das wäre besonders für viele Nutzer von Google Analytics free eine gute Alternative zu den Custom Funnels der 360-Version.
In der Diskussion ergab sich noch einen Tipp für ein frei verfügbares Tool zur Bildung von benutzerdefinierten Trichtern: http://app.profitgrid.io . Schaut doch mal rein.
Session 8: Blackhat SEO vs Analytics – if you had unlimited resources, what would you test by Angela Wilkinson
Angela hat eine sehr interessante Diskussion angeboten, die in die Tiefen des Blackhat SEO führte. Anders als üblich sollten Ideen und Vorgehensweisen gesammelt werden, die zur Verletzung der Richtlinien von Suchmaschinenbetreibern wie Google, Yahoo!, Bing etc., führen, um bestimmte Webseiten zum Untergang zu bringen bzw. diese aus den Suchergebnissen zu entfernen. Das erstaunliche Ergebnis: Angela hat in den letzten 2 Jahren in die Trickkiste gegriffen und unbegrenzte Blackhat SEO-Ressourcen eingesetzt, allerdings hat sie bislang eher das Gegenteil des gesuchten Effektes erreicht – die Webseiten ranken immer besser und besser😊
Die Diskussion war sehr lebendig und es kamen sehr vielfältige und kreative Vorschläge was noch ausprobiert werden könnte. Ein Beispiel war das Proxy Mirroring.
Abschlusssession
Bei der Abschlusssession kamen alle Teilnehmer noch einmal zusammen. Es wurde eine Zusammenfassung des Tages gemacht, viele Preise aus der Tombola verteilt und die nächsten MeasureCamp Events in weiteren Städten der Welt vorgestellt.
Aufnahmen und Ressourcen werden für alle interessierten hier zur Verfügung gestellt: http://london.measurecamp.org/past-events/measurecamp-11/
Am Ende wurde die Tradition des Londoner MeasureCamp fortgeführt, indem diesmal Peter O’Neill mit einem Legends Pokal ausgezeichnet wurde. Herzlichen Glückwunsch!
Er reiht sich somit in die Riege der MeasureCamp Legends ein.
Danach ging es für alle in Richtung Afterparty ins „Lightbox“.
Fazit
Die Teilnahme an dem MeasureCamp in London war eine sehr interessante und spannende Erfahrung, die viele neue Insights geliefert hat und einen Besuch lohnenswert macht. Auch wenn die Struktur der MeasureCamp-Unkonferenzen immer den gleichen Regeln folgt, bietet jede Veranstaltung und jede Stadt eine andere und bereichernde Erfahrung, sowie die Fokussierung unterschiedlicher Themen. Das MeasureCamp ist nicht nur eine Weiterbildungs- und Diskussions-Plattform, sondern auch ein Kontaktnetzwerk der Branche. Alle Besucher konnten viele neue Anregungen mitnehmen. An dieser Stelle ein großes Lob für die ganze Organisation und die tolle Atmosphäre an das Committee, die Sponsoren und die Gastgeber!