Tipp der Woche: Valide Daten

Nicht jede Abweichung stellt einen Fehler dar

Valide Daten sind die Grundlage für aussagekräftige Analysen und fundierte Entscheidungen. Werden zur Kontrolle Daten zwischen unterschiedlichen Web-Analyse-Lösungen, zwischen Web-Analyse und Backend-Systemen oder zwischen Web-Analyse und Ad-Server-Auswertungen verglichen, gilt es Folgendes zu beachten:

1. Minimale Abweichungen ignorieren

Abweichungen unter 5% sollten als normal angesehen werden. Selbst bei identischen Verarbeitungsvorgängen und Kennzahl-Berechnungen kann allein die Position des Tags im HTML der Seite oder die Entfernungen zu den unterschiedlichen Rechenzentren geringfügige Abweichungen hervorrufen.

2. Geringe Abweichungen verstehen

Selbst Abweichungen von 5-10% sind nicht ungewöhnlich und nicht zwangsläufig ein Hinweis auf fehlerhafte Implementierungen oder Reporting-Probleme. Folgende Aspekte können begründete Abweichungen hervorrufen:

  • Werbe-Vermarkter messen Klicks meist direkt über die Publisher-Seite bzw. das Werbe-Medium, während Web-Analyse erst auf der Zielseite zum Einsatz kommt (außer bei Einsatz von Weiterleitungs-Links). Schließt der Besucher sehr schnell das Browserfenster bzw. den Tab, findet keine Erfassung auf der Zielseite statt.
  • Klicks, Besuche und Besucher sind in unterschiedlichen Lösungen unterschiedliche paar Schuhe. Während die Definition von Klicks gleich sein sollte, erfolgt die Berechnung von Besuchen und Besuchern häufig auf Basis unterschiedlicher Logiken und Techniken, z.B. Besuchsende nur auf Basis von Time-outs oder Besucher-Wiedererkennung mittels Cookies, Fingerprints, User-IDs oder Session-IDs.
  • etracker Analytics beachtet standardmäßig die DoNotTrack-Signale der Browser. Andere Lösungen bieten diese Option nicht oder erfordern hierfür besondere Einstellungen.
  • Die Datenerfassung kann auch durch „strenge“ Datenschutzeinstellungen in Browsern bzw. „private“ Fenster sowie zusätzliche Werbe- und Tracking-Blocker unterbunden werden.
  • Bei etracker Analytics wird Traffic von bekannten Bots und Spidern automatisch herausgefiltert. Bei anderen Lösungen muss der Ausschluss von Bot-Traffic aktiviert werden.
  • Abweichungen aufgrund von Zahlungsdienstleistern wie PayPal, Amazon Payments und Kreditkarten lassen sich minimieren, aber nicht gänzlich vermeiden. Hintergrund für die Abweichungen ist, dass Kunden nach dem externen Bezahlvorgang die Rückkehr zur Shop-Seite trotz „Auto-Return“-Einstellung abbrechen können.
  • Bei anderen Lösungen kann es insbesondere bei hohem Traffic zu Abweichungen durch Sampling (Stichprobenerhebung) kommen. Auch findet mitunter bei einwilligungspflichtigem Tracking eine Hochrechnung von den eingewilligten Nutzern auf die Gesamtheit aller Besuche statt. Beides trifft bei etracker Analytics nicht zu.

3. Größere Abweichungen untersuchen

Übersteigen die Abweichungen die 10%-Schwelle, sollten mögliche Fehlerquellen jenseits der unter Punkt 2 aufgeführten Aspekte untersucht werden. Meist sind hohe Abweichungen durch fehlerhafte Implementierungen begründet. Folgenden Fragen gilt es nachzugehen:

  • Wird die Ausführung des etracker Codes fälschlicherweise durch das Consent Management blockiert?

    Die Art des Zusammenspiels mit dem Consent Management (also Pre- oder Post-Consent-Tracking) hat einen gewaltigen Einfluss auf die Datenerfassung. Der etracker Code beinhaltet im Standard ein integriertes Cookie-Blocking und sollte daher vom Blocking durch das CMP ausgenommen werden. Siehe hierzu auch unsere Anleitungen zur korrekten Integration von etracker Analytics in CMPs.
  • Ist der etracker Code auf allen Seiten korrekt implementiert und werden alle Seiten eindeutig erfasst?

    Sollten die Seitentitel nicht eindeutig sein oder Seiten nur per URL-Parameter differenziert werden, müssen die Standard-Einstellungen angepasst oder Code-Parameter verwendet werden. Zu beachten sind auch die speziellen Anforderungen bei AMP-Seiten, Single Page Applications und Ähnliches.
  • Erlaubt der CSP-Header der Website eventuell keine Parametrisierung?

    Die Content Security Policy (CSP) kann fälschlicherweise die Ausführung des etracker Codes blockieren oder dazu führen, dass er nicht korrekt funktioniert.
  • Ist das Kampagnen- und insbesondere das SEA-Tracking korrekt implementiert?

    SEA-Traffic wird automatisch dem Medium SEO zugeordnet, wenn die SEA-Kampagnen nicht mit UTM- oder etracker-Parametern im Feld Suffix der finalen URL versehen wurden.

Beim Testen bitte darauf achten, dass man selbst nicht per IP-Sperre oder mittels Opt-Out-Cookie von der Messung ausgeschlossen ist!

Wenn du alle genannten Aspekte geprüft hast, kannst du auf deine etracker Analyse-Daten zählen.

Gern helfen dir auch unsere Consulting-Experten in Form eines individuellen und gründlichen Implementierungs-Check-Ups. Diesen am besten regelmäßig – wie für Kraftfahrzeuge gewohnt – alle 2-3 Jahre wiederholen, um vollends von allen etracker Neuerungen und Möglichkeiten zu profitieren.

Nach oben scrollen