Webstatistiken und Analysen sind der Schlüssel zum Erfolg im E-Business
Traditionell können Informationen über den Besuch einer Website durch den Einsatz von Logfile-Analyse-Tools ermittelt, die die Logdateien, in die ein Webserver während des Betriebs alle Zugriffe mitprotokolliert, auswertet und entsprechende Reports generiert. Diese Form der Auswertung birgt jedoch einige Unzulänglichkeiten:
• Sie arbeitet auf einer unzureichenden Datenbasis, die z.T. auch fehlerbehaftet ist oder wichtige Informationen nicht enthält.
• Es werden keine betriebswirtschaftlich relevante Daten – i.d.R. in Form von KPIs (Key Performance Indicators) - daraus gewonnen oder in Relation mit z.B. Marketingaktionen gebracht.
• Sie bedeutet einen hohen Aufwand und damit verbundene administrative Kosten.
• Es entsteht oftmals ein zeitlicher Verzug in der Analyse der Daten. Die Umsetzung von Korrekturen wird unnötig verzögert.
• Sie führt häufig zu organisatorischen Problemen, beispielsweise wenn die Logdaten auf einem Server innerhalb eines geschützten Computernetzes stehen und keine Zugriffsrechte für die, an der Auswertung der Logdaten interessierte Personen, existieren.
Alternative Datengewinnung
Aus diesen Gründen gehen immer mehr Anwender dazu über, eine alternative Technik zur klassischen Logfile Analyse zu implementieren, die so genannte „Zählpixelmethode“, einer Methode der „Client Side Data Collection“ (Ermittlung der Daten auf der Benutzerseite). Hierbei werden mittels eines so genannten „unsichtbaren Pixels“, relevante Daten durch den Browser auf der Kundenseite ermittelt. Diese Methode löst viele der oben genannten Probleme und liefert zudem qualitativ bessere Daten über die tatsächliche Benutzung einer Website.
WiredMinds bietet mit der Enterprise Edition eine solche Technologie im ASP (Application Server Provider) Modell oder als Lizenz an und liefert die Daten in grafisch aufbereiteter Form.
Probleme bei der Logfileanalyse
Logfiles, in denen Webserver die Zugriffe protokollieren, enthalten alle so genannten „Hits“ auf eine Website. Als „Hit“ wird dabei jede individuelle Anfrage gewertet, die an einen Web Server geschickt wird. Intuitiv würde man denken, dass jeder „Hit“ mit einer Webseite auf dem Server korrespondiert, tatsächlich enthält eine Webseite jedoch viele unterschiedliche Objekte, wie z.B. Bilder – jedes davon produziert einen „hit“ im Logfile des Servers. Daher produziert die Abfrage einer einzelnen Webseite (oder auch eines so genannten „Page Views“) in der Regel eine viel höhere Anzahl an „Hits“, die alle im Logfile des Web Servers mitprotokolliert werden.
Damit ergibt sich schon das erste Problem der Logfile Analyse, denn der Großteil der darin enthaltenen Informationen hat nur einen geringen Wert bei der Ermittlung des tatsächlichen Besucherverhaltens. Viele Anwender versuchen daher schon im Vorfeld, mit Hilfe unterschiedlichster Verfahren, diese Datenflut zu reduzieren bzw. die relevanten Informationen herauszufiltern. Die dabei eingesetzten Tools müssen zumindest einmalig alle Daten einlesen und bewerten, bevor sie selektiert werden können. Dies führt definitiv zu einem Performancenachteil und einem erhöhten Aufwand bei der Bewältigung der großen Datenmengen.
Ein damit verbundenes und sehr viel größeres Problem ist jedoch die Unzuverlässigkeit in der Selektion der wirklich wichtigen Daten, bzw. das Problem, dass relevante Informationen in den Logfiles des Webservers gar nicht enthalten sind. In den meisten Fällen repräsentiert das Logfile nicht die tatsächliche Interaktion eines Besuchers mit einer besuchten Website! Proxy Server sind nur ein Beispiel, durch das die Analyseergebnisse stark beeinflusst werden können. Proxy Server dienen als Zwischenspeicher von zuvor aufgerufenen Webseiten, oftmals werden genau die Seiten zwischengespeichert, die am häufigsten aufgerufen werden. Diese Seiten werden dann nicht vom entsprechenden Webserver, sondern aus dem Speicher des Proxy Servers heruntergeladen.
Lokale „Caches“ (Zwischenspeicher eines Computersystems) haben einen ähnlichen Effekt und führen dazu, dass diese Zugriffe nie im entsprechenden Logfile des Webservers protokolliert werden.
Damit kann die grundsätzliche Auswertung der Zugriffe auf eine Website völlig fehlerhaft werden, beispielsweise auch die Generierung von Klick-Pfad Analysen. Sämtliche Auswertungen müssen hinsichtlich ihrer Genauigkeit in Frage gestellt werden.
Weitere Ungenauigkeiten in den Daten können durch so genannte „Spider“, „Crawler“ oder „Robots“ oder andere automatisierte Mechanismen, beispielsweise zur Seitenidentifizierung durch Suchmaschinen, entstehen. Diese Programme können künstlich erzeugte „Hits“ in den Logfiles des Webservers verursachen, die nicht auf natürliche Weise, durch den Besuch eines Kunden auf der Website, entstanden sind.
Das Problem, das jedoch häufig auch Systemadministratoren oder die für die Logfileanalyse Verantwortlichen beschäftigt, tritt bei Webseiten mit sehr hoher Last auf, deren Zugriffe auf mehrere Webserver auf unterschiedlichen Maschinen verteilt wird (so genanntes „Load Balancing“). Dadurch wird die generelle Verfügbarkeit und die Performance eines Service zwar gesteigert, allerdings liegen jetzt die Logdaten auf den beteiligten Servern verteilt und es können oftmals keine zusammenhängenden Sessions mehr erkannt oder nur mit sehr hohem Aufwand wieder aus mehreren Logfiles zusammengefügt werden. Eine Analyse des Besucherverhaltens wird damit praktisch unmöglich.
Ein weiteres Problem gilt speziell für Webseiten, die in Macromedia Flash programmiert sind: Flash Applikationen produzieren keine Logfiles. Die Logdatei des Webservers enthält nur die „Hits“, die zum Herunterladen der Flash Applikationen oder seiner Teilkomponenten dienten – jedoch keinerlei Daten über die Interaktion mit den Elementen innerhalb der laufenden Applikation. Diese Tatsache betrifft all diejenigen, die Flash gerne aufgrund seiner sehr viel höheren Möglichkeiten und dem Erlebnisreichtum einer programmierten Applikation an Stelle von statischen Webseiten einsetzen möchten.
Die Lösung:
Zählpixelbasiertes Tracking kann alle beschriebenen Probleme lösen und liefert zusätzlich bessere Analyseergebnisse mit sehr viel geringerem Aufwand. Die Ergebnisse sind außerdem schneller, besser und direkt dem verantwortlichen Personenkreis zugänglich.
Wie funktioniert Tracking mit einem Zählpixel?
Es funktioniert genauso, wie es der Name schon vermuten lässt – indem man ein „unsichtbares Pixel“, also ein Tag (Markierung, Kennzeichnung) an allen relevanten Stellen einer Webseite einbaut, die dann entsprechende Informationen über diese Seite oder der darin enthaltenen Elemente an einen Server zurück sendet. Damit können auch Informationen über den verwendeten Browser des Kunden oder beliebige andere Informationen an einen entsprechenden Zählserver – im Falle einer WiredMinds ASP-Lösung an einen Server in unserem Security Cluster – gesendet werden. Die empfangenen Daten werden dann vom WiredMinds Server direkt in Echtzeit verarbeitet und für die Auswertung in einer relationalen Datenbank gespeichert. Dies hat den Vorteil, dass die Daten später in beliebigen Relationen zueinander, für die verschiedensten Analysen, je nach Wunsch, verarbeitet werden können.
Das „Tag“ selbst ist in der Regel ein kurzes Stück Scripting Code, typischerweise Javascript (es kann auch reiner HTML Code dazu verwendet werden), welches die seitenspezifischen Informationen über so genannte Abfrageparameter überträgt. Das Ziel ist dabei über eine GET Anfrage auf ein unsichtbares Zählpixel (ein kleines Bild der Größe 1x1), die entsprechenden Daten an den Zählserver zu übertragen.
Der notwendige Scripting Code kann in vielen unterschiedlichen Sprachen, beispielsweise in Flash, Java, PHP oder ASP geschrieben sein und wird von WiredMinds den Kunden zur beliebigen freien Verwendung zur Verfügung gestellt.
Mittels der Pixel-Technologie können wesentlich genauer Besucherzahlen und Verhaltensmuster analysiert werden, als dies mittels einer aufwändigen und fehlerträchtigen Logfileanalyse der Fall ist, da der zum „Tag“ dazugehörige Code bei jeder Anzeige im Browser des Kunden ausgeführt wird. Dabei produziert jedes „Tag“ auch nur jeweils einen „hit“. Außerdem werden diese „hits“ in einer einzigen zentralen Datenbank erfasst und nicht in mehreren Logfiles an unterschiedlichen Orten.
Damit werden die Probleme und Fehler der klassischen Logfileanalyse eliminiert.
Es ist zudem möglich, Parameter zu ändern und „hits“ beispielsweise von verschiedenen Domains zu zählen. Das „Tag“ kann zudem Informationen enthalten, die nur sehr schwer oder gar nicht über eine Logfileanalyse ermittelt werden können. Wiederkehrende Besucher können über ein zusätzlich verwendetes „Cookie“ (dies ist optional einsetzbar) nicht nur erkannt, sondern auch nach anonymen und bekannten Besuchern unterschieden werden und vieles mehr.
Die Vorteile der webbasierten Lösung liegen zudem auf der Hand: Keine Installation und Wartung von zusätzlicher Software zur Analyse und Bearbeitung der Logdaten und damit auch keinerlei zusätzlicher administrativer Aufwand. Zudem können verschiedene Mitarbeiter auf die Daten oder Teilbereiche davon zugreifen.
Die zuvor anonymisierten Daten werden auf dem Security Server Cluster verarbeitet, der den Kunden große Vorteile bietet. So sind die Daten immer aktuell verfügbar, ohne dass dabei Kosten für Anschaffung und Betrieb einer eigenen Hardware anfallen! Somit können zu jedem beliebigen Zeitpunkt Analysen durchgeführt werden.
Ein weiterer Kostenvorteil liegt in der Verwendung einer Cluster- Architektur, welche die Kosten des laufenden Betriebs verteilt und damit die Kosten für den Einzelnen senkt. Daneben betreibt WiredMinds bei Bedarf auch dedizierte Kundenserver oder installiert und betreibt diese auf Wunsch auch direkt beim Kunden, wenn es die speziellen Anforderungen an Sicherheit und Vertraulichkeit der Daten erfordern.
Alle Daten werden in Echtzeit ermittelt und ausgewertet. Über die grafische Web-Oberfläche lassen sich eine Vielzahl von Auswertungen durchführen, beispielsweise die generelle Anzahl an Besuchern, PageImpressions (PI), aber auch über verwendete Browsertypen, Bildschirmauflösungen und Betriebssysteme oder Klickpfade durch die Website und die Verweildauer der Kunden auf einer Seite und vieles mehr. Sollten diese immer noch nicht ausreichen, können auf Kundenwunsch auch individuelle Auswertungen erstellt werden.
Immer mehr Websites analysieren das Besucherverhalten mit der Methode des „Zählpixels“, um zuverlässige und aussagefähige Analyse-Reports aus vielen unterschiedlichen Situationen heraus zu generieren. Der große Vorteil liegt zudem in der aktiven Steuerung der Zählung durch die Website Betreiber. Durch das gezielte Implementieren von Zählpixeln können ganz individuelle Auswertungen durchgeführt werden – ohne dass dazu Änderungen an der Analyse Software notwendig werden. Der dabei entstehende, große Kostenvorteil, im Gegensatz zur klassischen Logfileanalyse, ist ein weiteres Argument.
Dabei liefert WiredMinds größtmögliche Sicherheit und Vertraulichkeit bei der Verarbeitung Ihrer Daten. Dies würde vom TÜV bestätigt.
WiredMinds steht bei Bedarf auch bei der Implementation der Zählpixel, der Generierung von individuellen Reports oder der Planung und Implementation einer ganz eigenen Tracking Lösung, als Projektpartner zur Verfügung.