Schwerpunkt Web-Controlling: Eine Einführung von Christian Bennefeld

Juli 1st, 2008 by admin Leave a reply »

Das Internet ist keine Spielwiese für Kommunikations-Pioniere mehr, für viele Unternehmen ist es längst zu einem strategischen Standbein geworden. Parallel zu seiner wachsenden Bedeutung für das Gesamtgeschäft steigen auch die Online-Werbebudgets. Allein im ersten Halbjahr 2007 betrug der Bruttowerbeumsatz über 470 Millionen Euro – den Experten von Nielsen Media Research zufolge wird sich der Boom des Mediums auch in den folgenden Monaten noch fortsetzen. Die finanzielle Dimension, die das Geschäftsfeld Internet seit der “Dotcom”-Flaute erreicht hat, verlangt nach effizienten Controlling-Instrumenten. Wirtschaftlichkeit und hoher Nutzen sind ausschlaggebende Kriterien, an denen ein erfolgreiches Internet-Geschäft gemessen wird. Deshalb müssen Online-Maßnahmen heute mehr denn je einer zuverlässigen Erfolgskontrolle und -steuerung unterzogen werden können, um vorhandene Potenziale besser zu nutzen und die Effizienz der Maßnahmen zu steigern.

Controlling als kontinuierlicher Steuerungskreislauf

Der Begriff des Controllings kommt aus dem Amerikanischen und bedeutet wörtlich übersetzt Steuerung. Im Rahmen des Controllings werden dem Management eines Unternehmens möglichst genaue betriebswirtschaftliche Kennzahlen für Entscheidungen vorgelegt. Controlling ist kein einmaliger Vorgang, sondern ein kontinuierlicher Prozess der Erfolgskontrolle und der Steuerung der geschäftskritischen Prozesse.

Ob realer Markt oder Online-Business – damit Analyse-Instrumente ihren vollen Nutzen bringen können, muss Controlling als geschlossener Kreislauf und zugleich als integrierter Prozess verstanden werden. Für den Website-Betreiber resultiert aus dieser Maxime ein kontinuierlicher Steuerungsablauf aus vier Einzelschritten: Ziele festlegen, Besucherdaten erfassen, Daten analysieren, Optimierungsmaßnahmen durchführen. Intelligente Web-Controlling Lösungen unterstützen diesen Zyklus, indem sie Kunden- und Nutzungsdaten systematisch sammeln und auswerten.

Ohne Ziele keine Steuerung

Bevor jedoch ein entsprechendes System zum Einsatz kommt, sollten sich Unternehmen darüber im Klaren sein, welche Key Performance Indicators (KPIs) durch die Analyse ihrer Online-Aktivitäten erfasst werden sollen. Erst wenn die Ziele klar definiert sind, lassen sich Webauftritte und sämtliche Maßnahmen des Online-Marketings zielführend steuern, kontrollieren und bei Bedarf optimieren. Ob es sich dabei um die Navigation des Informationsportals, die Bestellkette eines Internet-Shops oder die Wirtschaftlichkeitsanalyse der laufenden Marketing-Kampagnen handelt, spielt keine Rolle: Das Vier-Schritte-Prinzip des Web-Controlling gilt für sämtliche Bereiche des Internet-Auftritts.

Logfile-Analyse birgt zahlreiche Risiken

Zahlreiche Anbieter von Tracking-Lösungen arbeiten nach wie vor mit der sogenannten Logfile-Analyse. Beim Einsatz dieses Verfahrens wird versucht, aus der vom Webserver geschriebenen Logdatei Statistiken zu generieren. Hierbei ist zu beachten, dass nicht jeder Zugriff den Webserver tatsächlich erreicht. Dies ist dann der Fall, wenn Zugriffe durch lokale Zwischenspeicher (Caches) oder im Netz betriebene sogenannte Proxy-Caches befriedigt werden.

Caching hat zum Ziel, den Seitenabruf zu beschleunigen und den Netzwerkverkehr zu mindern. Dazu werden aus dem Internet abgerufene Webseiten und Grafiken entweder lokal durch den Browser oder auf einem speziellen Server auf dem Weg zwischen Browser und Webserver abgespeichert. Erfolgt ein weiterer Zugriff auf dieselbe Seite, wird diese nicht ein weiteres Mal vom Webserver angefordert, wo diese Anforderung protokolliert werden könnte, sondern aus dem Zwischenspeicher geladen.

Die Folge ist, dass nicht mehr alle Seitenabrufe in den Logfiles verzeichnet werden. Proxies werden häufig als zentrale Schnittstelle zwischen Computernetzwerken einer Organisation oder eines Unternehmens und dem Internet eingesetzt. Zum einen haben sie die Funktion eines großen Caches, um die Netzwerklast und damit die Kosten der Internetanbindung zu reduzieren. Zum anderen verbirgt ein Proxy-Server häufig ein gesamtes Netzwerk hinter seiner eigenen IP-Adresse. In einem Server-Logfile erscheint stets die Adresse des Proxies, obwohl der Zugriff tatsächlich von verschiedenen Computern hinter diesem Proxy erfolgte. Die Folge sind eine zu geringe Besucherzahl, eine zu große Zahl an Seitenabrufen pro Besucher sowie eine verzerrte Verhaltensdarstellung in der Logfile-Analyse.

Eine weitere Fehlerquelle besteht darin, dass Seitenzugriffe von Besuchern, die mit regelmäßigen Abständen eine neue IP-Adresse erhalten, von der Logfile-Analyse nicht als zusammenhängender Besuch erkannt werden können. Diese Problematik tritt vor allem dann auf, wenn Nutzer ihren Internetzugang über große Provider erhalten. Einfache Logfile-Analyser registrieren in der Regel pro IP-Adresse auch exakt einen Besucher. Doch diese Annahme erweist sich häufig als falsch: Große Provider wie beispielsweise AOL teilen einem Kunden unterschiedliche IP-Adressen zu, die in sehr kurzen Zeitabständen während des Besuchs einer Website wechseln. Ähnliches ist mit Anonymisierungstools möglich, die theoretisch von jedem Internetnutzer eingesetzt werden können und ebenfalls mit einer relativ hohen Frequenz die IP-Adressen ändern. So zählt die Logfile-Analyse wesentlich mehr Besucher, als tatsächlich die Präsenz besucht haben.

Ein Pixel als Ausweg

Diese technischen Probleme treten mit der Pixel-Technologie von etracker nicht auf. Das etracker Web-Controlling liefert unverfälschte Kennzahlen, indem es absolut jeden Zugriff auf eine Internetseite festhält – unabhängig davon, ob die Website dynamisch ist, komplett auf Flash basiert, mit Programmiersprachen wie zum Beispiel PHP, JSP oder Cold Fusion generiert wurde oder aus statischem HTML-Code besteht. Um eine Website auswerten zu können, wird ein kleines Stück HTML-Code auf den Webseiten eingebracht.

Sobald ein Besucher eine Webseite öffnet, auf der die etracker Technologie eingesetzt wird, lädt er damit ein kleines unsichtbares Pixel, das zu dieser Seite gehört, jedoch aus dem etracker Rechenzentrum geladen wird. Im Rechenzentrum werden Zugriffe auf die gekennzeichnete Seite und einige Daten des Besuchers (Betriebssystem, Browser-Typ etc.) gespeichert. Das etracker Pixel lässt sich in Form eines für den Besucher unsichtbaren HTML-Codes (bei Flash ist es ein Flash-Component) problemlos in Webseiten einbauen. Das Einfügen des etracker Codes ist völlig unkompliziert und in kurzer Zeit erledigt. Zur Verwendung dynamischer Seiten auf Basis von JSP, ASP, PHP oder CFM werden von etracker entsprechende Klassen und Funktionen zur Code-Erzeugung geliefert.

Advertisement

Comments are closed.