Bücher online kostenlos Kostenlos Online Lesen
Google Analytics - Implementieren Interpretieren Profitieren

Google Analytics - Implementieren Interpretieren Profitieren

Titel: Google Analytics - Implementieren Interpretieren Profitieren Kostenlos Bücher Online Lesen
Autoren: Timo Aden
Vom Netzwerk:
übertragen oder der Ladevorgang evtl. abgebrochen wurde.
Wie viel wurde übertragen?  
Die Größe der Übertragung der gesamten Einzelteile (Anzahl Byte) wird aufgezeichnet.
Von woher wurde diese Seite angefordert? Von welcher Internetseite also?  
Es wird festgestellt, von welcher Internetseite und sogar von welchem Link der Abruf kam.
Welcher Browser hat die Seite abgerufen?  
Der Browser des Users teilt dem Webserver einige Daten mit und identifiziert sich beispielsweise als Firefox-12.0-Browser. Dies ist sinnvoll, weil sich die Darstellungsweisen in verschiedenen Browsern unterscheiden können und der Webserver daher wissen muss, wie er die Daten für eine vernünftige Darstellung übermittelt.
Welches Betriebssystem hat die Seite abgerufen?  
Das Betriebssystem wird bei einem Seitenabruf ebenfalls an den Webserver übergeben. Der Webserver protokolliert also, ob etwa ein Mac die Seite abgerufen hat oder ein Windows-Rechner mit Windows Vista.
    Und so kann eine Log-File-Datei aussehen:
    Listing 3.1  Log-File-Datei
    183.121.143.32 - - [18/Mar/2003:08:04:22 +0200] "GET /images/logo.jpg HTTP/1.1"
    200 512 "http://www.wikipedia.org/" Mozilla/5.0 (X11; U; Linux i686; de-DE; rv:1.7.5)
    183.121.143.32 - - [18/Mar/2003:08:05:03 +0200] "GET /images/bild.png HTTP/1.1"
    200 805 "http://www.google.org/"
    All diese Daten werden stetig und fortlaufend von jedem Webserver mitgeschrieben. Ihre Analyse vermittelt bereits höchst aufschlussreiche Erkenntnisse über den Erfolg von Websites und es gibt Website-Betreiber, die auf Log-File-Analysen schwören. Diverse teils kostenlose, teils kostenpflichtige Tools stehen Webmastern zur Verfügung.
    Hier eine Auswahl kostenloser Log-Files-Programme:
AWStats
RRDtool
W3Perl
Webalizer
uvm.
    Unter den professionellen Web-Analytics-Anbietern haben sich mittlerweile fast alle von der reinen Log-File-Analyse entfernt und der Page-Tagging-Lösung zugewandt. Dennoch gibt es einige Vorteile, die die Auswertung von Log Files mit sich bringt. Hier eine kurze Auflistung:
Historische Daten können einfach „reprocessed“ werden  
Weil der Webserver die Log Files fortlaufend mitschreibt, lassen sich diese extrahieren und immer wieder neu anordnen und auswerten. Will man also historische, bereits erhobene Daten neu zusammenstellen, ist es recht unproblematisch, diese neu oder anders anzuordnen. Dadurch ergibt sich eine gewisse Flexibilität der Auswertungsmöglichkeiten historischer Daten.
Keine Firewall-Problematik  
Viele Unternehmen schützen ihre IT-Infrastruktur und firmeninternen Netzwerke, indem sie eine sogenannte Firewall zwischen Internet und Firmennetz errichten. Dies ist eine Sicherheitsmaßnahme und bedeutet, dass jeder Rechner einer Firma, der innerhalb dieser Firewall ist und Internetseiten aufrufen möchte, durch diese Firewall muss. Die Firewall überwacht den Datenverkehr anhand entsprechender Regeln. Wenn nun eine Internetseite von einem Webserver abgerufen wird, geschieht dies wie bei jedem anderen Rechner außerhalb der Firewall – der Webserver stellt die Einzelteile der Webseite zur Verfügung. Alles, was danach passiert, ist dem Webserver schlichtweg egal. Daher gibt es keine Probleme bei der Messung von Log Files bei Firewalls.
Abgeschlossene Downloads können gemessen werden  
Der Webserver stellt sämtliche Daten zur Verfügung, die man zur kompletten Darstellung einer Website benötigt. Dazu gehören auch Dokumente, die sich der User herunterladen kann, wie beispielsweise PDF-Dokumente, MP3s, Videos oder sonstige Scripte oder Dateien. Diese werden auf dem Webserver vorgehalten und bei Abruf durch einen User ausgeliefert. Die Log Files schreiben exakt mit, wann der Download begonnen und ob er abgeschlossen wurde. Besonders bei größeren Dateien oder Videos ist es interessant zu wissen, ob der User das Dokument vollständig heruntergeladen oder aufgrund der durch die Größe des Dokuments bedingten Ladedauer oder anderer technischer Probleme den Vorgang abgebrochen hat. Log Files verfügen über diese Informationen.
Suchmaschinen-Bots/-Spider werden automatisch protokolliert  
Suchmaschinen wie Google, Yahoo! oder Live indizieren viele Millionen Seiten des Internets – Tag und Nacht. Automatisiert „hangeln“ sich diese Robots (kurz: Bots) von Link zu Link und von Seite zu Seite, um zu protokollieren, welche Inhalte dargestellt sind, ob und was sich geändert hat, welche Links wohin führen usw. Vielfältige Informationen werden über diese Bots generiert,

Weitere Kostenlose Bücher