Die Logfile Analyse wird im Online Marketing immer relevanter. Mit Server Logfiles lassen sich nämlich nicht nur bloße Zugriffe auswerten, sondern auch Insights zu Themen wie der Suchmaschinenoptimierung generieren. Wir zeigen, wie man Logfiles vom Server herunterladen und analysieren kann.
Logfiles werden vom Server nach Zugriffen angelegt und dienen quasi als Protokoll. Aus den Server-Logfiles lassen sich hilfreiche Erkenntnisse, wie etwa die IP-Adresse oder der Zugriffszeitpunkt, herauslesen.
Da Logfiles unabhängig von Cookies oder bestimmten Browserversionen sind, kann mittels Logfile Analyse die absolute Nutzerzahl (abgesehen von Browser Caching) einer Website gemessen werden. Außerdem haben Server-Logs ein erhebliches Potenzial für die SEO Analyse zu bieten. So kann beispielsweise festgestellt werden, in welchen Zeitintervallen die Internetseiten vom GoogleBot gecrawled werden.
Grundlegende Voraussetzung für die Auswertung von Logfiles ist der Zugriff zum Server, auf dem die Website liegt. Sofern dieser vorhanden ist, muss man sich zunächst über die Kommandozeile mit dem Server verbinden.
Nun muss festgestellt werden, wo die Access Logs gespeichert werden. Bei Apache Webservern unter Ubuntu / Debian ist dies meistens im Verzeichnis /var/log/apache2 der Fall, eine Suche mittels „locate access.log“ kann zusätzlich weiterhelfen.
Sobald das entsprechende Verzeichnis gefunden ist, verbinden wir uns per FTP mit dem Server und laden die Datei access.log herunter. Dieses Vorgehen bildet die Basis für die toolbasierte Auswertung von Logdateien.
Zuerst sollte klar gestellt werden, dass eine händische Auswertung von Logfiles bereits bei nur wenigen Zugriffen pro Tag ein sehr zeitintensives Unterfangen wäre. Um Logfileanalysen durchführen zu können, benötigen wir also Tools. Diese existieren jeweils für unterschiedliche Anwendungszwecke. Teilweise können Tools direkt auf dem Server installiert werden, ein Download der Server Logfiles mittels FTP wäre dann gar nicht nötig.
Für SEO Analysen eignet sich besonders für Anfänger der SEO Log File Analyser von ScreamingFrog.
Nach Anlage eines Projekts und dem Import einer Logfiledatei kann mit dem Tool nach einzelnen Suchmaschinenbots gefiltert werden. So lassen sich, bestenfalls in Verbindung mit Excel oder Google Sheets, einige Insights generieren.
Ein möglicher Use Case für die SEO Analyse wäre die Auswertung, wie oft eine bestimmte URL von Google gecrawled wird. Dabei wählen wir in der oberen Leiste zunächst den Dropdown All Bots aus und ändern die Einstellung zu All Googlebots. Im Reiter URLs filten wir nun über die rechte Suchleiste nach einer bestimmten URL. Ganz rechts sehen wir nun, wie oft das Dokument vom Googlebot in dem Zeitraum, den wir rechts oben eingestellt haben, angefordert wurde. Ebenfalls interessant wäre es dabei, den letzten Response Code auszuwerten, um zu überprüfen, ob der Bot die Ressource abrufen kann.
Mittels Logfileanalyse lassen sich ebenso Nutzeranalysen durchführen. Diese kümmern sich oft selbst um die datenschutzkonforme Implementierung der Analysemethode, beispielsweise mit einer Anonymisierung von IP Adressen. Einer der Marktführer für Tools im Bereich Log Analytics ist der Anbieter Matomo, die Software lässt sich bereits für vergleichsweise wenig Geld einsetzen.
In Zeiten der DSGVO und restriktiverem Umgang mit Cookies durch Browser steigt die Notwendigkeit, Logfiles auch für die Nutzeranalyse einsetzen. Verhaltensbasiertes Tracking wie etwa die Auswertung der Scrolltiefe eines Seitenaufrufs ist mittels Server Logs zwar nicht möglich, trotzdem bieten sie eine gute Alternative zu Google Analytics und weiteren Tools, die auf Page Tagging basieren.