Blog

Über die Entwicklung des Internets

Die weitreichende Bedeutung vieler großer Erfindungen erkannten die Menschen erst im Nachhinein. Ähnlich war es wohl auch mit dem Internet: In seinen Anfangsstadien konnte vermutlich noch kaum jemand ahnen, welche Bedeutung ein weltweites Computernetzwerk für den Alltag der meisten Menschen einnehmen wird.

Zweifelsfrei ist das Internet eine der aller wichtigsten – wenn nicht sogar die wichtigste – Erfindung der letzten Jahrzehnte. Ironischerweise gibt es aber im Netz nur wenige Artikel, die sich mit dessen Entstehungsgeschichte befassen. Das möchten wir ändern, und Ihnen an dieser Stelle die wichtigsten Eckpunkte rund um die Entstehung und Entwicklung des Internets näher bringen.

Die frühen Anfänge

Als Forscher erstmals an der Vernetzung von Computersystemen arbeiteten, konnten sie nicht ahnen, wozu dies eines Tages genutzt werden würde. Dinge wie Onlineshopping, Videostreaming, Messenger, Social Media – all diese Dinge waren zu der Zeit noch niemandem ein Begriff.

Generell waren die Bereiche Wirtschaft und Unterhaltung nicht jene, die die Entwickler der ersten Computernetzwerke im Sinn hatten. Vielmehr ging es damals um den militärischen Einsatz, die Nutzung für die Raumfahrt, und die Kommunikation zwischen wichtigen Forschungseinrichtungen.

Der historische Kontext

Es herrschte der kalte Krieg. Die USA und die damalige Sowjetunion versuchten permanent, einander in allen Belangen zu übertreffen. Besonders wichtig war dabei das Gebiet des technologischen Fortschritts, der Forschung und Entwicklung neuer Technologien. Den meisten Menschen ist hierbei das „Wettrennen“ ins Weltall ein Begriff, aber ähnlich war es auch im Bereich der Informationstechnologie (die wiederum für die Raumfahrt auch von großer Bedeutung war und ist).

Dieser Zeitgeist förderte finanziell und emotional wohl auch die Entwicklung des Arpanets, dem Vorvater des heutigen Internets.

Arpanet – Vorvater des Internets

Ursprünglich war APRA nur ein kleines Büro, dass für die Zuweisung von Forschungsgeldern und Aufträgen an verschiedene wissenschaftliche Einrichtungen zuständig war.

Die US-amerikanische Behörde „Advanced Research Projects Agency“, Kurzform ARPA, ist namensgebend für das damalige Arpanet. Ende der 50er Jahre wurde diese Organisation eingerichtet – sie war nicht zuletzt eine Reaktion auf den Erfolg den doe Sowjetunion mit „Sputnik“ in der Raumfahrt erzielen konnte.

So wurde das Arpanet schließlich als frühes, dezentrales Computernetzwerk entwickelt.

Wozu das Arpanet entwickelt wurde

Bereits vor der Entwicklung des Arpanets gab es Computernetzwerke mit zentraler Steuerung. Das besondere am Arpanet war nun, dass es keine zentrale Steuerung mehr geben sollte – es wurde also ein dezentrales Netzwerk entwickelt. Der Grund für diese Zielsetzung war es sicherzustellen, dass das Arpanet auch dann noch funktioniert, wenn wichtige Standorte verloren gehen würden.

Aus diesem Grund hält sich auch heute noch die Legende, dass der Grund für die Entwicklung eines dezentralen Netzwerkes die Angst vor einem möglichen Atomkrieg war. Auch bei einem Atomschlag, der zentrale Knotenpunkte außer Gefecht setzen könnte, solle das Netzwerk weiterhin funktionieren.

Als wahrscheinlicher als diese Theorie gilt aber die Annahme, dass die Entwickler des Arpanets eher um die sensiblen Datenverbindungen des Netzwerks besorgt waren. Diese könnten auch aus anderen Gründen relativ leicht verloren gehen. Somit ist davon auszugehen, dass die am Arpanet arbeitenden Informatiker mit der Dezentralität generell Ausfällen entgegenwirken konnten, ohne jedoch speziell oder primär einen drohenden Atomkrieg im Sinn zu haben.

Zu den wichtigsten Informatikern in der Entwicklung des Arpanets gehörten J.C.R. Licklider, Richard Bolt, Leo Beranek und Robert Newman. Von der Planung bis zur Umsetzung vergingen ungefähr 7 Jahre.

In der Anfangsphase des Projekts wurden lediglich vier Universitäten miteinander vernetzt – und zwar solche, die bereits für das US-Verteidigungsministerium forschten. Die Kommunikation innerhalb des Computernetzwerks wurde über die Telefonleitung abgewickelt – hierüber wurden die Datenpakete versandt.

Auch heute noch basiert die Datenkommunikation auf ähnlichen Prinzipien wie damals.

Ein Hauptgrund für die Vernetzung von Universitäten über das Arpanet war auch der Wunsch, die vorhandenen Ressourcen gemeinschaftlich nutzen zu können. ARPA hatte hierzu die Universitäten mit Computern ausgestattet – aus heutiger Sicht waren diese damals natürlich sehr leistungsschwach und benötigten enorm viel Platz.

Das Netzwerk wird immer größer

Im Jahr 1972 galt das Netzerk bereits als etabliert. Es waren zu dem Zeitpunkt bereits 37 verschiedene Einrichtungen angeschlossen, die an verschiedenen Standorten in den USA angesiedelt waren. Das Arpanet war also bereits ein landesweit von wichtigen Forschungseinrichtungen in Verwendung.

Für die teilnehmenden Einrichtungen wurde die gemeinsame Arbeit an Projekten dadurch wesentlich vereinfacht: Musste man vorher persönlich oder auf dem Postweg Daten austauschen, war dies nun über diese frühe Form des Internets möglich.

Aufgrund dieser deutlichen Vorteile wurde immer mehr Menschen klar, dass ein weltweites Netzwerk dieser Art enorme Chancen bringen könnte. Dennoch war man davon noch eine Weile entfernt: Ersteinmal hatten nur jene US-Universitäten Zugriff zum Arpanet, die einen entsprechenden Vertrag mit dem Department of Defence abgeschlossen hatten.

Auch war dies damals ein extrem kostspieliges Unterfangen: Ein Netzwerkzugang kostete $ 100.000 jährlich. Die Anschaffungskosten der (ebenfalls sehr teuren) Computer war hier noch nicht eingerechnet. Für Privatanwender war ein solcher Netzwerkzugriff also noch lange Zeit undenkbar.

Eine Alternative zum Arpanet: Alohanet

Eine weniger bekannte Alternative zum Arpanet wurde 1970 von der Universität auf Hawaii entwickelt: Das Alohanet. Auch dabei handelte es sich um die Entwicklung eines dezentralen Netzwerks – dieses wurde jedoch nicht über Telefonleitungen betrieben, sondern war ein Funknetzwerk.

Die Entstehung des TCP/IP Protokolls

Im Laufe der Zeit stieß das Arpanet auf einige größere Hindernisse und Stolpersteine. Einerseits brach der Vietnamkrieg aus, und so wurden immer weniger Ressourcen für die Foschrung am Arpanet aufgebracht. Das Verteidigungsministerium fokussierte seine Anstrengungen dagegen auf die militärischen Aktivitäten.

Auch stießen die damals verwendeten Arpanet-Protokolle an ihre Grenzen. Aufgrund mangelnder Übersetzungsmöglichkeiten war eine Kommunikation zwischen Netzwerken nicht möglich.

Trotzdem gelang es in dieser schwierigen Phase die Entwicklung eines wahren Meilensteins in der gesamten Netzwerktechnik: Das TCP/IP Protokoll. Das von Vinton Cerf und Robert Kahn entwickelte Protokoll ist bis heute in Verwendung. Zwar versuchten später noch viele andere, ihre eigenen Protokolle zu entwickeln (darunter auch Unternehmen wie Microsoft oder Apple) – keine dieser Alternativen konnte sich jedoch durchsetzen.

Die Einführung von TCP/IP ist einer der wesentlichsten Meilensteine in der Entwicklung des Internets.

Das Netz wird zum Mainstream

000

Im Jahr 1975 verfügte das Arpanet bereits über 61 an das Netzwerk angeschlossene Knoten. Das Experiment Arpanet wurde jedoch Ende der 70er Jahre beendet.

Rund zehn Jahre später, also Ende der 80er Jahre, kam es in der Schweiz zu einer weiteren, auch heute noch verwendeten Erfindung: In CERN wurde das World Wide Web, kurz WWW, entwickelt. Auch die Webseite, auf der Sie sich gerade befinden, setzt noch immer auf diese Technologie.

Übrigens wird heute von CERN ein Online-Simulator betrieben, in dem das Websurfen von damals nachgestellt wird.

Im Jahr 1996 waren ca. 16 Millionen Computer weltweit über Internetanschlüsse miteinander vernetzt. 2 Jahre später waren es bereits 38 Millionen. In Deutschland dauerte es dann noch bis ins Jahr 2003, bis die Hälfte der gesamten Bevölkerung einen Internetzugang hatte. Internet- und Web-Einsatz waren zum Mainstream geworden.

Viele moderne Plattformen, die Sie vermutlich heute nutzen, sind wenige Jahre später entstanden. YouTube ging im Jahr 2005 erstmals online – damals gehörte es noch nicht zum Google Konzern. 5 Jahre später folgte dann mit Facebook ein soziales Netzwerk, das vieles im Bereich der Online-Communities revolutionieren sollte.

Das Netz heute

Nachdem wir nun die historische Entwicklung des Internets betrachtet haben, wollen wir als nächstes einen Blick in die Gegenwart werfen. Heute ist das Netz ein extrem stark etabliertes Massenmedium, dass längst zum Alltag gehört.

Die Bedeutung des modernen Internets lässt sich im Wesentlichen in zwei Teilbereiche gliedern: Einerseits den technologischen, und andererseits den gesellschaftlichen Bereich.

Technik einst und heute

Die Technik zur Nutzung des Internets hat sich insbesondere auf Anwenderseite sehr stark verändert. Smartphones, moderne Webbrowser und hohe Verbindungsgeschwindigkeiten sind Entwicklungen der jüngeren Vergangenheit.

Vielleicht erinnern Sie sich noch an die alten 56k-Modems, die vor 20 Jahren der Standard für den Internetzugang waren. Streamen von Filmen oder Liveübertragungen in guter Qualität wäre zu der Zeit noch undenkbar gewesen.

Social Media gab es noch nicht – stattdessen wurden primär klassische E-Mails versandt, und fallweise in eigenen Diskussionsforen zu speziellen Themen Unterhaltungen geführt.

Breitband

Die flächendeckende Einführung von Breitband verhalf dem Netz, sich noch stärker zu etablieren. Die um ein vielfaches höhere Übertragungsgeschwindigkeit erlaubt völlig neue Anwendungsgebiete, wie sie ursprünglich aus Performancegründen einfach nicht umsetzbar gewesen wären.

Trotzdem sind die Übertragungsgeschwindigkeiten im deutschsprachigen Raum teilweise noch längst nicht so hoch, wie anderswo. Auch der Glasfaserausbau hinkt hierzulande anderen Ländern und Regionen noch teils hinterher.

Mobile Internetnutzung

Die Internet- und Web-Nutzung auf Mobiltelefonen ist ebenfalls eine Entwicklung der jüngeren Vergangenheit. Zwar gab es bereits Anfang der 200er Jahre eine frühen Gehversuche, Internetdienste am Handy zu etablieren (mit Hilfe von GPRS, WAP etc.) – diese waren aber eher wenig erfolgreich, und setzten sich in der großen Masse nicht durch.

Heute, in Zeiten moderner Smartphones und 4G, ist es zu Selbstverständlichkeit geworden, mobil ins Netz zu gehen. Die meisten Webseiten haben heute mehr Besucher von mobilen Geräten als von PCs oder Laptops.

Cloud Computing

Die Cloud ist in gewisser Weise der Nachfolger der klassischen Festplatte: Überall verfügbare Online-Datenspeicher erfreuen sich recht hoher Beliebtheit. Enormen Speichermengen und günstigen Tarifen sei Dank.

Die Cloud kann aber nicht nur als reines Speichermedium genutzt werden: Auch komplexe Anwendungen werden heute vielfach von der Cloud aus ausgeführt, und drohen traditionelle Softwareprogramme auf dem eigenen Rechner zu ersetzen.

Die Bedeutung des Internets für die Gesellschaft

Eine so bedeutsame und weit verbreitete Technologie wie das Internet hat zwangsläufig auch enorme gesellschaftliche Auswirkungen. Da insbesondere das Web auch den Bereich der Medien wesentlich veränderten, ist die gesellschaftliche Relevanz wohl noch höher.

Soziale Medien

Die sozialen Medien bzw. sozialen Netzwerke verbinden unzählige Menschen über eigene Plattformen im Netz. Sie nehmen teilweise enormen Einfluss auf politische Ereignisse – nicht nur, dass Wahlwerbung und politische Diskussionen dort stattfinden, auch ganze Revolutionen wurden bereits über Social Media befeuert. Ein Beispiel dafür war der sogenannte Arabische Frühling.

Die Betreiber dieser Netzwerke verfügen über sehr weitreichende und teils detaillierte Daten ihrer Anwender, was immer wieder zu Bedenken und Debatten rund um das Thema Datenschutz führt. Auch die 2018 eingeführte EU-DSGVO ist nicht zuletzt auch vor diesem Hintergrund entstanden.

E-Commerce

Onlinehändler bieten diverse Waren und auch Dienstleistungen über ihre Onlineshops an. Manche davon sind spezialisiert auf bestimmte Produktkategorien, wie z.B. Bücher oder Mode. Andere sind dagegen breit aufgestellt, und versenden diverse Produkte aus unterschiedlichen Bereichen.

Genauso gibt es Onlinehändler, die auf einzelne Länder begrenzt sind, und solche, die international liefern. Das wohl bekannteste Beispiel für einen internationalen Onlinehändler, der verschiedenste Produkte anbietet, ist Amazon. Amazon ist zugleich Händler und Handelsplattform.

Der klassische Einzelhandel leidet heute recht stark unter der harten Konkurrenz des Onlinehandels.

Fake News und Lügenpresse

Leider werden im Netz, insbesondere in den sozialen Medien, nicht selten Falschmeldungen verbreitet – teilweise unbewusst, manchmal jedoch auch ganz gezielt. Für normale Anwender ist es häufig nicht leicht, so genannte „Fake News“ auch als solche zu erkennen.

Zusammenfassung

In den letzten Jahrzehnten haben Computernetzwerke eine beachtliche Entwicklung zurückgelegt, und in vielerlei Hinsicht die Welt drastisch verändert. Es ist davon auszugehen, dass in Zukunft noch viele weitere Entwicklungen und Veränderungen auf das Internet, und damit die ganze Welt, zukommen werden – mit allen positiven als auch negativen Folgen.


Responsive Webdesign – Webseiten auf unterschiedlichen Geräten optimal darstellen

Mehr und mehr Webseitenbesuche stammen von mobilen Geräten. Manche Webseiten begegnen diesem Trend mit getrennten mobilen- und Desktop-Versionen – ein recht aufwändiger, und dennoch manchmal nicht erfolgreicher Ansatz. Theoretisch müssen Webseitenbetreiber nämlich mit mehr als 200 verschiedenen möglichen Bildschirmauflösungen rechnen.

Effizienter kann man den unterschiedlichen Bildschirmauflösungen mit einer automatischen Anpassung der Seite an diese begegnen. Genau hier kommt Responsive Design ins Spiel.

Einleitung

In der heutigen Zeit ist das mobile Internet zu einer Selbstverständlichkeit geworden. Fast jeder hat sein Smartphone immer dabei, und nutzt es unterwegs oder auch zu Hause zum Surfen im Web. Aus diesem Grund können die meisten Webseiten heute sogar deutlich mehr Aufrufe von mobilen Geräten (Smartphones und Tablets) verzeichnen, als von klassischen Computern (PCs und Laptops).

Für Betreiber von Webseiten ist es daher wichtig sicherzustellen, dass die Darstellung ihrer Webseite auch auf mobilen Geräten gut funktioniert. Responsive Design ist ein moderner und ebenso effizienter Ansatz, dies zu ermöglichen. Oft ist die Umsetzung eines Responsive Designs mit weniger Aufwand verbunden, als die Erstellung mehrerer separater Versionen (z.B. eine Mobilversion und eine Desktop-Version) einer Webseite. Zugleich bringt es aber oft bessere Ergebnisse, sprich eine bessere Anpassung an die unterschiedlichen Bildschirmgrößen.

Wie funktioniert Responsive Webdesign?

Aus technischer Sicht basiert Responsive Design auf einem flüssigen Raster der Webseite. Dabei ist die Breite der jeweiligen Seite mit Prozentwerten definiert, was es ihr erlaubt sich an die Größe des Bildschirms, bzw. des Browserfensters, anzupassen.

Auch die in die Seite integrierten Inhalte, wie z.B. Texte, Bilder oder Videos, können je nach verfügbarem Platz unterschiedlich groß bzw. klein dargestellt werden.

In der für wichtige Teile des Designs bzw. Layouts von Webseiten zuständigen Programmiersprache CSS (Cascading Style Sheets) können so genannte Breakpoints definiert werden. Diese legen fest, ab welcher Auflösung sich das Seitenlayout verändern soll – also z.B. von Desktop auf Mobilgerät „umspringt“.

Dies kann man übrigens auch testen, wenn man eine Webseite mit Responsive Design im Browser öffnet, und dann das Fenster langsam kleiner (bzw. schmäler) zieht. Dabei lassen sich die unterschiedlichen Breakpoints und ihre Auswirkungen beobachten.

Dazu ein Beispiel: Häufig werden in Webseiten Werbeanzeigen seitlich zum normalen Inhalt, in einer so genannten Sidebar, angezeigt. Anhand eines Breakpoints kann man jedoch per CSS festlegen, dass die Werbeanzeigen aber einer bestimmten Fensterbreite stattdessen unter den normalen Inhalt rutschen sollen. Denkbar wäre z.B. ein Umschalten ab einer Breite von kleiner als 500 Pixeln.

Natürlich ist die Entwicklung eines solchen, individuellen Responsive Designs recht aufwendig. Verglichen mit einer herkömmlichen Seite muss man beim Responsive Design mit einem höheren Zeitaufwand rechnen, und auch ungefähr 30 bis 40 Prozent höhere Kosten einplanen. Im Gegenzug spart man sich jedoch die Entwicklung einer eigenen mobilen Version der Webseite.

Warum sollte man Responsive Webdesign nutzen?

Der unter Umständen höhere Zeit- und Kostenaufwand zu Beginn, kann sich jedoch längerfristig schnell rentieren. Da es bei einem Responsive Design nur eine anstatt mehrerer Webseiten benötigt, spart man sich als Betreiber entsprechenden Aufwand sowohl bei der technischen Wartung als auch bei der inhaltlichen Aktualisierung.

Somit ist Responsive Webdesign häufig nicht nur die technisch modernste, sondern auch die wirtschaftlich vernünftigste Option.

Darüber hinaus ist Responsive Design aufgrund seiner enormen Flexibilität einfach eine sehr gute Möglichkeit, viele unterschiedliche Anwender mit unterschiedlichen Endgeräten bestmöglich erreichen zu können. Aufgrund der dynamischen Anpassung der Seite an verschiedene Bildschirm- und Fenstergrößen ist man bestmöglich auf die unterschiedlichsten Anforderungen vorbereitet.

Nicht zuletzt trägt ein Responsive Design auch zu einem einheitlicheren Bild Ihrer Webseite auf allen Endgeräten bei. Eine eigene mobile Version einer Webseite kann nur schwer den selben „Look & Feel“ erzeugen, wie die Desktop-Seite (und umgekehrt). Responsive Design fördert dagegen ein einheitlicheres Nutzererlebnis, und steigert damit den Wiedererkennungswert von Webseiten auf unterschiedlichen Anzeigegeräten.

Wann ist Responsive Webdesign sinnvoll?

Grundsätzlich ist Responsive Design heute ein quasi-Standard, und somit eine klare Empfehlung für die aller meisten Webseiten. Es gibt jedoch einige spezielle Gründe und Anwendungsfälle, die Responsive Design besonders wichtig machen. An dieser Stelle möchten wir Ihnen die wichtigsten davon auflisten:

Sie haben besonders viele Seitenbesucher, die mobile Geräte nutzen

Wenn Sie viele Aufrufe durch mobile Geräte haben, müssen Sie Ihren Besuchern natürlich eine für mobile Geräte optimierte Seite präsentieren. Auch ein „Mobile First“-Ansatz könnte hier absolut Sinn machen, und ein Responsive Design kann einen Grundbestandteil dieses Konzepts bilden.

Web-Analyse Tools wie z.B. Google Analytics können Ihnen Daten zu liefern, wie hoch der Anteil an mobilen Geräten bei Ihren Seitenaufrufen ist. Wenn Sie über keine solche Daten verfügen, denken Sie an Ihre Zielgruppe: Sind die Leute, die Sie ansprechen primär Smartphone-Besitzer und viel unterwegs? Dann ist ein Responsive Design sehr wahrscheinlich eine gute Idee.

Sie planen gerade eine neue Webseite

Wenn Sie die Anschaffung einer neuen Webseite planen, oder Ihre bestehende Seite einem größeren Relaunch unterziehen möchten, ist jetzt wahrscheinlich der richtige Zeitpunkt auf Responsive Design umzusteigen.

Das gilt vermutlich auch dann, wenn Sie mit Ihrer alten Webseite nur wenige mobile Besucher erreicht haben: Denn der Trend geht eindeutig hin zu immer mehr mobiler Internetnutzung. Auch wenn Sie also bisher noch nicht viele mobile Seitenaufrufe hatten, können Sie davon ausgehen, dass sich dies in Zukunft rasant ändern könnte.

Übrigens wird eine besonders mobilfreundliche Webseite natürlich auch verstärkt mobile Besucher anziehen. Umgekehrt wird eine Webseite, die für mobile Geräte nicht geeignet ist, über kurz oder lang nur noch wenige bis gar keine mobilen Besucher mehr erreichen. Wenn Sie bisher nur wenige mobile Besucher auf Ihrer Webseite verzeichnen konnten, könnte eine unzureichende Optimierung für mobile Geräte also ein wesentlciher Grund dafür sein.

Häufige Updates

Je häufiger Sie Ihre Webseite aktualisieren oder verändern, desto mehr macht Responsive Webdesign im Vergleich zu einer eigenen mobilen Version Sinn. Hier brauchen Sie nur eine einzelne Webseite bearbeiten, anstatt zwei oder mehrere – die Zeitersparnis ist dementsprechend groß.

Auch ist mit Responsive Design sichergestellt, dass es keine Unstimmigkeiten zwischen mobiler Version und Desktopversion gibt, und Besucher (egal ob mobil oder nicht) immer die aktuellste Version Ihrer Webseite angezeigt bekommen.

Suchmaschinenoptimierung

Heute empfiehlt und unterstützt Google Responsive Design. Da es das Ziel der meisten Webseiten ist, bei Google gute Platzierungen zu erzielen, macht es Sinn, auf die Empfehlungen von Google zu hören.

Es gibt mehrere Bereiche, in denen Responsive Webdesign SEO unterstützen kann: Es gibt beispielsweise keinen Duplicate Content, und es gibt nur eine einzelne Domain, die Sie in den Rankings nach oben bringen müssen. Außerdem geht man davon aus, dass Google Webseiten im Ranking von mobilen Suchanfragen besser bewertet, wenn sie für mobile Geräte optimiert sind.

Modernität gehört zu Ihrem Image

Responsive Design ist heute die aktuellste und modernste Form des Webdesigns im Hinblick auf mobile Optimierung. Eine Webseite mit einem ansprechendem Responsive Webdesign kann zu einem modernen oder technisch fortschrittlichem Image beitragen. Wenn Sie bei Ihren Seitenbesuchern genau diesen Eindruck erwecken wollen, ist Responsive Design eine klare Empfehlung.

Usability

Responsive Design kann, richtig umgesetzt, zu einer sehr benutzerfreundlichen Webseite führen. Und Benutzerfreundlichkeit ist definitiv etwas, auf dass Sie als Webseitenbetreiber Wert legen sollten. Ihre Conversion-Rate ist sehr eng mit der Usability Ihrer Webseite verbunden: Nur wenn ein Besucher Ihre Seite problemlos bedienen kann, kann er auch über die Seite etwas kaufen, Ihnen eine Anfrage stellen etc.

Vorüberlegungen

000

Eine neue Webseite will definitiv gut geplant werden. Sie sollten nichts überstürzen, sondern sich in Ruhe Gedanken darüber machen, wie Ihre neue Webseite sein soll, und was Sie mit ihr konkret erreichen möchten. Ziehen Sie für diese Vorüberlegung wenn möglich auch Auswertungen Ihrer Web-Analyse Software zu Rate, und bedenken Sie insbesondere zwei wichtige Teilbereiche:

Ihre Zielgruppe

Je besser Sie Ihre Zielgruppe kennen, desto besser können Sie Ihre neue Webseite auf sie ausrichten. Bedenken Sie dabei unbedingt die Nutzungsgewohnheiten in Bezug auf Smartphones und Tablets.

Ihre Inhalte

Nicht nur die optische Gestaltung Ihrer Webseite ist wichtig, sondern auch die inhaltliche. Insbesondere bei mobilen Aufrufen ist es sinnvoll, dass die wichtigsten Inhalte zuerst kommen. Stellen Sie sicher, dass Besucher sofort die wichtigsten Elemente Ihrer Webseite im Blick haben, und nicht lange suchen oder scrollen müssen, um dort hin zu gelangen, wo sie wahrscheinlich hin wollen.

Umsetzung

Die beste Planung nützt jedoch nichts, wenn die Umsetzung mangelhaft war. Setzen Sie also bei der Umsetzung Ihrer neuen Webseite im Responsive Design unbedingt auf Qualität.

Grundsätzlich gibt es zwei verschiedene Ansätze bei der Umsetzung von Responsive Webdesign: Progressive Enhancement und Graceful Degradation.

Progressive Enhancement

Dieser Ansatz verfolgt das bereits erwähnte Mobile-First-Orinzip. Hier wird das Design zuerst für die kleinste Darstellung auf Smartphones erstellt. Erst danach werden Designs für die Tablet- und schließlich die Desktop-Ansicht entwickelt. Dieser Ansatz ist insbesondere für komplett neu erstellte Webseiten empfehlenswert.

Graceful Degradation

Dies ist der gegenteilige Ansatz, der meist genutzt wird, wenn man eine bestehende Seite umgestaltet oder einen Relaunch durchführt. Man geht hier von der Desktop-Ansicht als Basis aus, und verkleinert dann das Design zunächst auf die Tablet- und schließlich die Smartphone-Ebene. Naturgemäß ist hier das Nutzererlebnis auf mobilen Geräten meist nicht ganz so gut, wie beim Progressive Enhancement – dennoch kann es aber zu sehr soliden Ergebnissen führen.

Hürden

In Wirklichkeit ist die größte Hürde für das Responsive Webdesign natürlich die technische Umsetzung selbst – diese ist recht aufwendig und komplex – allerdings ist für das Erklimmen dieser Hürde der Webdesigner verantwortlich.

Als Seitenbetreiber ist eine Hürde natürlich die finanzielle Investition, die Sie tätigen müssen. Eine größere Hürde ist für die meisten jedoch das Umdenken in Bezug auf Ihre Webseite: Inhalte sollten auf das Wesentliche reduziert werden, unnötiger Ballast verschwindet. Insbesondere Webseitenbetreibern, die bereits viele Jahre eine Webseite besaßen, fällt es oft schwer sich von ihren alten Inhalten zu trennen. Lassen Sie sich also hierbei auf jeden Fall von Experten beraten.

Verschiedenen Ansichten

Zwar bietet das Responsive Design eine automatische, flüssige Anpassung verschiedenste Bildschirm- und Fenstergrößen – dennoch kann man es jedoch grob in die drei wichtigsten Ansichten kategorisieren:

Die Ansicht auf dem Smartphone

Die Smartphone-Ansicht ist natürlich jene Ansicht, mit dem wenigsten Platz. Es ist daher besonders wichtig, alle Elemente sinnvoll und geschickt anzuordnen. Meist ist in dieser Ansicht das Hauptmenü hinter einem Symbol verborgen, Teasertexte passen sich dem geringen Platz an, und alle inhalte werden über- bzw. untereinander dargestellt.

Die Ansicht auf dem Tablet

Die Tablet-Ansicht ist häufig eine Art Mittelweg aus Handy- und PC/Laptop-Ansicht. Inhalte werden hier gerne ebenfalls in einer einzelnen Spalte übereinander angezeigt – in manchen Fällen sind aber auch zweispaltige Inhaltsbereiche möglich. Auch ist bereits wesentlich mehr Platz für Bilder und Texte verfügbar.

Die Ansicht auf PCs und Laptops

In der Desktop-Ansicht steht nun natürlich sehr viel Platz zur Verfügung, der jedoch auch sinnvoll genutzt werden sollte. Häufig sieht man hier im oberen Seitenbereich ein Navigationsmenü, gefolgt von einem Slider mit einem großen Foto. Wichtige Themengebiete werden gerne in 3-4 Auswahlkästchen nebeneinander dargestellt, gefolgt von einem meistens zweispaltigen Inhaltsbereich. Wichtig ist es, trotz des vielen Platzes die Seite nicht zu überladen, und den Nutzer zu verwirren oder überanstrengen.


Häufige Fehler bei der Verwendung von Google Analytics

Google Analytics ist ein sehr weit verbreitetes Tool zur Erfassung von Besucherstatistiken auf Webseiten. Es ist kostenlos verfügbar, bietet vielfältige Funktionen und detaillierte Auswertungen, und ein nützliches Hilfsmittel im Onlinemarketing.

Trotzdem gibt es einige häufige Fehlerquellen, die eine Nutzung des Analytics-Services erschweren können. Auch das beste Werkzeug nützt jedoch wenig, wenn man es nicht richtig einsetzt wird. Fehlerhafte Ausgangsdaten, falsch konfigurierte Filter, oder einfach eine falsche Auslegung der angezeigten Daten können insbesondere weniger erfahrene Anwender vor Probleme stellen. Wir zeigen Ihnen daher hier, wie sie dies vermeiden.

Datenschutzkonforme Einbindung

In Zeiten der Datenschutz-Grundverordnung der Europäischen Union sollte das Thema Datenschutz eine hohe Priorität für alle Betreiber von Webseiten einnehmen. Für den datenschutzkonformen Einsatz von Analytics-Software gilt es hier einiges zu beachten – so auch bei Google Analytics.

Ein sehr häufiger Fehler wird leider gerne schon bei der Einrichtung begangen: Nutzer kopieren den von Google vorgeschlagenen Tracking Code einfach 1:1 in ihre Webseite. Damit funktioniert zwar das Tracking aus technischer Sicht einwandfrei – den Datenschutzanforderungen ist damit jedoch nicht genüge getan.

Stattdessen muss der zur Verfügung gestellte Tracking-Code so angepasst werden, dass IP Adressen anonymisiert werden. Hierzu stellt Google eine eigene Erweiterung namens „anonymizeIp“ bereit, welche mit Hilfe einer kleinen Ergänzung des Tracking-Codes eingerichtet werden kann. Diese Erweiterung des Codes sorgt dann dafür, dass die letzten 8 Bit der IP-Adresse anonymisiert werden – dadurch ist dann nur noch eine weniger genaue Zuordnung der betreffenden Adresse möglich. Für die meisten Onlinemarketing-Aktivitäten spielt das keine große Rolle, für den Datenschutz aber ist es ein wesentlicher Vorteil.

Darüber hinaus sollten noch einige weitere datenschutzrelevante Punkte beachtet werden. So sollte natürlich die Datenschutzerklärung auf der Webseite auf die Nutzung von Analytics hinweisen. Auch sollte Seitenbesuchern eine Möglichkeit gegeben werden, der Datenverarbeitung durch Google Analytics zu widersprechen, und es sollte eine entsprechende Auftragsverarbeitervereinbarung mit Google abgeschlossen sein.

Übrigens: Wenn Sie einen Auftragsverarbeiter aus den USA nutzen wollen, wird dieser in den meisten Fällen Privacy Shield zertifiziert sein müssen. Bei den großen Anbietern wie Google ist zwar davon auszugehen, dass dies immer der Fall sein wird – um auf Nummer sicher zu gehen sollten Sie dies aber dennoch bei der erstmaligen Einrichtung, und vielleicht auch anschließend in regelmäßigen Abständen, überprüfen.

Tracking Code falsch implementiert

Auch wenn Sie nun über einen Tracking-Code mit der Erweiterung „AnonymizeIp“ verfügen, müssen Sie diesen auch technisch sauber in Ihre Webseite integrieren, bevor er funktioniert. Nicht selten wird dieser von unerfahrenen Anwendern z.B. nur auf der Startseite eingebunden, oder aber es werden bestimmte Unterseiten einfach übersehen. Der Code muss jedoch auf jeder Page vorhanden sein, die in den Zugriffsstatistiken erfasst werden soll.

Außerdem sollten Sie den Code auch nicht doppelt einbinden: Wenn auf einer Page der Code doppelt vorhanden ist, werden Aufrufe in den Auswertungen nämlich auch doppelt gezählt.

Einige Softwaretools von Drittanbietern bieten hierzu eine automatische Überprüfung an, die checkt, ob der Tracking-Code tatsächlich in allen Unterseiten integriert ist. Sie können es aber auch händisch überprüfen, indem Sie die Unterseiten Ihrer Webseite aufrufen, und sich dann im Browser den Quellcode anzeigen lassen. Dort sollten Sie Ihren Tracking-Code an der hinterlegten Stelle (normalerweise im Header oder Footer) finden.

Interne Sitzungen nicht filtern

Ein weiterer Faktor, der die Besucherstatistik verzerren kann, sind eigene Aufrufe. Insbesondere bei größeren Unternehmen mit vielen Mitarbeitern kann es zu sehr vielen internen Sitzungen durch diese kommen. Filtert man diese nicht aus den Auswertungen heraus, zeigt die Statistik viel mehr Besuche(r) an, da die Aufrufe aus den eigenen Reihen mitgezählt werden.

Aus diesem Grund bietet Google eine simple Möglichkeit an, den eigenen Traffic heraus zu filtern. Im Bereich „Verwalten“ können unter Datenansicht -> Filter beispielsweise ein IP-Filter definiert werden.

Achtung: Wenn wie zuvor beschrieben die IP-Adressen anonymisiert verarbeitet werden, muss man den Filter-Typ auf „beginnt mit“ setzen, da das letzte Oktett ja nicht verarbeitet wird.

Development/Staging Analytics-Konto

Sofern Sie eine eigene Staging- bzw. Development-Version Ihrer Webseite (oder bestimmten Teilen davon) betreiben, sollten Sie sicherstellen, dass etwaige erfasste Zugriffsdaten Ihre Analytics-Auswertung nicht verzerren. Es empfiehlt sich daher, für eine Staging-Webseite auch ein eigenes Staging-Analytics-Konto (bzw. eine eigene Property) zu erstellen.

Somit sind die Zugriffsstatistiken der Staging-Seite von jenen der Live-Seite sauber getrennt, und genauere Auswertungen für beide sind möglich. Da eine Staging-Webseite normalerweise nicht von aktiv laufenden Onlinemarketing-Maßnahmen betroffen ist, macht diese Unterteilung in den aller meisten Fällen viel Sinn.

Cross-Domain Tracking

Falls Sie mehrere Domains (dazu zählen auch Subdomains) betreiben, macht es vermutlich Sinn, dies in Ihren Auswertungen zu berücksichtigen. Wenn beispielsweise ein Besucher von ihreseite.de auf shop.ihreseite.de wechselt, ist es vorteilhaft, diesen wiederzuerkennen. Ohne Cross-Domain Tracking würde jedoch der Aufruf von shop.ihreseite.de als neue Sitzung gewertet.

Wenn Sie das vermeiden wollen, sollten Sie in Ihrem Analytics Konto Cross-Domain Tracking einrichten.

Keine Plain Datenansicht

Standardmäßig wird bei der Einrichtung von Analytics eine Datenansicht namens „Alle Webseitendaten“ angelegt. Es macht Sinn, diese Datenansicht so zu belassen, sodass hier immer sämtliche erfassten Daten dieser Webseite angezeigt werden. Bei der Einrichtung von Filtern sollte dann (zumindest) eine weitere Datenansicht erstellt werden, die dann die gefilterten Daten anzeigt.

Es kann nämlich leicht passieren, dass bei der Filterung etwas nicht richtig funktioniert, oder man kurzfristige Änderungen treffen muss – ohne die „Plain Datenansicht“, also eine völlig ungefilterte Datenansicht, haben Sie dann unter Umständen fehlerhafte oder unvollständige Daten.

Keine Ziele

000

Zielsetzungen sind im Unternehmensalltag absolut unersetzlich. Jeder Betrieb hat beispielsweise bestimmte Umsatzziele, die erreicht werden sollen. Gleiches sollte aber auch für die Webseite gelten: Auch hier sind Zielsetzungen sehr wichtig, um den Erfolg von gesetzten Maßnahmen messen und überprüfen zu können.

Zwar können einzelne Metriken, wie z.B. die Anzahl der Sitzungen oder Seitenaufrufe, die Absprungrate o.Ä. zu einer groben Messung herangezogen werden – spezifischere Zieldefinitionen sind jedoch zusätzlich dazu eine wichtige Ergänzung.

In Google Analytics können daher bestimmte Zielvorhaben hinterlegt werden. Die Software misst anschließend, wie häufig diese Ziele erreicht wurden, und stellt nützliche Auswertungen hierfür bereit. Insbesondere im E-Commerce wird diese Funktion zum Eintrag von Conversion-Zielen genutzt – aber auch die meisten anderen Webseiten können davon profitieren.

Überlegen Sie sich, was für Sie und Ihre Webseite eine „Conversion“ sein kann. Ist es eine Conversion, wenn ein Kunde etwas in Ihrem Onlineshop bestellt, oder über Ihr Buchungstool ein Zimmer reserviert? Oder genügt vielleicht schon der Aufruf eines Kontaktformulars oder der Download eines bestimmten PDF-Dokuments für Sie als Conversion? Grundsätzlich können Sie Ihre Conversion-Ziele frei definieren – und natürlich können Sie auch viele unterschiedliche Ziele parallel eingetragen haben.

So können Sie das Nutzerverhalten Ihrer Seitenbesucher sinnvoll auswerten und Rückschlüsse daraus ziehen, welche Elemente zur Conversion (und somit zur Erreichung des Ziels) geführt bzw. beigetragen haben.

Sie können Zielvorhaben im Bereich „Verwaltung“ einrichten, indem Sie in der betreffenden Datenansicht auf „Zielvorhaben“ klicken. Recht praktisch und zeitsparend können hier auch die von Google zur Verfügung gestellten Vorlagen sein, anhand denen Sie Zielvorhaben für häufige Zielsetzungen schon fertig vordefiniert festlegen können.

Google Search Console und Google Analytics Metriken

Viele unterschiedliche Google Dienste, die im Onlinemarketing genutzt werden, lassen sich sinnvoll miteinander kombinieren. So können Sie beispielsweise Daten aus Google Ads mit Analytics verknüpfen und darin anzeigen.

Ein weiteres wichtiges Tool, dass Google kostenlos zur Verfügung stellt, ist die Google Search Console (ehemals Webmaster Tools). Wenn Sie mehrere solcher Tools verwenden, macht es natürlich Sinn, auch die Daten aus allen Tools auszuwerten – Sie sollten hierbei viele Parallelen erkennen können.

Aber Achtung: Die Daten werden sehr wahrscheinlich nicht ident miteinander sein. Es können beispielsweise über die Google Search Console häufig Aufrufe erfasst werden, welche in Analytics nicht aufscheinen.

Wenn z.B. ein Besucher eine PDF-Datei direkt aufruft, wird er von Analytics nicht erfasst – da im PDF der Tracking Code natürlich nicht hinterlegt ist. Auch kann es passieren, dass ein Besucher Ihre Seite nur ganz kurz aufruft, und sofort wieder abspringt – ohne dass der Tracking Code geladen wurde. Auch dann wird er nicht in Analytics erfasst – in der Google Search Console jedoch unter Umständen schon.

Keywords auswerten

Heutzutage ist es, aufgrund der Einführung der Google Secure Search, nur noch sehr schwer möglich, Keywords über Google Analytics auszuwerten. In ca. 98% der Fälle wird im Bericht zu den Suchbegriffen nämlich „not provided“ angezeigt.

Die verbleibenden ca. 2% der Keywords, die hier im Bericht erscheinen, sind meist wenig aussagekräftig und sollten nicht überbewertet werden.

Auch hier kann ein Vergleich mit den Daten aus der Google Search Console sinnvoll sein, um einen besseren Überblick über verwendete Suchbegriffe zu erlangen.

Hoher Direct Traffic

Grunsätzlich sind mit Direct Traffic jene Aufrufe gemeint, die daraus entstehen, dass ein Besucher die URL direkt in die Adresszeile des Browser eingibt. Viele Anwender wissen jedoch nicht, dass auch noch andere Sitzungen hier mit hineingerechnet werden: Nämlich all jene, die Analytics nicht genau zuweisen kann.

Das können z.B. auch Klicks auf Links in E-Mails oder Newslettern sein, Links auf Smartphone-Apps oder Lesezeichen im Browser. Auch wenn URL-Shortener verwendet wurden, oder Zugriffe von https auf http können hier mitgezählt werden.

Sie sehen also, dass hier teils sehr viele verschiedene Fälle als Direktaufrufe zusammengefasst werden. Eine genauere Auswertung ist möglich, wenn Sie Ihre URLs mit Hilfe von Tags kennzeichnen. Nutzen Sie den Google URL Builder um ihren URLs Parameter zur Definition von Quellen, Medien oder Kampagnen zu zu weisen.

Metriken fehlinterpretieren

Neben all den technischen Fehlern und Problemen, die entstehen können, ist vielleicht die häufigste Schwierigkeit für viele Anwender die korrekte Interpretation der vorhandenen Daten. Auch wenn ein Anwender eine Besucherstatistik-Software problemlos bedienen kann, muss er deshalb noch nicht automatisch über das notwendige Fachwissen verfügen, die Statistiken richtig interpretieren zu können. Hierzu sind definitiv einige Kenntnisse in diesem Bereich von Nöten.

Ein klassisches Beispiel für häufige Fehlinterpretationen ist die Absprungrate: Diese misst jenen Anteil der Besucher, die nach Aufruf nur einer einzelnen Unterseite die Webseite wieder verlassen. Traditionell wird eine hohe Absprungrate daher sehr negativ gewertet.

Dies muss jedoch nicht zwangsläufig stimmen: Ein Absprung kann auch andere Gründe haben, als ein Desinteresse oder Nichtgefallen an der Webseite.

Bei einem One-Page Layout gibt es beispielsweise keine oder kaum Unterseiten, die der Besucher aufrufen könnte. Sämtliche Informationen sind auf der Startseite präsentiert – zwangsläufig werden One-Pager also immer hohe Absprungraten aufweisen.

Genauso denkbar ist es aber, dass ein Besucher über die Google Suche (und gute Suchmaschinenoptimierung) gleich auf einer für ihn sehr passenden Unterseite landet, und dort alle Informationen findet, die er benötigt. Greift er dann beispielsweise zum Telefon, oder klickt auf einen E-Mail Button um Sie zu kontaktieren, begeht er unter Umständen sogar schon eine Conversion. Wenn er danach die Webseite verlässt, wird die Sitzung jedoch als Absprung gewertet.


Der große Internet Browser Vergleich

In der Geschichte des Webs gab es fast immer Phasen, in denen ein bestimmter Browser besonders weit verbreitet, und klarer Marktführer war. Aktuell ist dies sehr deutlich Google Chrome: Im April 2019 haben diesen rund 66% der Internetnutzer in Verwendung.

Sehr häufig macht es jedoch Sinn, sich nicht einfach mit dem Platzhirsch zufrieden zu geben, sondern auch nach Alternativen umzusehen. Auch der Browser-Markt bietet heute eine Vielzahl ganz unterschiedlicher Web-Browser, allesamt mit ihren individuellen Stärken und Schwächen. Unser Browser Vergleich soll daher auf die unterschiedlichen Besonderheiten der jeweiligen Browser eingehen, und ihre speziellen Eigenschaften hervorheben.

Einleitung

In unserem großen Browser Vergleich zeigen wir Ihnen einige der wichtigsten Browser für das moderne Web. Heute gibt es so viele Browser am Markt, dass wir uns hier auf eine Auswahl von 5 bekannten und recht weit verbreiteten Browsern konzentrieren.

Grundsätzlich macht es Sinn, einen relativ bekannten und etablierten Browser zu verwenden. Sie profitieren in dem Fall von häufigen Updates seitens des Herstellers. Updates sind wichtig um Sicherheitslücken im Browser zu schließen, können aber auch genutzt werden um neue Features zu implementieren. Aus diesem Grund wählen wir in diesem Internet Browser Vergleich bewusst solche Browser aus.

Neben den Fragen nach Funktionalität und Sicherheit ist ein weiterer zu berücksichtigender Faktor jedoch, wie ressourcenschonend der Browser arbeitet. Insbesondere wenn man einen leistungsmäßig schwächeren Computer nutzt, oder aber gerne viele Fenster bzw. Tabs gleichzeitig geöffnet hat, ist ein ressourcenschonender Browser sehr wichtig. Die in unserem Web Browser Vergleich vorgestellten Kandidaten bieten zwar allesamt eine solide Performance, dennoch gibt es auch klare Unterschiede in diesem Bereich.

Browsermarkt

Schon in den 90er Jahren war der Browsermarkt hart umkämpft: Der Netscape Navigator und Microsoft’s Internet Explorer kämpften zu der Zeit um die Gunst der Surfer.

War Mitte der 90er noch Netscape die Wahl der meisten User, gewann der Internet Explorer im Laufe der Zeit Schlagartig an Bedeutung. Insbesondere die standardmäßige Integration des Internet Explorers in Microsoft Windows verhalt ihm dazu, zu seinen besten Zeit von über 70% der Windows-User verwendet zu werden.

Einige Jahre später entwickelte die Mozilla Foundation auf der Basis des Codes des alten Netscape Navigators den ersten Open Source Browser: Mozilla Firefox. Firefox gewann stark an Beliebtheit, konnte aber den Internet Explorer nicht wirklich von der Spitze verdrängen. So war der Internet Explorer noch bis 2012 der meistgenutzte Browser unter Windows-Anwendern.

(ANMERKUNG: Dies wird im Text des Artikels angegeben; Auf der eingebetteten Grafik wird Firefox jedoch mehrere Jahre als Marktführer dargestellt: https://de.statista.com/graphic/1/13007/marktanteile-der-browser-bei-der-internetnutzung-in-deutschland-seit-2009.jpg)

An der Stelle wurde er jedoch vom 2008 entwickelten Google Chrome abgelöst. Chrome war ursprünglich ein eher rudimentärer Browser, der mit seinen Konkurrenten funktionell nur schwer mithalten konnte – er wurde aber von Google sehr schnell und in kurzen Intervallen immer weiterentwickelt, sodass er schließlich zu einem sehr hochwertigen Browser heran wuchs.

Chrome konnte viele Internet Explorer- und Firefox-Nutzer für sich gewinnen. Teilweise lag dies jedoch auch daran, dass er häufig mit kostenlosen Softwareprogrammen mitgeliefert wurde. Auch gab es natürlich starke Werbemaßnahmen seitens Google.

Microsoft startete mit Windows 10 den Versuch, durch den Edge-Browser wieder eine stärkere Rolle am Browser-Markt zu spielen. Dieser Versuch gelang zahlenmäßig jedoch nicht. In Zukunft will auch Microsoft Edge auf die Chromium-Engine setzen.

Heute ist Google Chrome sehr deutlich die Nummer 1 im Hinblick auf die Beliebtheit der Webbrowser: Laut Marktshare wurde er im April 2019 von ca. 66% der Internetnutzer verwendet. In Deutschland ist er ebenfalls auf Platz 1, kommt hier jedoch laut Statista „nur“ auf ca. 44%.

Internet Explorer

000

Der Internet Explorer ist auch heute den meisten Anwendern noch namentlich bekannt. Da Microsoft den Internet Explorer aber durch Edge mehr oder weniger abgelöst hat, macht eine Verwendung des ehemaligen Microsoft-Browsers heute für die meisten Menschen keinen Sinn mehr. Zwar ist der Browser weiterhin verfügbar, wird aber in erster Linie von bestimmten Unternehmen oder Behörden für die Anwendung im eigenen Intranet genutzt.

Bei den Microsoft Patch-Days werden sehr häufig Sicherheitslücken im Browser geschlossen werden. Aus heutiger Sicht gilt der Browser leider als sehr veraltet, und es kann ein hohes Sicherheitsrisiko darstellen, ihn zu nutzen. Sofern Sie nicht einen wirklich guten Grund haben, warum Sie zum Internet Explorer greifen (müssen), sollten Sie dies nicht tun. Wir empfehlen in den aller meisten Fällen stattdessen die Nutzung einer anderen Option aus unserem Browser Vergleich.

Der heute standardmäßig mitgelieferte Browser von Microsoft Windows ist nicht mehr der Internet Explorer, sondern Microsoft Edge. Edge gilt als recht schneller und stabiler Browser und ist sehr gut in Windows integriert. Er hat jedoch teilweise Probleme mit HTML-Standards, und es gibt kaum Erweiterungen für ihn. Für die Zukunft ist eine Edge-Version basierend auf Google Chrome geplant.

Google Chrome

Der heutige Browser-Marktführer ist Google Chrome. Der Chrome-Browser basiert auf dem mit ihm eng verwandten Open Source Browser Chromium. Chromium bildet zugleich die Basis für andere Browser, darunter Opera, Vivaldi und dem künftigen Edge.

Chrome zeichnete sich von Beginn an durch seine enorme Schnelligkeit aus. Zwar gilt Chrome auch heute noch als einer der schnellsten Browser, seine Mitbewerber können jedoch in den meisten Benchmarks mittlerweile mit ihm einigermaßen mithalten, bzw. in manchen Teilbereichen sogar überholen.

Standardmäßig ist Chrome ein sehr schlanker Browser, der sich auf die wesentlichen Funktionen beschränkt. Er kann jedoch durch diverse, kostenlos verfügbare Erweiterungen um etwaige Zusatzfeatures ausgebaut werden. Google reagiert in Form von Sicherheitsupdates meist sehr schnell auf aktuelle Bedrohungen, es kommt also sehr oft zu Softwareupdates für Chrome.

Insgesamt gilt Chrome daher als sehr sicherer Browser, es gibt jedoch auch Bedenken hinsichtlich des Datenschutzes. Der Browser bietet nicht ganz so viele Möglichkeiten, ihn an die eigenen Bedürfnisse anzupassen, wie manche seiner Kontrahenten. Leider verfügt er derzeit auch über keinen integrierten Lesemodus.

Nicht nur in unserem Browser Vergleich, sondern am gesamten Browser-Markt ist Chrome momentan am weitesten verbreitet. Es ist eher nicht davon auszugehen, dass sich an dieser Dominanz in nächster Zeit etwas ändern wird.

Mozilla Firefox

000

Mozilla Firefox war für viele Jahre die wichtigste Alternative zum Internet Explorer. In der jüngeren Vergangenheit hat der Browser jedoch nicht wenige Nutzer an Google Chrome verloren.

Die Entwickler haben den Browser mit Version 57 („Quantum“) einer sehr umfassenden Überarbeitung unterzogen. Dadurch wirkt der Browser optisch etwas moderner, arbeitet aber auch schneller und schneidet in Benchmarks besser ab als zuvor. Insbesondere der Speicherverbrauch konnte wesentlich verbessert werden.

Firefox ist wahrscheinlich der flexibelste aller Browser: Beispielsweise kann die Buttonleiste individuell angepasst, oder mit Hilfe von Skins das komplette Aussehen des Browsers verändert werden. Auch Firefox verfügt über unzählige Erweiterungen, die installiert werden können. Fortgeschrittene Anwender können via about:config noch tiefgreifendere Änderungen am Browser vornehmen – unerfahrene User sollten dies jedoch lieber nicht probieren.

Das interne Screenshot-Werkzeug sowie die mitgelieferte Leseansicht sind praktische Helfer im Alltag.

Insgesamt ist Firefox ein schneller und sicherer Browser. Er ist einer der wenigen „wirklichen“ Open Source Browser, und insbesondere auf Linux-Systemen meist die erste Wahl. In Sachen Performance kann er jedoch noch nicht ganz mit Chrome mithalten.

Opera

Der nun schon fast seit 20 Jahren existierende Opera Browser galt schon immer als Geheimtipp mancher Anwender. Opera überzeugte schon früh mit innovativen Funktionen und Ideen – er bietet immer ein etwas anderes Nutzererlebnis als andere Browser und grenzt sich damit recht klar von ihnen ab.

Beispielsweise erlaubt der Opera Browser dass anlegen von Notizen, oder die direkte Einbindung von Messengern wie WhatsApp, Faceboook oder Telegram. Auch ist Opera für den Einsatz von Mausgesten zur Steuerung bestimmter Funktionen bekannt.

Opera bringt standardmäßig einen eigenen Adblocker mit. Auch eine Wallet für Kryptowährungen wird mitgeliefert. Ein besonderes Highlight aus Datenschutz-Sicht ist jedoch die Tatsache, dass sich Opera-Nutzer mit einem kostenlosen VPN verbinden und dieses unbeschränkt nutzen können. Beim surfen über das VPN muss man jedoch langsamere Ladezeiten hinnehmen. Trotzdem ist ein standardmäßig integriertes VPN-Feature eine Funktion, mit denen sich Opera sehr deutlich von den anderen Optionen in unserem Browser Vergleich abhebt.

Opera warb einst mit dem Slogan „the fastest browser on earth“ – auch heute noch gilt er als sehr schnell, sicher und stabil. Er ist in unserem Browser Vergleich vielleicht der innovativste aller Kandidaten.

Vivaldi

Der Vivaldi Browser ist wahrscheinlich der noch unbekannteste Kandidat in unserem Browser Vergleich. In letzter Zeit gewann er jedoch stark an Bedeutung. Auch dieser Browser basiert auf dem Open Source Projekt Chromium und gilt als äußert schnell, anpassbar und sicher.

Vivaldi ist Chrome relativ ähnlich, bietet aber einige zusätzliche Features: Dazu zählen beispielsweise der integrierte Lesemodus oder die Notiz-Funktion, ähnlich wie beim zuvor genannten Opera Browser. Auch Mausgesten sind ein standardmäßiges Feature von Vivaldi. Eine gewisse Ähnlichkeit zu Opera lässt sich also feststellen – und vermutlich nicht aus Zufall. Der Vivaldi-Entwickler gehörte einst nämlich auch zu den Gründern von Opera.

Sehr beliebt sind die Anpassungsmöglichkeiten von Vivaldi. User können aus einer Reihe vorgefertigter „Themen“ (Themes) wählen, und so das Aussehen des Browsers sehr deutlich verändern. Auch können Hintergrundfarben und -Bilder festgelegt, oder die Darstellung von Bedienelementen angepasst werden.

Vivaldi kann auf die Erweiterungen von Chrome zurückgreifen, d.h. der Browser verfügt hier über eine sehr große Auswahl.

In gewisser Weise könnte man also Vivaldi als eine Kreuzung aus Chrome und Opera betrachten, definitiv aber mit seinem eigenen Stil. Vivaldis Performance liegt jedoch etwas hinter der von Chrome, und bringt weniger besondere Spezialfunktionen (z.B. VPN, Crypo-Wallet etc.) mit als Opera.

Fazit

Wie Sie sehen ist die heute verfügbare Auswahl an Web-Browsern enorm vielseitig. Der Markt bietet eine Reihe sehr interessanter Browser, die allesamt überzeugende Features und Besonderheiten mitbringen. Daher kann es hier natürlich keinen klaren „Testsieger“ geben, der für alle Anwender die beste Wahl ist.

Vielmehr sollten Sie Ihren Browser gemäß Ihren persönlichen Vorlieben und Bedürfnissen auswählen. Und im Zweifelsfall können Sie natürlich problemlos mehrere Browser parallel installieren und persönlich testen. Es ist ohnehin empfehlenswert, zumindest einen zweiten Browser installiert zu haben – einfach für den Fall, dass Ihr Standardbrowser einmal ein Problem hat.

Ein paar allgemeine Tipps zur Auswahl des für Sie am besten geeignetsten Browsers können wir Ihnen jedoch noch mit an die Hand geben:

Wenn Sie auf schnelle Performance und möglichst rasche bzw. häufige Sicherheitsupdates Wert legen, könnte Google Chrome die beste Wahl für Sie sein. Sind Sie dagegen ein Verfechter von Open Source Software, haben Sie Datenschutz-Bedenken hinsichtlich Google, oder wünschen Sie sich einen sehr anpassbaren, flexibel Browser, so ist Mozilla Firefox vielleicht für Sie am geeignetsten.

Haben Sie Gefallen an innovativen Bedienkonzepten, und möchten Sie spannende Zusatzfeatures nahtlos in Ihrem Browser integriert haben, könnte dagegen Opera eine sehr gute Option für Sie sein. Oder wenn Sie gerne Neues ausprobieren, Ihnen Anpassbarkeit wichtig ist oder Sie sich eine Mischung aus Chrome und Opera wünschen, sollten Sie unbedingt einmal einen Blick auf Vivaldi werfen.


Web Analyse Tools für professionelle Ansprüche

Der folgende Artikel soll einen Überblick über professionelle Web Analytics Lösungen für den Enterprise-Bereich liefern. Wir stellen Ihnen 5 bekannte Analysetools näher vor.

Einleitung

Wenn Sie auf der Suche nach einer geeigneten Web-Analyse Software für Ihr Unternehmen sind, finden Sie hier einen Überblick über 5 der wichtigsten Optionen, die es aktuell am Markt gibt. Jedes der hier vorgestellten Web Analyse Tools hat seine individuellen Stärken und Schwächen – diese versuchen wir hier aufzuzeigen, um Ihnen die Entscheidung leichter zu machen.

Entscheidungen sind es auch, die von den Auswertungen eines Web Analyse Tools stark beeinflusst werden. Umso wichtiger ist es also, dass diese Auswertungen detailliert und realitätsnah sind. Die professionelle Web Analyse liefert handfeste Daten, die zum Treffen wichtiger Unternehmensentscheidungen herangezogen werden können. Sie helfen dabei, die eigene Zielgruppe besser kennen zu lernen, und das Nutzerverhalten auf der Webseite im Detail zu analysieren.

Insbesondere in den letzten Jahren haben sich Web Analytics Tools enorm weiterentwickelt. Von einfachen Besucherzählern aus den Anfängen des Webs sind wir mittlerweile weit entfernt – heute gibt es sehr komplexe und aufwendige Softwarelösungen mit weitreichendem Funktionsumfang. Eine Herausforderung für viele Unternehmen besteht jedoch in der Auswahl eines für sie und ihre Bedürfnisse am besten geeigneten Tools.

In unserer Übersicht haben wir versucht, ganz unterschiedliche Teilbereiche von Web-Analyse Werkzeugen zu berücksichtigen. Eine wichtige Rolle spielen dabei jedoch Dinge wie:

  • Der allgemeine Funktionsumfang
  • Die Möglichkeit zur Vernetzung mit anderen Tools
  • Wie flexibel und anpassbar das Produkt oder die Preisgestaltung ist
  • Wie es um Dateneigentum, Datenschutz und Datensicherheit beschaffen ist
  • Alleinstellungsmerkmale eines Tools, verglichen mit seinen Mitbewerbern

Wir hoffen, Ihnen damit einen interessanten Überblick über momentan am Markt verfügbare Werkzeuge geben zu können.

Google Analytics 360

000

Google Analytics ist die wahrscheinlich am weitesten verbreitetste Web-Analyse Software heute. Nicht nur Unternehmen, sondern auch Privatanwender verwenden es gerne für ihre Webseiten. Neben der kostenlosen Version von Analytics bietet Google jedoch auch eine spezielle Enterprise-Version für Unternehmen an: Ehemals bekannt als „Premium“ ist das heutige Analytics 360 die Webanalytics Lösung, die der Suchmaschinenriese für den Einsatz im Enterpriseumfeld anbietet.

Im März 2016 stellte Google seine Google 360 Suite vor – eine Sammlung von mittlerweile 7 speziellen Produkten, darunter auch Analytics 360. Neben Analytics 360 sind außerdem auch noch Google Optimize, Tag Manager, Audience Center, Data Studio, Attribution, sowie Google Surveys Teil der Google 360 Suite.

Google’s Enterprise-Produkt Analytics 360 unterscheidet sich von der kostenlosen Variante insbesondere durch eigens verfügbaren technischen Support, SLAs (Service Level Agreements), sowie höhere Limits.

Stärken von Analytics 360:

Google’s Analytics 360 ist mehr als bloß ein einzelnes Analytics Tool: Es ist Teil einer größeren Software-Suite mit unterschiedlichen Komponenten, die kombiniert eingesetzt werden können. Dieses Zusammenspiel mit weiteren Google Tools ist eine der wichtigsten Stärken von Analytics 360 – denn hier lassen sich unterschiedliche Datenquellen zentral sammeln und auswerten. Als Teil des großen Google Ökosystems profitiert Analytics 360 somit sowohl von zusätzlichen Datenquellen, als auch weitreichender Funktionalität.

Mit Hilfe von Custom Reports ist es möglich, automatische Berichte zu den für die eigenen Anforderungen wichtigen Kennzahlen generieren zu lassen. Das Google Data Studio kann darüber hinaus für eine besonders schöne Visualisierung der verfügbaren Daten genutzt werden.

Ein weiterer Vorteil ist jedoch auch die enorme Bekanntheit von Google’s Analytics Produkten (sowohl die kostenlose Version, als auch 360) im Allgemeinen. Im Internet und auch offline gibt es unzählige Ressourcen, die herangezogen werden können, um sich mit dem Tool vertraut zu machen. Es gibt eigene Fachbücher, diverse Blogbeiträge, Artikel oder Videoanleitungen, auf die Sie zurückgreifen können. Dort finden sich bereits vorgefertigte Lösungen oder Tipps zu den allermeisten Problemstellungen. Dies führt dazu, dass man das Tool vergleichsweise schnell erlernen, und auf Problem- oder Fragestellungen auch rasch eine Antwort finden kann.

Schwächen von Analytics 360

Was für manche Anwender ein Vorteil ist, sehen andere dagegen als problematisch an: Die reichhaltige Produkt- und Servicepalette von Google kann auch zu einer gefährlichen Abhängigkeit von einem einzelnen Anbieter führen. Wenn Ihnen unwohl bei dem Gedanken ist, so viele wesentliche Teilbereiche Ihres Onlinemarketings an einen einzelnen Anbieter auszulagern, sollten Sie sich vielleicht nach Alternativen zu Google’s Enterprise-Analytics Produkt umsehen.

Auch aus Datenschutzsicht könnte man es als bedenklich ansehen, so viele Daten mit Google zu teilen. Insbesondere wenn Ihr Unternehmen sensible Daten verarbeitet, müssen Sie hier vielleicht vorsichtig sein.

Preislich bietet Google für seine Enterprise Lösung momentan leider wenig Flexibilität – Sie können die Kosten nicht an die tatsächlich von Ihnen genutzten Produkte bzw. Produktbestandteile anpassen. Andere Anbieter bieten hier teilweise mehr Optionen und Auswahlmöglichkeiten an, das gewünschte Leistungspaket den eigenen Bedürfnissen sowie dem eigenen Budget anzugleichen.

Adobe Analytics

In den Jahren 2007 bis 2014 kam es zu einigen unterschiedlichen Akquisitionen durch den Adobe Konzern – dies führte schließlich zum Entstehen der Adobe Marketing Cloud. Teil dieses Softwarelösung ist auch Adobe Analytics, der professionelle Web-Analyse Dienst von Adobe. Das Tool zeichnet sich unter anderem durch seine hohe Anpassbarkeit aus.

Ähnlich wie beim zuvor genannten Analytics 360 kann auch Adobe Analytics mit anderen Produkten aus seiner Software-Suite integriert bzw. kombiniert genutzt werden. Adobe Analytics ist ein Tool mit sehr vielfältigem Funktionsumfang, und kann beispielsweise mit Ad-hoc-Analysen oder Echtzeit-Automatisierung aufwarten. Es wird gerne von größeren Konzernen genutzt – diese freuen sich auch über die persönliche Beratung durch den Kundensupport von Adobe.

Die Kosten für Adobe Analytics richten sich nach der Anzahl der Aufrufe, d.h. je mehr Aufrufe auf einer Webseite verzeichnet werden, desto höher können die Gebühren ausfallen. Konkret bezahlen Sie hier je 1.000 Server-Aufrufen eine Gebühr, wobei zu diesen Aufrufen sowohl Page Views als auch Downloads sowie etwaige definierte Custom Events gezählt werden.

Stärken von Adobe Analytics

Fortgeschrittene Anwender lieben Adobe Analytics für seine Anpassbarkeit und seine vielen verschiedenen Funktionen. Insbesondere die vielfältigen Segmentierungsmöglichkeiten sind ein Highlight dieses Produkts. Adobe Analytics ist ganz klar für das Enterprise-Umfeld in großen Unternehmen und Konzernen entwickelt – wenn dies auf Ihr Unternehmen zutrifft, sollten Sie es auf jeden Fall in die engere Auswahl nehmen.

Auch wenn die anderen Produkte innerhalb der Adobe Marketing Cloud für Sie interessant sind, und Sie ohnehin eine Anschaffung der Software-Suite überlegen, wäre es naheliegend auch auf Adobe Analytics zurück zu greifen.

Schwächen von Adobe Analytics

Adobe Analytics ist eher ungeeignet für kleine Budgets – dieses Tool zählt sicherlich zu den eher teureren Web-Analyse Lösungen auf dem Markt.

Die zuvor erwähnten, vielfältigen Features und die hohe Anpassbarkeit erfordern eine vergleichsweise hohe Expertise im Umgang mit der Software. Wer wirklich alle angebotenen Funktionen sinnvoll nutzen und ausreizen will, muss sich definitiv intensiv mit Adobe Analytics auseinander gesetzt haben. Die Lernkurve ist aufgrund der Komplexität dieses Tools also vergleichsweise steil.

Adobe Analytics arbeitet natürlich gut mit anderen Tools aus der Adobe Marketing Cloud zusammen – weniger gut jedoch mit den Tools von Fremdanbietern. Auch mit Google Produkten lässt es sich natürlich weniger gut kombinieren als Google’s eigene Analytics Lösung.

Webtrends

Webtrends ist ein absoluter Veteran im Bereich von Analytics-Software und Marketinglösungen im Allgemeinen: In diesen Bereichen bietet es bereits seit 1993 Produkte an. Ursprünglich gab es auch eine Webtrends Variante zum selber Hosten – diese wird jedoch von offizieller Seite mittlerweile nicht mehr unterstützt. Heute wird Webtrends daher als Software as a Services (Saas) am Markt angeboten.

Stärken von Webtrends

Webtrends ist relativ gut an die eigenen Bedürfnisse anpassbar, und bietet auch guten Support. Eine besondere Stärke dieses Web Analyse Tools ist jedoch sein Heatmap Feature: Damit lässt sich das Nutzerverhalten auf der eigenen Webseite sehr genau beobachten. Dies kann man nutzen, um gezielt Designentscheidungen zu treffen und mit konkreten Daten zu begründen.

Ebenfalls in Webtrends integriert ist ein recht gut anpassbares Reporting. Und wer mit Webtrends auch Intranet-Analytics betreiben möchte, kann dies über die SharePoint-Integration umsetzen.

Schwächen von Webtrends

Standardmäßig sind mit Webtrends leider nur Daten aus den vergangenen 120 Tagen verfügbar – das ist ein wesentlich kürzerer Zeitraum als bei vielen Konkurrenzprodukten. Um auch noch ältere Daten auszuwerten müsste man entweder auf Web Log Analytics zurückgreifen, oder aber spezielle Gebühren für eine längere Datenspeicherung bezahlen. Diese Gebühren fallen leider recht teuer aus.

Auch lässt sich Webtrends weniger gut mit anderen Softwarelösungen für Onlinemarketing verbinden, als vergleichbare Produkte auf dem Markt.

Piwik PRO Analytics Suite

Das Unternehmen hinter Piwik PRO wurde im Jahr 2013 gegründet. Die Web-Analyse Software schreibt sich insbesondere Datenschutz-Konformität auf die Fahnen, und möchte eine performante Analytics-Lösungen für den Enterprisebereich anbieten. Neben dem Datenschutz ist auch die technische Datensicherheit wichtig für Piwik PRO.

Die Hauptzielgruppen dieser Analytics Suite sind nicht nur große, sondern auch mittelständische Unternehmen, sowie Regierungsorganisationen.

Piwik PRO kann einerseits als Cloud-Lösung genutzt werden – die Serverstandorte sind dabei in den USA, sowie in Deutschland und den Niederlanden. Andererseits kann Piwik PRO jedoch auch als On-Premise Version beim jeweiligen Unternehmen vor Ort eingerichtet und betrieben werden.

Stärken von Piwik PRO

Die Piwik PRO Analytics Suite beinhaltet verschiedene Datenschutz-Features, die es Unternehmen erleichtern sollen, den gesetzlichen Bestimmungen im Sinne der DSGVO nachzukommen. Ein Beispiel hierfür ist der interne Consent Manager.

Als Kunde von Piwik PRO erhalten Sie außerdem Zugang zu den von der Software erfassten Rohdaten, d.h. Sie können Sie auch sehr gut in andere Tools einbinden.

Insbesondere seit der 2017 bzw. 2018 veröffentlichten Piwik Pro Analytics Suite sind heute auch besonders detaillierte Analysen der Customer Journey möglich.

Schwächen von Piwik PRO

Aktuell bietet Piwik PRO noch keine Schnittstelle um den Zugriff auf Rohdaten via BigQuery ermöglicht – es ist jedoch denkbar dass sich dies mit einer künftigen Version ändern wird.

Wenn Sie die On-Premise Variante von Piwik PRO nutzen wollen, müssen Sie definitiv über geeignete Server, sowie auch qualifizierte IT-Mitarbeiter verfügen. Das Unternehmen bietet gegen zusätzliche Gebühren Enterprise-Level Support an, der Ihnen behilflich sein kann, falls Ihre eigenen Mitarbeiter Hilfe bei der Einrichtung benötigen.

Etracker Web Analytics

Etracker Web Analytics ist ein Web-Analyse Tool aus Deutschland, dass bereits im Jahr 2000 gegründet wurde. Es ist, wie die meisten hier vorgestellten Web Analytics Tools, eine Cloud-Lösung. Auch Etracker Web Analytics legt großen Wert auf Datenschutzkonfirmität. Der gleiche Anbieter bietet der gleiche Anbieter einige andere kompatible Produkte an, die für einige Onlinemarketing-Aktivitäten interessant sein könnten (z.B. Visitor Voice für qualitative Umfragen, oder Web Controlling für den Datenabgleich mit Benchmarks im Industriebereich). Etracker Web Analytics lässt sich mit diesen Tools gut kombiniert einsetzen.

Stärken von Etracker Web Analytics

Auch Etracker bringt eine eigene Heatmap mit, anhand der sie erkennen, wie Benutzer auf Ihrer Webseite scrollen bzw. den Crusor bewegen. Es gibt außerdem die Möglichkeit, eine vollständige Customer Journey in Form eines Videos abzuspielen.

Schwächen von Etracker Web Analytics

Leider stellt Ihnen Etracker kein eigenes Support-Team zur Verfügung, um Ihnen bei der Einrichtung der Software zur Seite zu stehen.

Die Datenerhebung basiert bei Etracker gänzlich aus JavaScript – eine alternative Möglichkeit wird nicht angeboten.