Die digitale Transformation beschreibt den allgemein Wandlungsvorgang von analogen Prozessen/Unternehmen zu digitalen und datengetriebenen Geschäftsmodellen und Organisationen.

data is everywhere we can just retrieve it

Der wohl wichtigste Rohstoff des 21. Jahrhunderts

Jeder kennt die Zitate aus der Presse oder den Medien.

“Daten sind das neue Gold des 21. Jahrhunderts.” “Du kannst Daten ohne Informationen haben aber keine Informationen ohne Daten”.

Unsere Gesellschaft diskutiert rund um das Thema Datenschutz, Privatsphäre und zeigt wie immer auf die amerikanischen Internetunternehmen wie Google und Facebook, die vor allem in Europa mit großer Skepsis betrachtet werden. Und doch, fast jeder von uns nutzt Facebook und Google täglich. Der Anteil der Nutzer aus Deutschland, die “Google” als Suchmaschine verwenden ist mit über 85% sogar beachtlich höher als in anderen Ländern. Welche Ironie?

Und dabei zählt Google zu den wertvollsten Unternehmen der Welt. Woher kommt also dieses Misstrauen zumal Google und andere Konzerne aus dem Silikon Valley doch großartiges für die Welt geschaffen haben, nämlich ein Stückchen mehr Informationszugang und das für einen “Nulltarif”.

Daten, definiert

Daten = Plural von Datum. Meist Zahlenwerte, die durch Beobachtungen oder Messungen von echten Ereignissen erhoben wurden. Die Semiotik (altgriechisch = Signal), also die Lehre von Zeichen, beschreibt Daten als potentielle Informationen. Die Basis für Daten bilden Zeichen. Laut dem semiotischen Dreieck gibt es eine fest Beziehung zwischen Zeichen bzw. Symbol, dem tatsächlichen Gegenstand und dem Begriff. Dabei steht das Symbol für ein Ding bzw. Gegenstand. Symbole erwecken bei Menschen einen Begriff der sich auf das Ding bezieht.

„Die gesprochenen Worte sind die Zeichen von Vorstellungen in der Seele und die geschriebenen Worte sind die Zeichen von gesprochenen Worten. So wie nun die Schriftzeichen nicht bei allen Menschen dieselben sind, so sind auch die Worte nicht bei allen Menschen dieselben; aber die Vorstellungen in der Rede, deren unmittelbare Zeichen die Worte sind, sind bei allen Menschen dieselben und eben so sind die Gegenstände überall dieselben, von welchen diese Vorstellungen die Abbilder sind.“ – Aristoteles, Peri hermeneias, Erstes Kapitel

Ort und Zeit Messung

Sie haben sich schon lange gefragt warum auf ihrem Ausweis ihr Geburtsort und Datum steht? Zeit und Ort bestimmen fast immer ein Ergebnis das tatsächlich stattgefunden hat. Somit können Sie als Person neben ihrem Namen und Geschlecht auch eindeutig identifiziert werden. Jedes reale Ereignis, ob es der Besuch einer Webseite ist, oder die Lieferung der letzten Amazon Bestellung. Jeder Messpunkt besitzt in der Regel immer mindestens zwei Dimensionen nämlich Zeit und Ort. Diese bestimmen ein Ereignis mehr oder weniger exakt.

data is the result of the observation of real events

Der Ursprung von Daten

Wenn Daten also immer einen Zeitpunkt und einen Ort als Merkmal haben kann man auch davon ausgehen das es Daten seit der Messung der Zeit geben muss. Die Geschichte der Zeitmessgeräte lässt sich schon bis zu den Sumerern und dem alten Ägypten zurückverfolgen. Bereits vor 3.000 Jahren vor Christus gab es Sonnenuhren die, die aktuelle Tageszeit angezeigt haben. So genau was das wohl damals noch nicht. Man sagt auch das die Zeit relativ ist also ist wohl auch die Messung an sich relativ genau.

Arten von Daten

Man unterscheidet folgende Arten von Daten:

  • Strukturierte Daten die eine gleichartige Struktur aufweisen z.B. formuliert in einem Datenmodell
  • Semistrukturierte Daten z.B. Extensible Markup Language (XML)
  • Unstrukturierte Daten bspw. Texte, Grafiken, sonstige Dokumente

Daten unterliegen wie alles einem Lebenszyklus. Dieser entspricht auch den Operationen die man auf Daten anwenden kann auch “CRUD” genannt.

“C”, steht für “create”: Die Daten werden erzeugt.
“R”, steht für “read/retrieve”: Die Daten werden gelesen oder beschaffen.
“U”, steht für “update”: Die Daten werden verändert bzw. angereichert.
“D”, steht für “delete”: Die Daten werden gelöscht.

Das Zeitalter von Big Data

Das “Daten-Kambrium”

Big Data” steht als Synonym für eine große Ansammlung von Daten mit unterschiedlicher Ausprägung. Man spricht auch von den s.g. 4 V’s also dem “Volumen”, der “Velocity” – die Zeitintervalle in denen Daten erzeugt werden, der “Variety” – der Vielfalt von unterschiedlichen Datenquellen und der “Veracity” – also dem Wahrheitsgehalt der in den Daten vorhanden ist.

In den kommenden Jahren soll sich laut der “IDC” die weltweit, jährlich erzeugte Datenmengen vor allem auf Grund von Sensordaten nochmal verzehnfachen. Unternehmen haben heute schon Probleme mit ihren vorhandenen Datenmengen richtig umzugehen. Wie soll das in Zukunft dann aussehen?

Smart Data soll das Datenchaos in den Griff bekommen

Wie kommt man von Big Data zu Smart Data? Mittels Algorithmen oder händischen Analysen können aus unterschiedlichen Datenmengen wertvolle Informationen extrahiert werden. Die Informationen die aus einer Analyse resultieren nennt man Smart Data. Ein Beispiel für Smart Data ist zum Beispiel “Google Trends”. Aus vielen Suchanfragen die weltweit erzeugt werden kann man mittels Google Trends schnell feststellen wie sich diese entwickelt haben. Mit Google Trends bekommt man nicht nur die Rohdaten, sondern erhält direkt die Information.

Smart Data Initiativen sind im vollen Gange. Die Bundesregierung selbst hat viele Programme z.B. das “Smart Data Forum”, dafür eingeleitet. Smart Data ist von großer Bedeutung, da es den Weg für eine künstliche Intelligenz ebnet.

Quellen:
https://smartdataforum.de/en/
https://seo-summary.de/suchmaschinen/
https://de.wikipedia.org/wiki/Semiotik

Literatur:
Daten- und Wissensmanagement (Prof. Dr. Freimut Bodendorf)

 

without smart data there is no ai

»Smart Data bereitet den Weg für die künstliche Intelligenz.«

Jeder spricht heutzutage von Big Data, aber was heißt das eigentlich?  Big Data ist ein Begriff der sich vor allem durch die Entwicklung des Internets stark verbreitet hat, doch die wenigsten wissen was das wirklich ist. Vermutlich irgendwas mit Daten halt.

Big Data definiert

“Big Data”, steht als Synonym für große Datenmengen. Die Daten können unstrukturiert und verteilt sein und deuten auf eine vielfältige Anhäufung von unterschiedlichen Datenquellen hin. Was Big Data ausmacht sind die so genannten 4 V’s, diese stehen für:

Volume – Volumen: Es werden z.B. auch durch soziale Netzwerke enorme Datenmengen erzeugt.
Velocity – Geschwindigkeit: Es werden immer schneller neue Daten erzeugt sogar millisekündlich.
Variety – Vielfalt: Mehr Datenquellen z.B. Sensoren, Mobile Geräte, Cloud, ERP, CRM etc.
Veracity – Wahrheitsgehalt: Liegt die gewünschte Datenqualität vor bzw. sind die Messwerte korrekt?

 

forecast about the data volume increase until 2025

Wir leben im “Datenkambrium”

Seit der Entwicklung des Buchdrucks steigen die weltweiten Datenmengen rasant an. Laut der “IDC” sollen sich die weltweiten Datenmengen in den kommenden Jahren sogar nochmal auf Grund von Sensordaten verzehnfachen. Wir leben in einer sehr spannenden Zeit.

In den kommenden Jahren werden mit Internet-of-Things, E-mobility, Industrie 4.0 und Smart City neue Datenquellen entstehen.Grafik-Quelle: IDC. 1 ZB entsprechen ungefähr so viele Informationen wie es Sandkörner an allen Stränden der Welt gibt.

Smart Data, einfach erklärt

Was ist Smart Data? Folgendes Zitat bringt es gut auf den Punkt.

“Ziel ist es, Daten in Informationen und Informationen in Wissen zu verwandeln” – Carly Fiorina (ehemalige CEO von HP)

Wir leben in einer Zeit der “Reiz- und Informationsüberflutung”. Wir haben sehr viele Daten und doch wissen wir eigentlich fast nichts darüber. Wir sind uns gar nicht mehr sicher was richtig oder falsch ist, siehe “Fake-News”. Umso wichtiger wird es in Zukunft werden, dass jeder Mensch kostenlos auf “fundiertes Wissen” mit Hilfe von intelligenten Computern zugreifen kann. Das war ja die ursprüngliche Idee des Internets, eine Wissensdatenbank die validiert ist und Fakten aufzeigt, anstatt politischen Meinungsmachern zu dienen.

 

Aus Zeichen kann Wissen entstehen

Die Lehre von Zeichen auch “Semiotik” beschreibt es ganz gut. Wir Menschen sehen Zeichen (Signale) in unserer Umwelt die wir durch die Erfahrungen und auf Grund der Ordnung der Dinge zu deuten wissen. Die Wissenspyramide hilft beim Verständnis und ist ein vereinfachtes Modell das beschreibt wie aus der Bedeutung von Zeichen (Semantik), Wissen entsteht. Es ist ein wesentlicher Grundsatz der Wissenschaft die Informationen und Daten zu teilen die man zur Verfügung hat um daraus neues Wissen zu schaffen.

Wie kommt man von Big Data zu Smart Data?

Big Data kann als Rohstoff von Smart Data gesehen werden. Das Ziel von Smart Data ist es, sinnvolle und verwertbare Informationen einzusetzen. Dies kann mittels folgender Formel auch grob beschrieben werden: Smart Data = Big Data + Nutzen + Semantik + Datenqualität + Sicherheit + Datenschutz (nutzbringende, hochwertige und abgesicherte Daten)

 

smart data is the extraction of information gained from big data

 

Was Smart Data für die Zukunft bedeutet

Daten und Informationen sind reichlich vorhanden, doch smart sind die noch lange nicht. Wenn man die Entwicklung und Entstehung des Internets näher betrachtet wird man feststellen wo die Reise auch künftig hingehen wird. Derzeit befinden wir uns am Ende des Web 3.0, dem semantischen Web. Google leitet mit ihrem digitalen AI-basierten Assistenten “Duplex” eine neue Ära des Internets sein. Das s.g. Web 4.0 auch Web OS genannt.

Dieses Zeitalter des Internet wird geprägt durch intelligente Maschinen und Assistenten, die viel enger mit den Menschen auf natürlicher Ebene kommunizieren, als wir es uns heute überhaupt vorstellen können. Was wir bereits in vielen “Science Fiction” Filmen gesehen haben, rückt immer näher. Es liegt nun an der Gesellschaft diese neuen Technologien mit den Werten und Normen zu vereinen.

Quellen:

https://smartdataforum.de/en/

https://de.wikipedia.org/wiki/Smart_Data

https://www.seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper.pdf

https://de.wikipedia.org/wiki/Semiotik

In meinem letzten Artikel “Deutsche Digitalisierung vs. amerikanischen Erfindergeist“, hatte ich mich kritisch zu den Problemen in der deutschen Startup-Szene geäußert. Zur Freude meines eigenen Startups kann ich nun feststellen, dass sich auch hierzulande endlich etwas tut. Endlich ist es soweit! Deutschland öffnet sich für die Digitalisierung, das spürt man deutlich. Nicht nur in der Startup Szene, auch bei Rückfragen an den Mittelstand bemerke ich keine grundsätzliche Ablehnung mehr. Jetzt gilt es das Potential zu heben und gemeinsam anzupacken.

Die Media Lab Bayern hilft Startups

media lab bayern fellowship workshop

Es gibt viele tolle Programme die helfen können auch Deine Startupidee zum fliegen zu bringen

Eines davon ist die Media Lab Bayern Fellowship. Als Startup habt ihr die Möglichkeit in einer coolen Atmosphäre die Räumlichkeiten des Open Office als Arbeitsplatz kostenlos zu nutzen. Hier gibt es kompetente Ansprechpartner und Kontakte aus dem Medienbereich und sogar eine Bühne für “nicht-kommerzielle Meetups”. Unterstützt durch den bayrischen Staat. Es werden auch Veranstaltungen und Vorträge angeboten um sich weiterzubilden und um zu netzwerken.

 

Wie läuft der Contest bei der Media Lab Bayern Fellowship ab?

Drei Tage müssen sich die zugelassenen Startup-Teams vor einer kritischen Jury im Fellowship-Bootcamp beweisen. Jedes Team hat zugewiesene Coaches die den Prozess begleiten und dem Startupteam beratend zur Seite stehen. In der ersten Phase geht es darum seine Idee mit Hilfe eines Prototypens im Markt zu validieren. Wie genau soll der “Product-Market-Fit” validiert werden? Ganz einfach, erstmal muss das Business Model und Customer Value Proposition Canvas erstellt werden. Danach gibt es unterschiedliche Methoden die eigenen Thesen zu validieren, eine davon ist die Befragung von Unternehmen bzw. der potentiellen Zielgruppe. Unterschiedliche Verfahren wie Experiment Cards etc. können dabei helfen. Zudem bietet das Bootcamp praktische Tips und ein sportliches Pitch Training an. Am Ende des Bootcamps pitched jedes Team maximal 5 Minuten vor einer kritischen Jury. Danach werden nur die Teams weiterkommen, die von der Jury ausgewählt wurden.

 

Was hat uns das Bootcamp als Team gebracht?

Hier geht es nicht nur um das Preisgeld, sondern vielmehr um den Zusammenhalt und die Stärkung der Team Motivation. Nach solanger Zeit in der “Hacker-Bude”, haben wir gelernt worauf es ankommt. Zudem war die Sicht von außen mal wieder sehr spannend. Wir haben extrem viel über unser Geschäftsmodell gelernt, vor allem jedoch, haben wir den Fokus gefunden um die nächsten Schritte zu gehen. Das Bootcamp hat uns als Team sehr dabei bestärkt! Wir haben neuen Mut gefasst und die Unterstützung die wir brauchen um unser Produkt erfolgreich an den Start zu bringen.

Media lab bayern fellowship bootcamp batch 5

 

Nutzt den Aufwind und die Programme die zu eurem Startup passen

Wir sind froh, dass wir den Support bekommen den wir als Techniker brauchen. Als Gründer braucht man extrem viel Mut und Durchhaltevermögen, manchmal auch den s.g. “Hustler-Mode”. Oft gibt es Spannungen und auch Hürden die man nur als Team überwinden kann. Wir sind gespannt was die weitere Reise so bringt und freuen uns auf den Weg den wir aktuell eingeschlagen haben. Das Team von ABIS bedankt sich an die tolle Initiative des Media Lab Bayern und freut sich auf weitere spannende Programme die in der Bundesrepublik Deutschland enstehen. Wir sind zuversichtlich und motiviert die Digitalisierung in Deutschland so richtig zu-rocken!

 

daniel janz and christopher matt at the media lab bayern contest batch 5

 

Wie das Münchner Startup DBI Analytics GmbH mit ihrer cloudbasierten Datenplattform ABIS, die perfekte kollaborative Datenlösung für Unternehmen liefern möchte.

Der Begriff Digitalisierung steht ganz oben auf der Agenda der deutschen Politiker und während, die Repräsentanten des Volkes noch so manche Definition auf ganz unterschiedliche Art und Weise gebrauchen, oder diese versuchen zu erklären, macht ein Münchner Start-Up Nägel mit Köpfen. Das Team der DBI Analytics GmbH möchte mit ihrer kollaborativen Datenplattform ABIS, „Smart Data“, vor allem für klein- bis mittelständische Unternehmen einfacher in der Cloud zugänglich machen, so der Gründer und Geschäftsführer David Patrick Chang.

Unter dem Motto: „Komplexe Datenanalysen vereinfachen, relevante Informationen teilen und entdecken“, startete das Münchner Unternehmen im Frühjahr 2014 seine Mission. Im Frühjahr 2018 gelang es dem dreiköpfigen Entwicklerteam den ersten lauffähigen Prototypen der ABIS Analytics Cloud in den Pilotbetrieb zu nehmen. Derzeit arbeitet das Team an der Markteinführung der ersten Softwareversion, “ABIS OS Alpha”. Das Unternehmen DBI erkannte bereits frühzeitig ein enormes Potential für ihre Technologie und möchte sich als robuste Datenlösung aus Deutschland für die Digitalisierung des Mittelstands aufstellen.

“Daten sind der neue Treibstoff des 21. Jahrhunderts. Allerdings denkt jeder, der nicht mit dem Thema vertraut ist, sofort an umständliche IT-Strukturen und teure Prozesse”, so der Mitgründer Daniel Janz. Hier will sich das Team der DBI mit ihrer Datenplattform ABIS platzieren und Aufklärung leisten, denn bei allen Unternehmen, wie auch bei Behörden werden tagtäglich immer höhere Datenmengen erzeugt. Sowohl offline als auch online. Im Austausch mit lokalen Unternehmen, sieht die DBI, dass Daten immer noch nicht optimal eingesetzt werden. „Es gibt noch sehr viel Potential für den Einsatz von Daten in der Verwaltung, dem Handel und der Industrie”, so der Firmengründer David Patrick Chang.

„Eine intelligente Datenanalyse fängt bei der laufenden Messung der Marketingkanäle an und hört beim automatischen Abgleich der Lieferdaten auf“, erklärt der CTO Daniel Janz. Die DBI Analytics GmbH möchte mit ihrem cloudbasierten Applikationsbaukasten vor allem klein- bis mittelständischen Unternehmen dabei helfen, ihre Daten einfacher, kosteneffizienter und schneller auszuwerten. „Intelligente Assistenten sollen mit Hilfe künstlicher Intelligenz bei der Interpretation von Unternehmensdaten unterstützen. Auf Anfrage kann die Plattform eine Echtzeitanalyse des Betriebs vornehmen und dabei helfen, ineffiziente Prozesse aufzudecken und Optimierungsmaßnahmen vorschlagen“, prognostiziert das Gründerteam.

Hierfür stellt die DBI für Unternehmen, schlüsselfertige Datenapplikationen, und passgenaue Entwicklungs-dienste bereit. Jeder Datenbesitzer hat die volle Kontrolle über den Ablageort und den sicheren Transfer seiner Datensätze. Zudem kann jeder Nutzer über sein personalisiertes Cockpit und einer integrierten Chat-Funktion, einen direkten Dialog über Kennzahlen, Daten und Auswertungen mit Kollegen, Kunden, oder Partnern führen. Es ließen sich in naher Zukunft sogar rechtsgültige Geschäfte mittels der Blockchain-Technologie über die Plattform abbilden. So kann sich, laut den Gründern ein zuverlässiges und föderalisiertes Datennetzwerk zwischen Unternehmen und sogar Behörden etablieren.

Als erste Smart Data Applikation kann die Socialmedia Piraten Reporting App, Kennzahlen aus den sozialen Netzwerken in einer einheitlichen Datenbasis aggregieren und für das Online-Performance-Marketing über die ABIS Analytics Cloud zur Verfügung stellen. Die DBI plant weitere Kooperationsprojekte in den Bereichen Umweltdaten, Internet-of-Things und Industrie 4.0 aufzubauen.

Erste Pressemitteilung veröffentlicht am: 07.01.2019 | München

Kontakt und Ansprechpartner:
Maximilian Anzile
Tel: +49-152 2622 8589
Mail: maxi.anzile@abis-cloud.com
Webseite: https://abis-cloud.de

Smart Data and Analytics Cloud platform

“Smart Data” Definition:

Mittels automatisierter Verfahren oder Algorithmen werden aus großen Datenmengen (“Big Data”) relevante Informationen extrahiert. Ein Unternehmen verfolgt meist das Ziel aus Big Data, wichtige Erkenntnisse in Echtzeit zu generieren. Smart Data wird im Zuge der digitalen Transformation für Unternehmen und die Gesellschaft eine immer größere Rolle spielen. Mehr darüber unter: https://www.bmwi.de/Redaktion/DE/Artikel/Digitale-Welt/smart-data.html

 

Über die DBI Analytics GmbH:

Die DBI wurde im Mai 2014 nach einem erfolgreichen Digitalprojekt mit E.ON von dem Gründer David Chang ins Leben gerufen. Im Sommer 2016 startete die technische Entwicklung der ABIS Analytics Cloud mit dem Mitgründer Daniel Janz. Ein Jahr später konnte ein Prototyp in den Testbetrieb genommen werden. Die Entwicklung der ersten Testversion wurde im Herbst 2018 und mit Unterstützung des Frontenddesigners Christopher Matt erfolgreich abgeschlossen. Das Team hat die Produktentwicklung ohne Investment aus eigener Kraft gemeistert. Derzeit befindet sich das Cloud Analytics Betriebssystem ABIS OS Alpha in der Markteinführungsphase. Dabei unterstützt Maximilian Anzile für die Pressearbeit und den Aufbau von neuen Kontakten zur Wirtschaft und Industrie.

 

Weiterer Ausblick:

Die DBI plant ab Mitte des Jahres, öffentlich zugängliche, regionale Umweltdaten an ihre Datenplattform anzuschließen und über eine interaktive Weltkarte unter dem Motto, “Daten aus der Region erleben” frei zur Verfügung zu stellen. Zudem arbeitet die DBI mit einem Online-Shop aus Kaufbeuren zusammen. Dieser bietet handgemachte traditionelle Schmuckware aus der Region an.

Die DBI plant weitere Kooperationsprojekte in den Bereichen Umweltdaten, Internet-of-Things und Industrie 4.0 aufzubauen.

Das vierköpfige Team ist davon überzeugt, dass “Smart Data” im Zuge der Digitalisierung, für alle Unternehmen immer wichtiger wird. Das Team der DBI schafft eine technische Basis um komplexe Datenauswertungen mit Hilfe digitaler Kollaboration und durch assistenten-gestützte Analyseservices für Mitarbeiter mittels der Cloud zu ermöglichen.

Der Firmengründer David Chang hält Ende Januar ein Webinar auf der Bitkom Akademie zum Thema “Von Smart Data zu Big Data”.

https://www.bitkom-akademie.de/seminare/digitale-transformation/von-big-data-zu-smart-data-%E2%80%93-effizienter-und-schneller-handeln

Wir arbeiten tagtäglich damit. Es bestimmt mittlerweile sogar was wir konsumieren, Denken, Wissen oder vielleicht sogar fühlen. Und doch, die wenigsten wissen eigentlich was das Internet ist. Das Wort “Internet” ist aus dem Englischen „Inter+network“ zusammengesetzt. Ins Deutsche übersetzt auch „Inmitten-Netzwerk“. Also ein Netzwerk das zwischen vielen Computern eine gemeinsame Verbindung herstellt. Dabei kann sich jeder Rechner mit jedem anderen Rechner verbinden.

Die Anfänge des Internets liegen weit zurück

Als die ersten Haushalte und Unternehmen eigene Telefonanlagen installiert haben wuchs die Welt auf einmal viel enger zusammen. Man musste sich damals über zentrale Telefonvermittler an die andere Leitung vermitteln lassen um jemanden anzurufen. Jedes Telefon hatte eine eigene feste Adresse, so konnten die Mitarbeiter von den Vermittlungsanlagen die Stecker miteinander verbinden.

Related image

Eine alte Telefonvermittlungsanlage – Quelle: troeger.eu

Warum das Internet entwickelt wurde

Universitäten und Forschungseinrichtungen wollten damals schneller und effizienter Informationen austauschen. Damals gab es noch Großrechner, die ganze Räume füllten. Das erste Internet entstand also aus der Vernetzung dieser Großrechner heraus. Dass es einen rein militärischen Zweck verfolgte ist nur eine Legende.

Ein Großraumrechner – Quelle: Techpinions

Wie hat sich das Internet bisher weiterentwickelt?

Das Internet hat mehrere großartige Transformationen hingelegt. Man spricht auch von dem Web 1.0, Web 2.0 und bald auch dem Web 3.0.

Das Web 1.0 bezeichnet die Anfänge des noch jungen Internets. Es steht für die Ansammlung von Webseiten die vollständig durch s.g. „Hyperlinks“ verbunden waren. Allgemein ging es im Web 1.0 um statische Websites, die noch keine interaktiven Inhalte bereitstellten. Ein Hyperlink ist ein einfacher Link der einen User zu einer anderen Webseite weiterleitet.

Web 2.0 wird auch oft mit den Anfängen der sozialen Netzwerke gleichgesetzt. Es beschreibt eine Umgebung wo nun auch Nicht-Experten, benutzergenerierte Inhalte und Medien einfach und unkompliziert zur Verfügung stellen konnten.

Das Web tritt in eine neue Phase der Evolution ein. In letzter Zeit gab es viele Diskussionen darüber, wie man diese neue Phase nennen soll. Einige würden es vorziehen, nicht alles zu benennen, während andere vorschlagen, es weiterhin “Web 2.0” zu nennen. Diese neue Phase der Evolution hat jedoch einen ganz anderen Fokus als das, was Web 2.0 bedeutet.

 

Das intelligentere Web 3.0

Die Schwelle zum Web der dritten Generation ist bereits überschritten. Das Web wird vernetzter, offener und intelligenter. Es wird zu einem nahtlosen und interoperablen Ganzen. Semantik, also die Bedeutung von Zeichen, wird dabei eine immer größere Rolle spielen. Das Internet wird eine gigantische Datenbank die hoffentlich jedem gleichermaßen zur Verfügung stehen wird.

Web 3.0 wird also stärker vernetzt, offen und intelligent sein, mit semantischen Web-Technologien, verteilten Datenbanken, natürlicher Sprachverarbeitung, maschinellem Lernen, maschinellem Denken und autonomen Agenten.

Die Zukunft heißt Web 4.0! Nein es ist nicht Science-Fiction, es passiert und es ist ein natürlicher Prozess

Zeichen, die wir bereits heute bemerken, wenn man von künstlicher Intelligenz und smarten Chat-Bots spricht. Das Internet wird in Zukunft intelligente Assistenten anbieten, die für einen Informationen suchen und finden. Man spricht auch vom neuen „Web OS – Operating System“. Vielleicht ist das Internet die Geburt einer höheren Intelligenz die unser Leben bereichern kann.

Wir selbst bestimmen was wir daraus machen. Aus diesem Grund sollte die Digitalisierung ernster genommen werden. Man muss sich damit beschäftigen oder dafür entscheiden stehen zu bleiben und abzuwarten was passiert. Eine spannende Prognose des Web 4.0 findet sich hier.

Ein Teil des Internets der visualisiert wurde – Quelle Wikipedia (The Opte Project)

 

Sources:

https://lifeboat.com/ex/web.3.0

https://de.wikipedia.org/wiki/Internet

https://en.wikipedia.org/wiki/IBM_7090

tablet to order food on ewr airport

Ich bin erst kürzlich von einer längeren Reise aus New York gekommen und war verwundert wie weit doch die Digitalisierung in den USA im Vergleich zu Deutschland fortgeschritten ist. Ein nettes Beispiel findet sich bei einer der internationalen Flughäfen von New York (EWR). Mir ist aufgefallen das man in den USA Self-Service groß schreibt. Dort gibt es kaum noch Servicepersonal an Kassen, man scannt die Produkte selbst ein und zahlt meist mit Kreditkarte oder am Automaten. Bestellen kann man mit Tablets, die an fast allen Tischen aufgestellt wurden. Auch die Bannerwerbung macht deutlich wo künstliche Intelligenz sinnvollerweise derzeit eingesetzt wird.

In den amerikanischen Schulen ist es mittlerweile Standard das die Eltern über eine App die Noten ihrer Kinder jederzeit einsehen können. Man sagt das die Asiaten dazu neigen Konzepte aus der westlichen Welt zu kopieren. Ich habe die Befürchtung das wohl Europa dazu neigt, vor allem Deutschland, digitale Konzepte aus den USA zu kopieren. Es gibt genug Beispiele dafür, angefangen bei den sozialen Netzwerken bis hin zu E-Commerce Modellen. Im Silicon Valley spricht man auch von den deutschen „Copy-Cats“. Bestes Beispiel für den deutschen „digitalen Erfolg“ gibt Rocket-Internet und ganz vorne dran die Samwer-Brüder.

Wo soll das Ganze hinführen? Stehen wir kurz vor einem aus der doch so hoch gelobten deutschen Erfindernation? Und doch die meisten neuen Patentanmeldungen stammen aus dem deutschen Mittelstand. Doch bestimmend für die Zukunft der Digitalisierung sind keine Patente, sondern Startups. Aus eigener Erfahrung muss ich leider sagen das Deutschland im Hinblick auf die Digitalisierung keine große Rolle spielt. Die größten Internetfirmen stammen aus den USA, vorne weg mit Google, Microsoft, Facebook etc.

In New York sind mir viele Plakate für AI-Produkte aufgefallen die bereits im Einsatz sind

Deutschland hat meiner Meinung nach folgendes Problem: Zu viele Berater, zu wenig Macher. Es wird viel geredet, noch weniger gehandelt. Die Politik und Startup-Szene hierzulande befeuert vermeintlich innovative Unternehmen und blendet sich damit oft selbst. Die Bildung und das Grundverständnis für digitale Konzepte ist in der Bevölkerung kaum vorhanden. Es fängt bereits mit den populärsten Begrifflichkeiten „Digitalisierung“, „Big Data“ und neuerdings auch „KI“ an. Diese Begriffe werden für fast alles verwendet, was mit innovativen digitalen Konzepten zu tun hat.

In den 5 Wochen meiner USA Reise hatte ich geschäftlich mehr erreicht als in den letzten 5 Jahren in Deutschland. Wieso? Leider wirken auch deutsche Investoren und Entscheider aus vielen Unternehmen oft hilflos, wenn es um das Verständnis von digitalen Konzepten, oder gar dem Internet geht. Man richtet sich nach der Presse und den aktuellen Trends die heiß diskutiert werden.

In den USA geht es darum mit Tools das Leben einfacher, nicht komplizierter zu machen

Gibt es einen Ausweg aus diesem “deutschen” Dilemma? Meiner Meinung nach wird es schwierig, denn wieso sollte man sich hierzulande eingestehen das man Fehler macht? Diesmal spielt nicht nur der Erfindergeist eine wesentliche Rolle, sondern die Gesellschaft als Ganzes. Eine Änderung ist zäh und ungewiss. Ein Land kann nur in vereinten Kräften den digitalen Wandel meistern. Die deutsche Regierung muss ein Ökosystem für Startups schaffen die sich nicht aus eigner Kraft tragen können, jedoch interessante Konzepte verfolgen. Man muss endlich damit aufhören Ideen verbal auseinander zu reißen und sich vielmehr tiefer mit den Konzepten beschäftigen. Alles andere wäre nur eine Ablenkung der eigenen Unwissenheit. Diese wird teuer bezahlt werden, falls nicht rechtzeitig ein kollektives Umdenken stattfindet.

Die Zukunft in Deutschland gehört den Querdenkern nicht den BWL-Uniabsolventen

Als Firmengründer hatte ich es nicht immer leicht. Vor allem mit meinen asiatischen Wurzeln habe ich das Gefühl hier nicht anerkannt zu werden. Man muss sich ständig rechtfertigen und Beweise vorlegen. Das haben mein Team und ich getan. Innerhalb von drei Jahren haben wir ohne finanzielle Mittel eine hochkomplexe Analysesoftware in der Cloud entwickelt und erfolgreich an den Start gebracht.

Viele Unternehmen sind dabei bereits gescheitert. Unser Startup ist der Beweis das Geld alleine nichts bewegen kann. Es geht um die Vision und den Glauben daran die Welt zu verändern.

 

 

Sie kennen das Problem, die Zahlen in Ihren Excel Reports oder Dashboards weichen von den Zahlen in Ihrem Google Analytics Konto ab? Dann ist Ihnen sicherlich auch der Begriff „Daten-Sampling“ (Stichprobenerhebung) geläufig. Wie kann nun ein hochwertiges Google Analytics Reporting über mehrere Webseiten hinweg erstellt werden? Nun ja, in Google Analytics ist der Vergleich mehrere Datensichten s.g. Views gar nicht so möglich. Man kann immer nur eine View gleichzeitig analysieren. Wenn man z.B. für einen Kunden oder intern mehrere Seiten auswerten möchte muss man dies in einem weiteren Analysetool machen. Der folgende Artikel zeigt welche Schritte dazu nötig sind.

 

Was genau ist „Daten-Sampling“ (Stichprobenerhebung)

Google Analytics Server verarbeitet tagtäglich mehrere Milliarden Webanfragen. Sprich jedes Mal, wenn ein Webseiten-Besucher eine neue Aktion durchführt, ob es das Laden einer neuen Unterseite ist, oder einen Button drückt, wird ein so genannter Event an Google Analytics geschickt. Dieser wird registriert und erscheint dann in Ihren Google Analytics Statistiken. Um Ressourcen zu sparen werden bei großen Datenmengen nur Teilmengen betrachtet, wobei auf einer Datenstichprobe dann die entsprechenden Statistiken hochgerechnet werden. Damit ist die Auswertung schneller verfügbar und die Belastung der Server sinkt.

Laut Google erfolgt die Stichprobenerhebung in den Berichten automatisch sobald mehr als 500.000 Sitzungen erfasst wurden. Vor allem bei sehr großen Webseiten kann diese Grenze schnell erreicht werden.

 

Wie erkenne ich wann meine Google Analytics Daten gesampelt werden?

Ganz einfach, indem Sie unter Benutzerdefinierten Berichten einen Bericht mit den zu vergleichenden Metriken und Dimensionen anlegen und diesen als „Gesamtdatenbericht“ exportieren. Je nach Datenmenge kann es einige Minuten dauern bis der Gesamtdatenbericht zu Verfügung steht.

Der Gesamtdatenbericht enthält nun 100% korrekte Daten und kann nun dafür eingesetzt werden, ihre Reports auch Richtigkeit zu prüfen. Beachten Sie das für jeden Gesamtbericht auch s.g. Credits verbraucht werden. Diese werden jedoch täglich zurückgesetzt.

 

Wann die Stichprobenerhebung in Google Analytics für Ihr Reporting zum Problem wird

Normalerweise reicht es zur Betrachtung von Trends und der gesamten Entwicklung aus, mit Stichproben zu arbeiten. Problematisch wird das Ganze nur, wenn man zum Beispiel die Sitzungen oder Zielabschlüsse je nach Landingpage analysieren möchte. Umso mehr Dimensionen (Zeit, Landingpage, Medium, Source usw.) in einer Abfrage eingesetzt werden, desto wichtiger wird es mit ungesampelten Daten zu arbeiten. Man könnte sonst basierend darauf falsche Annahmen treffen.

 

Wie kann das Sampling verhindert werden?

Erstmal gar nicht, an die Vorgaben von Google Analytics muss sich wohl jeder halten. Es gibt jedoch Mittel und Wege dies elegant zu umgehen. Folgende Möglichkeiten gibt es:

  • Kleinere Betrachtungszeiträume wählen: Je kleiner der Ausschnitt ist, desto weniger Daten sind es.
  • Weniger Dimensionen verwenden: In einer Abfrage mit weniger Dimensionen dafür mehr Filtern arbeiten.
  • Unter Benutzerdefinierten Berichten kann man Daten auch als „unsampled Reports“, oder als s.g. Gesamtbericht herunterladen und in Excel oder sonstigen Tools weiterverarbeiten.

Bildergebnis für unsampled google analytics

 

Gibt es Tools oder Software die mir dabei hilft Daten aus Google Analytics zu extrahieren?

Es gibt diverse Tools z.B. Excel Plugins, die es ermöglichen Daten direkt in Excel zu laden um diese dort weiterzuverarbeiten. Aber auch diese Tools können das Sampling Problem nur bedingt lösen. Ich selbst habe folgende Tools analysiert und wurde leider vom Ergebnis jedes Mal enttäuscht.

  • NEXT Analytics: Ein Excel Plugin um Daten aus Google Analytics, Adwords und anderen Tools direkt in ein Excel File zu laden.
  • SSIS CDATA Google Analytics Connector: Eine SSIS Komponente die es ermöglicht Daten aus Google Analytics direkt in einer SQL Datenbank weiterzuverarbeiten.

 

Was also kann man tun damit man 100% richtige Daten aus Google bekommt?

Unser Entwicklungsteam hat eine eigene Lösung programmiert die es ermöglicht 100% richtige Daten aus Google Analytics zu exportieren. Dafür haben wir eigens einen API-Konnektor geschrieben und ausgiebig getestet. Das Ergebnis war jedes Mal positiv.

 

Wie haben wir es gemacht? Wie kann man das API Request Limit von Google Analytics umgehen?

Gar nicht, das steht ausdrücklich in der Beschreibung. Pro API Request erlaubt Google Analytics max. täglich 50.000 Request pro Projekt und 10 Datenbankabfragen pro Sekunde pro IP-Adresse. Wir haben es gelöst indem wir die Abfragen automatisiert solange verkleinern, bis wir von Google keine negative Meldung über ein Sampling zurückerhalten. Nutzt man außerdem mehrere IP-Adressen je nach Last, so kann man auch mehr Daten auf einmal ziehen.

Nutzen Sie doch ganz einfach unsere kostenlose Google Analytics App in ABIS. Hier erhalten Sie kostenlos einen Zugang den sie mit 3 Domains gleichzeitig nutzen können.

Schlusswort:

Wenn Sie das Thema näher interessiert und Sie Unterstützung benötigen, können Sie uns gerne kontaktieren. Wir helfen Ihnen dann gerne weiter.

In folgendem Artikel erklären wir wie sie Ihr eigenes Google Analytics KPI Dashboard einfach erstellen können: Wie erstelle ich ein eigenes Google Analytics KPI Dashboard?

 

Quellen:

https://developers.google.com/analytics/devguides/config/mgmt/v3/limits-quotas#unsampled_reporting

Google Analytics dashboard und reporting

Beachten Sie 5 wichtige Fragestellungen bevor sie ihr Google Analytics KPI Dashboard erstellen

Sie haben die Aufgabe erhalten ein oder mehrere Dashboards für das Online Marketing Team zu erstellen und dabei Google Analytics als primäre Datenquelle zu verwenden. Des weiteren müssen Sie unterschiedliche Webseiten aus Google Analytics in einem übergreifenden Bericht gegenüberstellen. Um diese Aufgabe durchzuführen stehen ihnen möglicherweise folgende Tools zur Verfügung: Excel, Tableau, Power BI, oder ein anderes Business-Intelligence-Tool.

Beispielsweise entscheiden Sie sich dafür ihr Reporting aus Google Analytics erstmal in Excel zu erstellen und nach erfolgreicher interner Abstimmung dann als Online Dashboard umzusetzen. Folgende Fragestellungen spielen dabei eine wichtige Rolle und sollten daher vor jeder Dashboard Erstellung sorgfältig überdacht werden:

  • Welche Daten aus Google Analytics benötige ich als Ausgangsbasis für meine Berichte?
  • Wie bekomme ich die Daten aus Google Analytics in mein Excel, Tableau oder Power BI Projekt?
  • Wie aggregiere bzw. berechne ich meine wichtigsten Google Analytics Management KPIs?
  • Wie pflege ich die Daten laufend ein, ohne zusätzlichen manuellen Aufwand für die Pflege der Dashboards zu erzeugen?
  • Wie organisiere ich meine Dashboards und für welche Nutzergruppen sollte ich diese anlegen?
  • Vorab ein paar allgemeine Information zu Google Analytics

Google Analytics ist das am häufigsten genutzte Webanalyse Tool um Nutzerdaten einer Webseite zu tracken und zu analysieren. In der Regel ist Google Analytics für Webseiten mit kleinem bis mittlerem Traffic kostenlos. Für Webseiten mit z.B. mehr als 100.000 Sitzungen pro Tag kann das Ganze auch was kosten. Google berechnet dabei s.g. Hits, also jedes mal wenn ein User eine Aktion auf der Webseite durchführt wird ein Event an Google Analytics Server übermittelt. Außerdem sollten sie unbedingt auf Daten-Sampling in Google Analytics achten. Weitere Details dazu und wie es behoben werden kann finden Sie in unserem Artikel: Google Analytics Data Sampling im Reporting vermeiden.

Frage 1: Welche Daten aus Google Analytics benötige ich als Ausgangsbasis für meine Berichte?

Um diese Frage zu beantworten sollten Sie sich vorher Gedanken über den Aufbau ihrer Ausgangstabelle machen. Google unterteilt die Daten hierbei in Metriken und Dimensionen. Was das ist wie folgt kurz an einem kleinen Beispiel erklärt:

Der Hund von Thomas trägt ein GPS Halsband welches in sekündlichen Intervallen an das Smartphone von Thomas Daten über den aktuellen Standort und sonstige Informationen übermittelt. Gehen wir mal davon aus das Thomas eine Nachricht erhalten möchte wenn sich sein Hund mehr als 1.000 Meter vom Grundstück bewegt. Das Halsband sendet somit in sekündlichen Intervallen die aktuelle GPS Koordinaten und die absolute Entfernung zum Grundstück. Hierbei kann nun die aktuelle Entfernung als Messpunkt angesehen werden. Die Koordinaten und die aktuelle Uhrzeit wiederrum sind Dimensionen die einen Messpunkt beschreiben. Eine Metrik oder Messpunkt wird durch seine Dimensionen wie Zeit, Ort etc. bestimmt.

Verwendung des Google Analytics Metrics Explorers:

Damit Sie nun ihre Ausgangstabelle bestimmen können verwenden Sie folgendes Tool, den Google Analytics Metrics Explorer verwenden. Hier – Link zu einem Google Analytics Developer Eintrag

Aktivieren Sie zu Anfangs das Feld „Only show allowed in segments“, damit sie nur Dimensionen und Metriken wählen die auch vom Datenmodell gültig sind. Hintergrund: Gültige Kombinationen – Nicht alle Dimensionen und Metriken können gemeinsam abgefragt werden. Nur bestimmte Dimensionen und Metriken können zusammen verwendet werden, um gültige Kombinationen zu erstellen. Markieren Sie eine Dimension oder ein metrisches Ankreuzfeld, um alle anderen Werte anzuzeigen, die in derselben Abfrage kombiniert werden können.

Wechseln Sie außerdem in den Modus „UI Names“ damit sie die gleiche Namensgebung wie auch in Google Analytics erhalten. Als nächstes können Sie ihre Metriken und Dimensionen auswählen und direkt prüfen ob diese gültig sind.

Begrenzung für ein Google Analytics Query Ergebnis:

 

Maximal können 7 Dimensionen und 10 Metriken in einer Abfrage verwendet werden. Es gibt ein paar Tricks wie man diese Anzahl erhöhen kann. Mehr dazu in einem unserer späteren Artikel.

In unserem Beispiel verwenden wir folgende Query

  • Dimensions: ga:date, ga:landingPagePath, ga:fullReferrer, ga:deviceCategory, ga:channelGrouping, ga:medium
  • Metrics: ga:users, ga:sessions, ga:bounces, ga:timeOnPage, ga:newUsers, ga:pageviews, ga:goalCompletionsAll

Google Analytics Dimensionen und Metriken erklärt:

Dimensionen

  • ga:date = Datum im Format YYYY-MM-DD
  • ga:landingPagePath = Die URL der Startseite einer Websitzung auf der Website. Also sprich die erste Seite die ein Nutzer auf der Webseite z.B. über eine Google Suche betreten hat.
  • ga:fullReferrer = Der genaue Pfad als URL inklusive Parameter einer externen Quellseite über die ein Nutzer auf die eigene Seite gelangt ist. Hier kann die Quelle des Traffic herausgelesen werden.
  • ga:deviceCategory = Um welches Nutzergerät die Sitzung durchgeführt wurde. Die Unterteilung lautet: Mobile, Tablet oder Desktop.
  • ga:channelGrouping = Hier werden Traffic Quellen aus den fullReferrer von Google bereits vorkategorisiert und gruppiert. Hier finden Sie zum Beispiel: Organic Search Engine, Direct oder Paid Search Engine etc.
  • ga:medium = Das UTM Medium beschreibt die Art der Quelle an sich zum Beispiel organic, ppc, etc.

Metriken

  • ga:users = Die Anzahl der eindeutigen Nutzer, welche über einen Cookie im Browser identifiziert werden. Probleme können hierbei entstehen wenn die Nutzer mehrere Geräte verwenden, es also eigentlich ein und derselbe Nutzer ist. Dies kann jedoch nur aufwendig unterschieden werden. In einem späteren Artikel lösen wir diese Thematik genauer auf.
  • ga:sessions = Die Anzahl der Sitzungen auf der Webseite. Eine Sitzung beginnt mit dem Eintritt eines Nutzers auf einer Startseite der Webseite. Führt der Nutzer keine Aktion innerhalb der nächsten 30 Minuten aus, verfällt diese und wird wieder als neue Sitzung gezählt. Eine Sitzung kann mit einem Besuch gleichgestellt werden. Der Kunde betritt den Laden und verlässt diesen nach einer bestimmten Zeit wieder nachdem er das Produktsortiment betrachtet hatte.
  • ga:bounces = Die Anzahl der direkten Absprünge nach Betreten bzw. starten einer Sitzung ohne das vorher eine Aktion durchgeführt wurde. Der Nutzer betritt die Webseite und verlässt diese ohne eine Aktion vorher durchzuführen. Z.B. Klick auf ein Webseitenelement oder folgen einer weiteren Unterseite.
  • ga:timeOnPage = Die Zeit in der ein Nutzer auf der Seite aktiv war, also eine Sitzung durchgeführt hat.
  • ga:newUsers = Neue Besucher Sitzungen innerhalb von 30 Tagen oder nach Löschen des Cookie im Browser. Es werden nur neue Sitzungen gezählt.
  • ga:pageviews = Die Anzahl aller Seitenaufrufe während einer Sitzung.
  • ga:goalCompletionsAll = Alle Zielabschlüsse. Diese können vorher in Google Analytics definiert werden.

Frage 2: Wie bekomme ich meine Daten aus Google Analytics in mein Excel, Tableau oder Power BI Projekt?

Wenn Sie nun soweit sind und genau wissen welche Dimensionen und Metriken sie aus Google Analytics laden möchten können sie zum Schritt übergehen und die Daten in Ihr Analytics Tool laden. Viele Business Intelligence Tools bieten fertige Schnittstellen Editoren dafür an. Bei allen Tools sollten Sie unbedingt auf das Sampling Level achten. Mehr dazu in folgendem Beitrag: Google Analytics Data Sampling im Reporting vermeiden

Damit kein Daten-Sampling auftritt empfehle ich die Google Analytics Benutzerdefinierten Berichte zu verwenden und dort eine Tabelle anzulegen. Diese kann dann als „Unsampled Report“ in Form eines CSV heruntergeladen werden. Dieses CSV Dokument können Sie wiederrum als Excel Datenquelle verwenden. Sie können aber auch Plugins wie Next Analytics verwenden um die Daten direkt in ihr Excel Sheet zu laden.

Frage 3: Wie aggregiere, bzw. berechne ich meine wichtigsten Google Analytics Management KPIs?

Damit Sie unterschiedliche Domains oder Properties unterscheiden können, empfehle ich eine weitere Spalte mit den Webseiten Urls oder Property IDs in Ihr Excel Sheet hinzuzufügen. Danach können Sie alle Daten untereinander aus den verschiedenen Konten aggregieren.

Sobald Sie ihre Daten in Excel oder in ein anderes Tool geladen haben können Sie ihre wichtigsten Kennzahlen (KPIs) berechnen. In Excel verwenden Sie am besten „Berechnete Metriken“ in der Pivot Sektion. Folgende KPIs können aus dem oben genannten Data-Set berechnet werden.

  • Absprungrate [Prozent] = ga:bounces / ga:sessions

Das Verhältnis von direkten Absprüngen und Sitzungen zeigt auf ob ein Nutzer nach Betreten der Seite mit ihren Inhalten interagiert oder nicht. Diese KPI kann Rückschlüsse auf das Targeting der Nutzer und die Attraktivität der Inhalte geben. Eine gute Absprungrate kann zwischen 10 – 30% liegen. Liegt diese deutlich unter 10% sollten sie prüfen ob das Tracking an dieser Stelle auch validiert wurde.

Durchschnittliche Sitzungsdauer [Minuten] = ga:timeOnPage / ga:sessions / 60

Diese Google Analytics KPI zeigt die durchschnittliche Dauer an, die ein Nutzer auf der Seite eine aktive Sitzung ausführt. Ermitteln Sie für ihren Shop oder ihre Webseite die durchschnittliche Sitzungsdauer die mit einer hohen Konversionsrate korreliert. Diese Sitzungsdauer kann nun als Benchmark für weitere Sitzungen von bestimmten Einstiegsseiten dienen.

  • Durchschnittliche Seitenaufrufe pro Sitzung [Decimal] = ga:pageviews / ga:sessions

Auch Seitentiefe genannt. Ein Nutzer navigiert durch unterschiedlich viele Seiten bis er erfolgreich einen Kauf tätigt oder anderweitig konvertiert.

  • Konversionsrate [Prozent] = ga:goalCompletionsAll / ga:sessions

Zeigt an wie viel Prozent der Nutzer Sitzungen auch zu erfolgreichen Abschlüssen geführt haben. Normalerweise liegt diese Rate zwischen 2% – 5 % in manchen Shops sogar höher auch gerne mal bei 17% – 20%. Die Konversionrate ist unter anderem stark abhängig von der Qualität des Shops aber auch der Branche und des Produktportfolios.

  • Anteil der neuen Besucher Sitzungen [Prozent] = ga:newUsers / ga:sessions

Eine KPI um auszuwerten wie hoch der Anteil von neuen Besucher Sitzungen liegt.

  • Sitzungen pro Nutzer = ga:sessions / ga:users

Hilfreich um festzustellen ob Nutzer eher einmalig oder mehrfach einen Kauf oder einen Abschluss auf der Seite tätigen. Diese KPI ist auch abhängig vom Produktangebot und der Branche.

Hinweis: Achten Sie darauf das im Nenner keine Nullwerte entstehen. Dies kann sein wenn sie die Daten in einem bestimmten Detailgrad filtern.

Frage 4: Wie pflege ich die Daten laufend ein, ohne zusätzlichen manuellen Aufwand für die Pflege der Dashboards zu erzeugen?

Am besten erstellen Sie eine Art Importprozess ihres heruntergeladenen CSV Files. Dieser kann in Excel z.B. mit Power Pivot ganz einfach erstellt werden. Die meisten BI-Tools bieten auch eine automatisierte Aktualisierung an. Versuchen sie an der dieser Stelle die Schritte möglichst gering zu halten und wenn möglich mit einem ETL Tool zu arbeiten. Wenn sie zum Beispiel neben dem Datum auch die Kalenderwochen, Monate und Jahre benötigen. Dies ist in einer der neueren Excel Versionen bereits automatisch integriert worden. Falls nicht dann erzeugen Sie einfach eine Art Hilfstabelle die sie mit dem Datum verknüpfen. Erstellen sie am besten hierfür ein Power Pivot Datenmodell.

Frage 5: Wie organisiere ich meine Dashboards und für welche Nutzergruppen sollte ich diese anlegen?

Sie kennen bereits sehr gut Ihre Dashboard Nutzer und den Bedarf auf der Abteilung oder der Teams? Umso besser, dann fällt ihnen diese Aufgabe leicht. Am besten organisieren Sie Ihre Zielgruppen so, dass sie pro Gruppe genau eine Google Analytics Query definieren, siehe Schritt 1.

Folgende Gruppen könnten interessant für Sie sein:

  • Traffic Channel Report: Dieser Web Report bietet Ihnen eine Übersicht der Leistung von Traffic-Quellen.
  • Device Report: Mit diesem Bericht können sie die Leistung Ihrer Nutzer Geräte wie Mobile, Desktop und Tablet analysieren.
  • Landingpage Report: Erhalten Sie eine Übersicht der wichtigsten Kennzahlen für alle Ihre Unterseiten.
  • Conversion Report: Hier bekommen Sie alle wichtigen Informationen über ihre Online Umsätze, Leads und Abschlüsse.

Das Ganze klingt ganz schön umständlich und zeitraubend. Da stimme ich Ihnen zu, doch es gibt Alternativen wo sich diesen Aufwand zu 100% sparen können. Denn falls Sie keine Lust oder Kapazitäten haben alle diese Schritte manuell auszuführen können Sie auch ganz einfach unsere Software Lösung ABIS unter die Lupe nehmen. Wir bieten eine Cloud Business Intelligence Plattform an, welche es ermöglicht Reporting Apps ganz einfach zu installieren und direkt ohne Aufwand, schlüsselfertige Dashboards mit ihren Daten zu erhalten.