Daten aus unterschiedlichen Quellen gemeinsam betrachten, filtern, auswerten und interpretieren um wichtige und laufend aktuelle Informationen zu erhalten.

Datenplattformen können den Austausch von Informationen, aber auch neue intelligente Dienste und die Automation von Verwaltungsprozessen fördern.

Die Informationsmöglichkeiten einer Stadt verbessern

Die Stadtverwaltung und öffentliche Einrichtungen bieten nützliche Informationen und Funktionen für ihre Bürger an. So soll es möglich sein für einen Standort auf einer interaktiven Karte, die genauen Öffnungszeiten, Kontaktinformationen und die geschätzte Wartezeit für Behördengänge anzuzeigen. Man könnte über eine mobile App sogar direkt einen Termin bei der Behörde vereinbaren.

Ideen für neue innovative Online-Services entwickeln

Insgesamt könnten alle öffentlichen Gebäude und Behörden auf der Karte verzeichnet werden. Bürger und Bürgerinnen können öffentliche Einrichtungen und Verwaltungsstellen der Stadt auf einer Karte über ein Formular bewerten. So kann die Stadtverwaltung die Qualität ihrer Angebote und Dienste auswerten, gezielter auf Beschwerden eingehen und ihre Leistungen punktuell verbessern. Angestellte der Verwaltung erhalten sogar ihr personalisiertes Cockpit (Dashboard) um tagesaktuelle Statistiken, Beschwerdeeingänge, Termine, Anfragen etc. zu überblicken.

Bewertungen von öffentlichen Einrichtungen und Diensten könnten auch anonymisiert abgegeben werden. Alle Bewertungen müssen vorher von einem entsprechenden Administrator der Stadt freigeschalten werden. Ein besorgter Bürger könnte ein Schlagloch auf dem Fahrradweg melden, andere Bürger aus der Nachbarschaft können dies entdecken und ebenfalls ihre Stimme laut machen damit der Schaden schnell behoben wird.

Menschen im Quartier vernetzen und Kooperationen stärken

Über öffentliche und private Chat-Kanäle können sich Bürger/innen untereinander, oder mit der Stadtverwaltung besser vernetzen. Die Kombination aus einer Karte, Suche und Chat-Möglichkeit in geschlossenen oder offenen Gruppen, ermöglicht viele neue Möglichkeiten. So können Bürger spielend leicht wie in einem offenen sozialen Netzwerk, Aktuelles aus der Stadt entdecken oder neue gemeinsame Initiativen starten.

(Behörden-)Alltag im Quartier verbessern und das Leben erleichtern

Über einen Chat-Bot können Formulare leichter und schneller angefragt bzw. heruntergeladen werden. Man könnte sogar eine automatisierte Hilfestellung anbieten um Formulare direkt auf dem Handy im Chat auszufüllen und gesichert an die Behörde zu übermitteln. Anschließend könnten sogar Termine oder Erinnerungen für einzelne Behördengänge über die App abgewickelt werden.

Nachbarschaften und Nachbarschaftshilfe im Quartier fördern

Da manche Chat-Räume öffentlich und über die Karte oder Suche schnell und einfach zu finden sind, können sich Bürger gezielt untereinander austauschen und zusammenschließen. Über die App können gemeinsame Initiativen angestoßen und organisiert werden die das Zusammenleben fördern und einen Schritt nach vorne machen um die Stadt der Zukunft mitzugestalten.

wenn intelligente analysebots die aufgaben eines datenanalysten übernehmen

Intelligente Analysebots könnten Daten bald selbständig auswerten und an Mitarbeiter kommunizieren

Laut einer Studie der IDC, soll sich die jährlich erzeugte Datenmenge, bis 2025 verzehnfachen. Viele mittelständische Unternehmen ersticken bereits jetzt, in einer Flut von Daten. Überall fehlen Fachkräfte und Analysten. Wer soll das enorme Potential von Daten überhaupt noch heben? Das Berichtswesen und die Datenanalyse werden immer zeitaufwendiger, die Kosten steigen.

Ein Abteilungsleiter einer Marketingagentur investiert fast 30% seiner Zeit, Auswertungen zu erstellen, Daten zu interpretieren, oder wichtige Erkenntnisse ad hoc an Kollegen weiterzuleiten. Gleichzeitig ist die Kommunikation von Kennzahlen und Auswertungen oft mühsam. Vor allem wenn komplexe Berichte von Mitarbeitern oder Kunden, ohne fachliche Vorkenntnisse, nicht ohne weiteres verstanden werden.

Ein Startup aus München arbeitet bereits an der Vision

In ABIS übernehmen intelligente Analysebots, die komplexen Aufgaben eines Datenanalysten. Damit müssen Mitarbeiter ihre Daten nicht mehr selbst laufend auswerten um aktuelle Ergebnisse zu erhalten. Bei signifikanten Vorfällen erstellt der Analysebot selbständig, einen leicht verständlichen Bericht, der dann an die verantwortliche Person kommuniziert wird.

Mitarbeiter können ihren Analysebots, ad hoc Auswertungen zuweisen und erhalten blitzschnell ein Ergebnis. Der Mitarbeiter bekommt ein automatisiertes Reporting auf Knopfdruck oder Zuruf. Zudem könnte ein Analysebot die Erhöhung eines Werbebudgets in sozialen Netzwerken vorschlagen, da diese sich womöglich, positiv auf die Ergebnisse einer Kampagne auswirken könnte. Der Mitarbeiter hat nun die Möglichkeit mit ABIS die vorgeschlagene Maßnahme direkt in Auftrag zu geben.

Smart Data City App München

Zu den beiden Firmengründern

Die Gründer David Patrick Chang und Daniel Janz sind überzeugte Datenaktivisten. Sie haben während ihrer Tätigkeit in Konzernen und mittelständischen Unternehmen bereits früh erkannt, dass Daten und Informationen ein wertvolles Allgemeingut sind und nicht einfach Wenigen überlassen werden sollten. Daten können Menschen dazu bewegen umzudenken. Aus diesem Grund möchten die Gründer die Daten-Demokratisierung weiter vorantreiben. Mehr erfahrt ihr hier 🙂

founder of abis cloud

 

 

Ähnlich wie bei einem Wetterbericht können mit Hilfe der prädiktiven Analytik, mögliche Szenarien der Zukunft mit einer gewissen Wahrscheinlichkeit vorhergesagt werden. Möglicherweise möchte der Marketingleiter eines E-Commerce Shops wissen ob es sich lohnt, weiterhin Geld in eine Maßnahme oder Online-Werbekampagne zu investieren. Mit Hilfe der prädiktiven Analyse kann der Marketingleiter auf Basis vergangener Messwerte, die Erwartungen der Zukunft ein Stück weit prognostizieren. Damit hat er eine viel bessere Entscheidungsgrundlage und verringert gleichzeitig die Wahrscheinlichkeit mehr Geld zu verlieren.

Was bedeutet prädiktive Analytik und wo wird es eingesetzt?

Der Begriff “prädiktiv” beschreibt das Etwas prognostiziert, berechenbar, anbahnend bzw. vorhersehbar ist. Im lateinischen wird die Bezeichnung “prae” erwähnt, welches als Adverb “voran”,  bzw. “voraus” bedeutet [1] . Die prädiktive Analytik umfasst eine Vielzahl von statistischen Techniken aus den Bereichen Data Mining, Predictive Modeling und Machine Learning, die aktuelle und historische Fakten analysieren um Vorhersagen über zukünftige oder anderweitig unbekannte Ereignisse zu treffen.

Die prädiktive Analytik ist ein recht junger Teilbereich der Analytik und wird in vielen technologiegetriebenen Branchen eingesetzt. Eine der bekanntesten Anwendungen ist das Credit Scoring, das in allen Finanzdienstleistungen eingesetzt wird.

Zeitreihenmodelle werden zur Vorhersage oder Prognose des zukünftigen Verhaltens von Variablen verwendet

Die im Laufe der Zeit aufgenommenen Datenpunkte können interne Strukturen aufweisen die kaum vorhersehbar sind. Daher sollten Trends oder saisonale Schwankungen berücksichtigt werden. Infolgedessen können Standard-Regressionsverfahren nicht auf Zeitreihendaten angewendet werden. Dafür wurden spezielle Methoden entwickelt, um die Trend-, Saison- und Konjunkturkomponente der Serie zu zerlegen. Die Modellierung des dynamischen Pfades einer Variablen kann die Prognosen verbessern, da die vorhersehbare Komponente der Serie in die Zukunft projiziert werden kann [2].

Wie erstelle ich selbst eine prädiktive Analyse auf Basis meiner Daten?

Alteryx ist eines der bekanntesten Tools in diesem Bereich. Die Produkte des Unternehmens werden für die Datenwissenschaft und Analytik eingesetzt. Die Software wurde entwickelt, um fortgeschrittene Analysen zugänglich zu machen [3].

Das Analytics-Tool Alteryx, bietet eine kostenlose Testversion an. Die Preise für eine jährliche Lizenz starten ab ca. 5.000 Euro. Im folgenden Screenshot präsentiere ich einen Analytics-Workflow, wo Daten aus dem Facebook Werbeanzeigen Manager verwendet wurden, um wichtige KPIs wie die Click-Through-Rate, Cost-per-Click etc. vorherzusagen. Ich habe mich in meiner Zeitreihenanalyse für das ARIMA-Verfahren entschieden. ARIMA ist ein Akronym, das für Auto-Regressive-Integrated-Moving-Average steht. Es handelt sich dabei um eine Modellklasse, die eine Reihe von verschiedenen Standardzeitstrukturen in Zeitreihendaten erfasst. [4].

Workflow for predictive analytics based on arima for facebook business kpis

Die Grafik stellt den Fluss von Daten dar. Man fängt von links an zu lesen und bewegt sich nach rechts. Erstmal muss man auf einen Datensatz zugreifen, also eine “Quelle”, dazwischen kommen einige Verarbeitungsschritte bis es in eine “Senke” (Zieltabelle) zurückgeschrieben werden kann. Jeder Knotenpunkt stellt eine Operation dar. Knapp 70% meiner Zeit habe ich damit verbracht, die Daten in das richtige Format zu bekommen. Insgesamt habe ich für den Workflow knapp drei Arbeitstage benötigt. Dargestellt durch die “blauen” Knoten wird auch klar das ein Großteil des Workflows genau eben aus diesen Datenbereinigungsprozessen besteht.

Was war das Ergebnis meiner prädiktiven Analyse für die Facebook Business KPIs?

Im nachfolgenden Chart wird die Entwicklung der “CTR”, bzw. Click-Through-Rate eines Facebook Werbekontos dargestellt. Die CTR ist eine Social Media KPI, die das Verhältnis von Klicks zu Impressionen auf einer Werbeanzeige in Prozent berechnet. Die “blaue Linie” beschreibt den tatsächlichen Ist-Wert im täglichen Verlauf. Die anderen “Farben” grün, gelb, rot, orange und türkis, beschreiben mögliche Erwartungswerte basierend auf der prädiktiven Analyse. Klar, die CTR kann nicht negativ sein deswegen lassen wir die Betrachtung der “türkisen-Linie” außer Acht.

7 days forecast based on arima time series analysis and facebook ad manager click through rate

 

Wie man auf Basis einer prädiktiven Zeitreihen-Analyse Anomalien erkennen kann

Als Unternehmen ist es nicht nur wichtig Daten zu sammeln und auf einen “Haufen” zu werfen, siehe Big Data sondern eben diese Daten in Erkenntnisse umzuwandeln, siehe Smart Data. Wie oben beschrieben, kann man mit Hilfe der prädiktiven Analyse den Erwartungswert einer Kennzahl vorhersagen. Trifft diese Erwartung nicht ein, so spricht man von einer Anomalie, also einer Abweichung von der statistischen “Normalität”. In der Prüfung meiner eigenen Vorhersagen bin ich ziemlich nah an die tatsächliche Entwicklung der Kennzahl herangekommen.

time series forecast with predictive analytics based on facebook data in dashboard - abis reporting tool

Die CTR – Vorhersage hat sich als zutreffend herausgestellt. Es wurden auch einige Anomalien erkannt.

Von der prädiktiven Analyse zum intelligenten und digitalen Assistenten

Falls nun bestimmte Grenzen einer Kennzahl unter- oder überschritten werden, so kann innerhalb der Software ein intelligenter Alert ausgelöst werden. Diese Grenzen passen sich dynamisch im Laufe der Zeit je nach Erfahrungswert selbst wieder an. Der Algorithmus lernt so zu sagen selbständig mit. Dieses Prinzip kann flächendeckend auf unterschiedliche Zeitreihen und Dimensionen angewendet werden. So wäre es denkbar, eine komplette Webseite in Echtzeit zu monitoren um passive Benachrichtigungen erst dann zu erhalten, wenn sich auch wirklich etwas in den Daten ändert. Der intelligente Algorithmus übernimmt den Job es Analysten. Damit kommen wir dem Web Operating System noch einen Schritt näher. Für den Marketingleiter eine super Sache, denn damit muss er nicht mehr selbst, proaktiv in die Zahlen reinschauen. Er kann nun in Echtzeit reagieren und die Daten im Dashboard erst prüfen, wenn der digitale Analyse-Assistent interessante Vorkommnisse gemeldet hat.

 

Fazit: 

Mittels der prädiktiven Analytik kann man mit einer gewissen Wahrscheinlichkeit die Entwicklung einer Kennzahl vorhersagen und mit dem Abgleich der Ist-Werte auch Anomalien erkennen, falls der Erwartungswert nicht eintrifft. Man sollte jedoch darauf achten wie man die Parameter einstellt. Das kann von Industrie und Branche sehr unterschiedlich sein. Vor allem im Handel sind meist saisonale Schwankungen die Regel. Zum Beispiel das Kaufverhalten eines neuen Produktes vorherzusagen ist ziemlich schwer, wenn noch keine validen Erfahrungswerte vorhanden sind.

 

Quellen:

[1] http://www.enzyklo.de/Begriff/pr%C3%A4diktiv

[2] https://en.wikipedia.org/wiki/Predictive_analytics

[3] https://en.wikipedia.org/wiki/Alteryx

[4] https://machinelearningmastery.com/arima-for-time-series-forecasting-with-python/

 

Vor allem in Zeiten einer schwächelnden Konjunktur ist es für den Fortbestand eines Unternehmens unerlässlich eine Kostenanalyse zu betreiben. Mit einer umfangreichen Kostenanalyse können Kostentreiber und Einsparungspotentiale identifiziert werden. Hierbei sollte man nicht den Fehler machen, durch falsche Budgetkürzungen das Geschäft zurückzubauen. Für viele Unternehmen ist und bleibt die Kostenanalyse eine Gratwanderung.

Mit der Kosten-Nutzen-Analyse überflüssige Ausgaben erkennen

Bei dieser Analyse werden die Kosten und der entsprechende Nutzen miteinander verglichen. Dabei wird häufig eine zu erwartende Zielgröße einem Geldeinsatz gegenübergestellt. Im weitesten Sinne spricht man auch vom Return-on-Investment (ROI). Beim ROI wird die Profitabilität einer Investition gemessen.

Die Gedankengänge sind ähnlich, wenn man betrachtet wie viel Geld ein Mitarbeiter erwirtschaftet hat oder wie viel Zeiteinsparung eine Softwarelizenz für die Arbeitseffizienz bringt. Grundlegend ist es meist schwer zu sagen wie viel Einfluss denn nun ein Mitarbeiter auf die Gesamtleistung eines Unternehmens hat. Vielleicht sieht man den direkten Nutzen einer Arbeit auch erst wenn der entsprechende Mitarbeiter nicht mehr im Unternehmen ist? Klar ist, die Kosten zu ermitteln und auf einzelne Positionen aufzuschlüsseln ist relativ einfach. Den Nutzen aber direkt zuzuordnen nicht.

Big Data Analytics hilft bei der Bewertung des tatsächlichen Nutzens

Der Schlüssel für eine erfolgreiche Kostenanalyse, liegt in der Erhebung von quantitativen Messgrößen und deren regelmäßige Auswertung. In folgendem Artikel befinden sich die nötigen Schritte um eine Kostenanalyse zu erstellen. Wir beschäftigen uns primär nicht mit dem zu erwartenden Gewinn, sondern vielmehr mit Faktoren und Kennzahlen, die helfen können den tatsächlichen Nutzen einer Ausgabe zu ermitteln.

Es geht erstmal darum die richtigen Messgrößen zu definieren, an den relevanten Stellen zu erheben und auszuwerten.

Ein paar Beispiele für Performance-Kennzahlen:

  • Umsatz pro Mitarbeiter: Vor allem im Vertrieb eine nützliche Kennzahl um zu ermitteln wie viel Umsatz ein Mitarbeiter generiert hat. Die Kennzahl kann aber auch über den gesamten Jahresumsatz / Anzahl der Mitarbeiter berechnet werden.
  • Marketing ROI (ROMI): Errechnet sich aus den Werbeausgaben, zum Beispiel nach Plattform aufgeschlüsselt. Man möchte wissen, welche Werbeausgaben an welchen Platzierungen, wie viele Abschlüsse und welche Abschlusswerte erzielt haben. Zum Tracking dieser Kennzahlen kann ein Webanalyse Tool eingesetzt werden.
  • EBIT – Earnings before interest and taxes pro Mitarbeiter: Der EBIT ist der Gewinn vor Steuern und wird meist zu Ende eines Jahres berechnet, kann aber auch während des Jahres laufend berechnet und ausgewertet werden. Das geschieht meist auf monatlicher Basis. Wenn man nun wissen möchte wie viel Gewinn ein Mitarbeiter im Durchschnitt erwirtschaftet so kann man dies wie folgt berechnen. EBIT / Anzahl der Mitarbeiter = Erwirtschafteter Gewinn pro Mitarbeiter

Um dies überhaupt erst zu ermöglichen müssen die korrekten Kennzahlen aus dem Unternehmen gemessen und analysiert werden. Dies kann sich von einem Spreadsheet, welches ein Mitarbeiter am Ende eines Tages ausfüllt bis hin zu einem automatisierten und komplexen Tracking-Verfahren erstrecken. Es gilt immer abzuwägen was im Rahmen einer Messung für Aufwand sinnvoll ist denn selbst hier muss der Nutzen klar abgewogen werden.

Binden Sie ihre Mitarbeiter in den Vorgang der Kostenanalyse mit ein und schaffen Sie Transparenz

Die Mitarbeiter sind das Gold Ihres Unternehmens. Gleichzeitig nehmen die Personalkosten meist auch den höchsten Kostenanteil ein. Keiner möchte Schwächen preisgeben oder gar seinen Arbeitsplatz verlieren. Als Führungskraft sollten Sie daher sehr vorsichtig mit dem Thema umgehen denn demotivierte und gar in der Luft hängende Mitarbeiter bringen nur Unruhe in den Betrieb und sorgen dafür das eine “Ellenbogen-Atmosphäre” aufkommt.

team play is important for mastering crisis in companies

Gemeinsam als Team kann man Krisen besser meistern

Sorgen Sie dafür das ihre Mitarbeiter selbst Vorschläge zur Messung von Kennzahlen zur Bewertung der Kosten und des Nutzens mitbringen. Es kann sogar sein das ihre Mitarbeiter Ideen mitbringen an die sie selbst gar nicht gedacht hatten. Der nötige Respekt und die Transparenz sorgen dafür, das sich Mitarbeiter aktiv in diesen komplexen Prozess einbinden. Am Ende entscheidet das Team was wichtig und relevant ist. So kann jedes Unternehmen eine Krise meistern.

Mit einem Social Business Intelligence Tool können Auswertungen Spaß machen

Social Business Intelligence bindet ihre Mitarbeiter da ein wo die Analyse stattfindet. Gleichzeitig kann mit dem Faktor “social”, wie in einem sozialen Intranet gemeinsam über Ausgaben diskutiert werden um kollektive Entscheidungen zu treffen, die von allen Mitarbeitern mitgetragen und mitbestimmt werden können.

data driven marketing dashboards on smartphone with group of people

Business Intelligence Lösung der ABIS Analytics Cloud für die Kostenanalyse einsetzen – Hier mehr erfahren

Business Intelligence 2.0 (BI 2.0) bezeichnet eine Weiterentwicklung des bestehenden Business-Intelligence-Modells, das Mitte der 2000er Jahre begann. Die Bezeichnung 2.0 wird aus der Terminologie Web 2.0 abgeleitet, die verwendet wurde um die Entwicklung des Internets in verschiedenen charakteristische Phasen zwischen 1.0 bis 4.0 zu unterteilen.

Bezeichnend für die Entwicklung des Business Intelligence 2.0 ist die Fähigkeit, dass Nutzer  in die Lage kommen, Daten einfacher abzurufen, zu analysieren und zu verteilen. Business Intelligence 2.0 Applikationen werden zudem kennzeichnend mit Cloud-Analytics-Technologien umgesetzt. Damit hat man als Nutzer die Möglichkeit auch über den Browser auf entsprechende Dashboards zuzugreifen. Dies steht im Gegensatz zu früheren proprietären Abfragetools, die bisherige BI-Software charakterisieren.

Einer der technischen Hauptfaktoren für die Entwicklung von BI 2.0 Systemen, ist der Einfluss von serviceorientierten Architekturen, auch als SOA bezeichnet. In einer SOA-Architektur werden Bausteine der Software wie die Datenbank, Server und Websites in Dienste gekapselt und dann so koordiniert, dass sie auf einer höheren Ebene orchestriert werden können.

„SOA ist ein Paradigma für die Strukturierung und Nutzung verteilter Funktionalität, die von unterschiedlichen Besitzern verantwortet wird.“

Ziel dabei ist die Wiederverwendung von Services und Komponenten um Ressourcen und Aufwände einzusparen. Gleichzeitig soll der Datenaustausch einfacher gemacht werden. Es soll möglich sein, Daten schnell aus einer Quelle abzurufen, auszuwerten und die Erkenntnisse intern besser zu verteilen.

Das Ziel der Datenanalyse ist die Informationsgewinnung. Wissen kann aber nur daraufhin entstehen wenn diese Informationen unter Mitarbeitern geteilt werden. Weitergefasst spricht man auch von Social BI, da es die Prinzipien eines sozialen Netzwerks adaptiert und mit Business Intelligence kombiniert. BI 2.0 ist zudem weborientierter als herkömmliche Datenabfrage- und Analysetools.

Quellen:

https://en.wikipedia.org/wiki/Business_Intelligence_2.0
https://de.wikipedia.org/wiki/Serviceorientierte_Architektur

data driven marketing dashboards on smartphone with group of people

Diejenigen, die im datengesteuerten Marketing erfolgreich sind, sehen erhebliche Vorteile – bis zu 30 % bei der Kosteneffizienz und 20 % mehr Umsatz. Forschungsergebnisse der Boston Consulting Group und Google – Januar 2018

Bereits in 2015 wurden in den USA 162 Manager von Forbes befragt, ob sie “data-driven Marketing” wichtig finden. 64% der Befragten stimmten nachdrücklich zu, dass datengesteuertes Marketing für den Erfolg in einer wettbewerbsintensiven globalen Wirtschaft entscheidend ist. Doch was hat sich seither in Unternehmen wirklich getan?

Eine datengesteuerte Katastrophe ist ein ernsthaftes Problem, das durch einen oder mehrere ineffektive Datenanalyseprozesse verursacht wird.

disaster if not using data driven structure can cost alot of trust

Die Illustration bringt es humorvoll auf den Punkt, doch das Problem ist ernster zu nehmen als man denkt. Im Zuge der Globalisierung stehen vor allem Unternehmen aus Europa unter enormen Druck mit den großen Spielern der Digitalisierung Schritt zu halten. China und die USA sind führend im Bereich “Künstliche Intelligenz – KI”.

Es herrscht zudem Unmut bei vielen Unternehmen aus Deutschland, denn es fehlen massiv Fachkräfte.

Vor allem die Softwareentwicklung und Data Science verzeichnen einen starken Zuwachs. Gleichzeitig steigt die Datenmenge in den nächsten 5 Jahren nochmal um das zehnfache an. Was also tun, wenn Fachkräfte fehlen und man schlichtweg keine Lösung für die kommende Datenflut hat?

Vielleicht kann Cloud Analytics helfen, doch was ist das?

Cloud Analytics verwendet eine Reihe von Analysewerkzeugen und -techniken, um Unternehmen dabei zu unterstützen, Informationen aus umfangreichen Daten zu extrahieren und in einer Weise darzustellen, die leicht kategorisiert und über einen Webbrowser schnell zugänglich gemacht werden kann.

Ein Zitat von TMR-Research aus 2018 bringt es auf den Punkt:

„Unternehmen nutzen Cloud-Analytics-Reporting-Tools, um die heutigen Geschäftsanforderungen zu erfüllen, die Mobilität ihrer Mitarbeiter zu erhöhen, den Mangel an IT-Know-how zu überwinden und nachhaltige Gewinne bei hohen Betriebskosten und sinkenden Gewinnmargen aufgrund des intensiven Marktwettbewerbs zu erzielen.

Die Nachfrage nach Cloud-Analysen steigt ebenfalls, da die Technologie die Pay-as-you-use Struktur und Software-as-a-Service (SaaS) Lizenzstruktur nutzt, die keine Hard- und Software-Installationen vor Ort erfordert. Die große Flexibilität, Einfachheit der Konnektivität und Datenkommunikation durch Cloud-Analyse-Tools sind auch einige der wichtigen Faktoren, die Unternehmen dazu bewegen, sich für Cloud-Analysen gegenüber herkömmlichen Lösungen zu entscheiden.“

Social BI als Data-Driven-Marketing Wunderwaffe für alles?

Im Marketing wurden schon immer “Key-Performance-Indicators”, kurz KPIs ausgewertet und für die Steuerung von Prozessen verwendet. Ist das wirklich so? Schauen sie doch mal selbst in Ihre Unternehmen hinein. Wer hat denn wirklich Lust auf langweilige und komplizierte Tabellenkalkulationen? Allein der Aufwand einen umfassenden Bericht für mehrere Webseiten auf Basis von Google Analytics zu erstellen ist kaum zu bewältigen. Viele Teams und Abteilungen scheitern bereits, an der Datenqualität und Infrastruktur, die viele Probleme und damit auch hohe Wartungskosten mit sich bringt.

Es ist notwendig, sich gründlich zu überlegen, ob es noch Sinn macht, weiterhin an manuellen Analyseverfahren festzuhalten. Es gibt mittlerweile ein breites Angebot an Dienstleistern und Plattformen, die eine Erlösung aus dem Excel Chaos versprechen sollen.

website optimization and better conversion rate through data driven marketing

Vielleicht können Social Business Intelligence Lösungen dabei helfen, datengesteuertes Marketing zu implementieren? Social BI, oder Social Business Intelligence, bezieht sich auf die Erstellung, Veröffentlichung und Freigabe von, benutzerdefinierten Business Analytics-Berichten und Dashboards durch Endanwender von Cloud-Technologien. Das Abrufen von Daten aus verschiedenen Social Media Netzwerken und die Erstellung von einfach verständlichen Berichten, wird dem Unternehmen helfen, sich für weitere Schritte zu entscheiden. Klingt erstmal doch nicht schlecht oder?

Die grundlegenden Funktionen eines sozialen Netzwerkes sind so gut wie Jedem bekannt. Daher liegt es nahe, dass sich die Prinzipien eines sozialen Netzwerkes auch bei der Datenanalyse in Teams durchsetzen wird, denn es bietet folgende Vorteile:

  • Das Teilen von Auswertungen so einfach wie mit einem Social Media Posting.
  • Die Möglichkeit, direkt auf Datenanalysen zu reagieren und Rückfragen zu stellen.
  • Analysen nachvollziehen und weitere Datenauswertungen anhängen.
  • Doppelarbeit in großen Teams vermeiden.
  • Ergebnisse und Maßnahmen dokumentieren.
  • Flexibler Austausch, von Daten und Informationen.

Und die Liste kann noch länger werden. Doch was machen wenn man keinen passenden Anbieter findet der Social Business Intelligence Tools bereitstellt?

Hier eine kleine Auflistung von Social BI Anbietern:

Yellowfin ist ein in Australien ansässiger Anbieter von Business Intelligence, Analytics, Dashboard und Reporting-Software. Es entwickelt und vermarktet eine Reihe von Produkten, die zur Transformation, zum Zugriff, zur Analyse und zum Bericht über Daten aus gängigen Geschäftsquellen wie Tabellenkalkulationen, Web-APIs und Datenbanken verwendet werden.

Domo, Inc. ist eine cloud-basierte Plattform, die den Entscheidungsträgern im gesamten Unternehmen mit minimalem IT-Aufwand einen direkten, vereinfachten und zeitnahen Zugriff auf Geschäftsdaten ermöglicht.

ABIS Analytics Cloud ist eine cloud-basierte Plattform aus München, die Online-Marketing Teams ermöglicht, schnell und einfach Daten abzurufen und im gemeinsamen Datenraum miteinander zu teilen. ABIS vereinfacht die Interpretation von Daten und fördert Smart Data in datengesteuerten Teams.

business kpi on dashboard

KPI ist eine englische Bezeichung für Key-Performance-Indicator. Im Internet unterscheidet man zwischen bezahlter und unbezahlter Sichtbarkeit. Wenn ein Interessent eine Anzeigenschaltung gesehen und auf die Webseite gewechselt hat, nennt man das Inbound-Traffic, bzw. eintreffender Nutzer auf die Webseite. Häufig wird der unbezahlte Bereich auch “Organischer Traffic” genannt. Der bezahlte Bereich hingegen wird oft auch als, “Paid Traffic” bezeichnet. Diesen kann man vor allem durch Maßnahmen in Sozialen Netzwerken, oder durch das händische Teilen von Blogbeiträgen erzielen.

Ein weiteres Prinzip im Web ist Search & Social

“Search”, beschreibt den Vorgang aktiv nach einem gewünschten Inhalt an Hand eines Suchbegriffs im Web zu suchen. Die tatsächliche Zielseite ist den Nutzer meist vorher noch nicht bekannt. Suchmaschinen wie Google bieten Suchfunktionen an, um Webseiten über ein Verzeichnis, mittels einer kontextsensitiven Suche bereitzustellen.

“Social”, bezeichnet die Phase eines Nutzers, der zum Beispiel in der Timeline, Beiträge sieht und dann auf diese reagiert, ohne nach etwas Bestimmtem zu suchen.

Folgende Marketing Kanäle werden häufig verwendet

Organic Search: Bezeichnet den unbezahlten organischen Bereich von der Suchmaschine. Man wird hier gelistet wenn man entsprechend seine Inhalte und die Struktur auf der Webseite, für Nutzer und dann Suchmaschinen, freundlich gestaltet hat.

Paid Search: Bezeichnet den bezahlten Bereich der Suchmaschine. Man wird hier gelistet wenn man entsprechend Inhalte auf Werbeplattform einstellt.

Social Media Organic: Wenn Postings in sozialen Netzwerken viral verteilt werden, ohne das die Anzeige hierfür beworben wurde.

Social Media Paid: Wenn Postings in sozialen Netzwerken durch bezahlte Kampagnen in der Timeline anderer Teilnehmer des Netzwerks angezeigt werden.

Der reguläre Verlauf eines Online Nutzers der mit einem Inhalt oder Angebot interagiert:

Nachdem eine Werbeanzeige von einem Nutzer gesehen wurde, könnte er auf die Anzeige klicken. Dies führte ihn dann zu einem gesetzten Ziel, z.B. eine Unterseite auf einer Webseite. Man kann demnach folgende Unterteilung vornehmen:

Impressions -> Klick auf die Anzeige -> Weiterleitung auf eine neue Webseite oder Inhalt -> Folgt dem Conversion Pfad auf der Webseite -> Abschluss auf der Webseite z.B. Kauf

SEO KPI conversion rate

Die meist verwendeten Online Marketing KPI

Impressions – Die Anzahl der Einblendungen des geteilten Inhalts im organischen oder bezahlten Bereich des Plattformbetreibers.

Klicks – Aus Impressionen resultierende Aktionen. Häufig Weiterleitung auf eine neue Seite.

Click-Through-Rate ist die Klickrate, also das Verhältnis von Klicks zu Impressionen.

Conversions sind die Zielabschlüsse die man für sein Geschäft auf einer Internetseite definiert hat.

Conversion Rate ist die Zielabschlussrate. Diese sollte man erhöhen damit auch die Kosten pro Werbeausgaben sinken können.

Ziel im Online Marketing ist es meist immer, die Kosten pro Werbeschaltung gering zu halten und die Abschlüsse zu steigern. Online KPIs können Auskunft darüber vermitteln, wie die Leistung einer Webseite aktuell ist.

key performance indicator kpi in web shop

KPI sind zusammengesetzte Kennzahlen, die eine einfache Auswertung und Steuerung einer Organisationseinheit erlauben. Sie geben Auskunft darüber, wie effizient ein Prozess oder Ablauf im Unternehmen ist.

Angenommen Sie sind Betreiber eines Online-Shops und bieten leckere Müslis an. Dann möchten Sie sicherlich Ihre Marketingkosten so gering wie möglich halten und dennoch den Umsatz steigern, indem sie mehr Müslis verkaufen. Doch wie soll das gehen? Das ist mit KPIs möglich. “Key Performance Indicators” sind aggregierte Kennzahlen, die einen aktuellen Überblick zur Leistung, über alle Maßnahmen im Marketing geben. Und das ist wichtig wenn man effizient Werbung schalten möchte.

Henry Ford hat es bereits sehr gut auf den Punkt gebracht. Knapp die Hälfte Ihres Werbebudgets verschwindet, im Nirgendwo. Und das hat sich heutzutage nicht geändert. Klar, die Online-Medien machen die Preise pro Werbeplatzierung günstiger und es kostet nur einen Bruchteil im Vergleich zu “Print”, das mag sein. Doch oft mangelt es an der richtigen Platzierung, dass Inhalte effizient gefunden werden können. Das freut natürlich die Geldbeutel von großen Werbeplattformen wie Google und Facebook. Der Shop-Betreiber ist darüber aber nicht wirklich erfreut.

Die Werbemöglichkeiten sind zwar jetzt für Viele erschwinglicher geworden, sogar für den kleinen Ladenbesitzer um die Ecke. Dennoch, das Internet ist damit auch unübersichtlicher. Viele Nutzer nervt die ständige Werbung die sich überall einem beim “surfen” quasi aufdrängt.

Was also als Online-Shop Betreiber machen, wenn die Komplexität der Kanäle und die Vielfalt an neuen Platzierungsmöglichkeiten im Internet weiter zunimmt? Den richtigen Fokus finden, ist doch klar. Einfacher gesagt als getan, denn wie findet man das Interesse seiner Zielgruppe am besten heraus?

Hier kommen Daten ins Spiel. Nutzer hinterlassen bei jeder Aktion im Web, Datenspuren die man analysieren kann. Dabei sollte man auf die richtigen Web-Tracking Kennzahlen schauen. Doch bei so viel verschiedenen Kanälen, was sind hier die wichtigsten? Aus diesem Grund ist es wichtig für den Shop-Betreiber, KPIs zu verwenden und damit gezielter Werbung zu schalten.

online media vs print media user illustration

Welche Ziele verfolgt das Geschäft und welche Kennzahlen gibt es?

Bevor man “Key Performance Indicator” definiert, muss man sich Gedanken über seine Zielsetzung machen, da KPI diese Ziele wiederspiegeln. Denn je nach Geschäftsmodell und Produktangebot kann dies sehr unterschiedlich sein. Definieren sie erstmal, die für ihr Geschäft, wichtigsten Kennzahlen. Wenn sie ein Startup sind und noch keine Kennzahlen haben, können Sie vorab auch erstmal überlegen, wie der Prozess im Marketing und Vertrieb aussehen könnte.

KPIs machen nur Sinn wenn man bereits Kennzahlen zur Verfügung stehen hat

Um die richtigen Daten überhaupt erfassen zu können, benötigen sie die passenden Werkzeuge und Tracking-Möglichkeiten. Danach können sie basierend auf einer gemeinsamen Datenbasis, die wichtigsten Kennzahlen in übergeordneten Metriken (“Key Performance Indicators”) für Ihr Geschäft zusammenfassen. Key Performance Indicator machen also nur Sinn wenn man schon bereits bestehende Kennzahlen zum Steuern des Geschäfts einsetzt. Welche Online KPIs für das Marketing besonders wichtig sind. Das erfahren sie in dem Artikel “Die wichtigsten Online KPIs einfach erklärt“.

data is everywhere we can just retrieve it

Der wohl wichtigste Rohstoff des 21. Jahrhunderts

Jeder kennt die Zitate aus der Presse oder den Medien.

“Daten sind das neue Gold des 21. Jahrhunderts. Du kannst Daten ohne Informationen haben aber keine Informationen ohne Daten”.

Unsere Gesellschaft diskutiert rund um das Thema Datenschutz, Privatsphäre und zeigt wie immer auf die amerikanischen Internetunternehmen wie Google und Facebook, die vor allem in Europa mit großer Skepsis betrachtet werden. Und doch, fast jeder von uns nutzt Facebook und Google täglich. Der Anteil der Nutzer aus Deutschland, die “Google” als Suchmaschine verwenden ist mit über 85% sogar beachtlich höher als in anderen Ländern. Welche Ironie?

Und dabei zählt Google zu den wertvollsten Unternehmen der Welt. Woher kommt also dieses Misstrauen zumal Google und andere Konzerne aus dem Silikon Valley doch großartiges für die Welt geschaffen haben, nämlich ein Stückchen mehr Informationszugang und das für einen “Nulltarif”.

Daten, definiert

Daten = Plural von Datum. Meist Zahlenwerte, die durch Beobachtungen oder Messungen von echten Ereignissen erhoben wurden. Die Semiotik (altgriechisch = Signal), also die Lehre von Zeichen, beschreibt Daten als potentielle Informationen. Die Basis für Daten bilden Zeichen. Laut dem semiotischen Dreieck gibt es eine fest Beziehung zwischen Zeichen bzw. Symbol, dem tatsächlichen Gegenstand und dem Begriff. Dabei steht das Symbol für ein Ding bzw. Gegenstand. Symbole erwecken bei Menschen einen Begriff der sich auf das Ding bezieht.

„Die gesprochenen Worte sind die Zeichen von Vorstellungen in der Seele und die geschriebenen Worte sind die Zeichen von gesprochenen Worten. So wie nun die Schriftzeichen nicht bei allen Menschen dieselben sind, so sind auch die Worte nicht bei allen Menschen dieselben; aber die Vorstellungen in der Rede, deren unmittelbare Zeichen die Worte sind, sind bei allen Menschen dieselben und eben so sind die Gegenstände überall dieselben, von welchen diese Vorstellungen die Abbilder sind.“ – Aristoteles, Peri hermeneias, Erstes Kapitel

Ort und Zeit Messung

Sie haben sich schon lange gefragt warum auf ihrem Ausweis ihr Geburtsort und Datum steht? Zeit und Ort bestimmen fast immer ein Ergebnis das tatsächlich stattgefunden hat. Somit können Sie als Person neben ihrem Namen und Geschlecht auch eindeutig identifiziert werden. Jedes reale Ereignis, ob es der Besuch einer Webseite ist, oder die Lieferung der letzten Amazon Bestellung. Jeder Messpunkt besitzt in der Regel immer mindestens zwei Dimensionen nämlich Zeit und Ort. Diese bestimmen ein Ereignis mehr oder weniger exakt.

data is the result of the observation of real events

Der Ursprung von Daten

Wenn Daten also immer einen Zeitpunkt und einen Ort als Merkmal haben kann man auch davon ausgehen das es Daten seit der Messung der Zeit geben muss. Die Geschichte der Zeitmessgeräte lässt sich schon bis zu den Sumerern und dem alten Ägypten zurückverfolgen. Bereits vor 3.000 Jahren vor Christus gab es Sonnenuhren die, die aktuelle Tageszeit angezeigt haben. So genau was das wohl damals noch nicht. Man sagt auch das die Zeit relativ ist also ist wohl auch die Messung an sich relativ genau.

Man unterscheidet folgende Arten von Daten:

  • Strukturierte Daten die eine gleichartige Struktur aufweisen z.B. formuliert in einem Datenmodell
  • Semistrukturierte Daten z.B. Extensible Markup Language (XML)
  • Unstrukturierte Daten bspw. Texte, Grafiken, sonstige Dokumente

Daten unterliegen wie alles einem Lebenszyklus. Dieser entspricht auch den Operationen die man auf Daten anwenden kann auch “CRUD” genannt.

“C”, steht für “create”: Diese werden erzeugt.
“R”, steht für “read/retrieve”: Diese werden gelesen oder beschaffen.
“U”, steht für “update”: Diese werden verändert bzw. angereichert.
“D”, steht für “delete”: Diese werden gelöscht.

Das Zeitalter von Big Data

Das “Daten-Kambrium”

Big Data” steht als Synonym für eine große Ansammlung von Daten mit unterschiedlicher Ausprägung. Man spricht auch von den s.g. 4 V’s also dem “Volumen”, der “Velocity” – die Zeitintervalle in denen Daten erzeugt werden, der “Variety” – der Vielfalt von unterschiedlichen Datenquellen und der “Veracity” – also dem Wahrheitsgehalt der in den Daten vorhanden ist.

In den kommenden Jahren soll sich laut der “IDC” die weltweit, jährlich erzeugte Datenmengen vor allem auf Grund von Sensordaten nochmal verzehnfachen. Unternehmen haben heute schon Probleme mit ihren vorhandenen Datenmengen richtig umzugehen. Wie soll das in Zukunft dann aussehen?

Smart Data soll das Datenchaos in den Griff bekommen

Wie kommt man von Big Data zu Smart Data? Mittels Algorithmen oder händischen Analysen können aus unterschiedlichen Datenmengen wertvolle Informationen extrahiert werden. Die Informationen die aus einer Analyse resultieren nennt man Smart Data. Ein Beispiel für Smart Data ist zum Beispiel “Google Trends”. Aus vielen Suchanfragen die weltweit erzeugt werden kann man mittels Google Trends schnell feststellen wie sich diese entwickelt haben. Mit Google Trends bekommt man nicht nur die Rohdaten, sondern erhält direkt die Information.

Smart Data Initiativen sind im vollen Gange. Die Bundesregierung selbst hat viele Programme z.B. das “Smart Data Forum”, dafür eingeleitet. Smart Data ist von großer Bedeutung, da es den Weg für eine künstliche Intelligenz ebnet.

Quellen:
https://smartdataforum.de/en/
https://seo-summary.de/suchmaschinen/
https://de.wikipedia.org/wiki/Semiotik

Literatur:
Daten- und Wissensmanagement (Prof. Dr. Freimut Bodendorf)